Электронная библиотека » Анатолий Косарев » » онлайн чтение - страница 4


  • Текст добавлен: 29 февраля 2024, 14:02


Автор книги: Анатолий Косарев


Жанр: Руководства, Справочники


Возрастные ограничения: +12

сообщить о неприемлемом содержимом

Текущая страница: 4 (всего у книги 23 страниц) [доступный отрывок для чтения: 8 страниц]

Шрифт:
- 100% +
11 – Фильтр —30

Фильтр – 30 накладывается на сайты за черные методы продвижения.


К ним относится: скрытый редирект, клоакинг, дорвеи, тексты, написанные цветом фона, и многие другие устаревшие уловки. Об этом более подробно написано выше, в этой главе.


Под этот фильтр попадают любые действия для повышения рейтинга, без повышения ценности страницы утверждает Google.

«Обратите внимание, что согласно нашему определению, все типы действий, предназначенных для повышения рейтинга (релевантности, важности или того и другого), без повышения истинной ценности страницы, считаются спамом».

(Таксономия веб-спама от Zoltán Gyöngyi & Гектор Гарсия-Молина)

Если не делать имитацию полезности, тем самым не нарушать правила, то этот фильтр не страшен.

12 – Additional Results (или Дополнительные результаты)

Этот фильтр Google пессимизирует страницы сайта, если считает их незначимыми для пользователя.


Значимость текста, как писал ранее – это в основном объемное и уникальное содержание с наличием LSI факторов.


В результатах выдачи страницы, которые Google посчитал не значительными ранжируются ниже, чем значимые, по мнению робота.


Самый распространенный метод поднятия рейтинга таких страниц добавить – входящих ссылок, с авторитетных сайтов. Но не забывайте, что ссылка с авторитетного сайта – это не гарантия увеличения ссылочной массы. Гарантией будет то, что люди переходят по этой ссылки, и получают ожидаемую пользу.


Но представьте, что на авторитетном сайте стоит ссылка в статье, которая утверждает, что на странице Васи Пупкина об этом рассказано более подробно. Google в этой ситуации верит людям, которые голосуют (кликают), или не голосуют (не кликают) за авторитетность этой ссылки.

13 – Page Layout Algorithm

(или количество рекламы)


Алгоритм, который определяет общее количество размещенной рекламы на сайте, и при её избыточности понижает рейтинг всего сайта.


Google заметил, что если рекламы раздражительно много на сайте, то люди покидают такие сайты даже с хорошим содержанием, не дочитывая тексты до конца.


Особенно этот фильтр отрицательно реагирует на рекламу, расположенную в верхней части страниц, которая по большей степени закрывает весь первый экран.


Google считает, что, открывая страницу сайта, пользователь сразу же хочет увидеть ответ на свой вопрос, заданный поисковику, а не рекламу.


Убийственно для пользователей открыть страницу с, казалось бы, ответом на свой вопрос, и увидеть, что весь первый экран забит рекламой, и требуется пользоваться полосой прокрутки, чтобы добраться до цели посещения этой страницы.

Пользователям проще считать, что Google тупит, не выдает качественные сайты, и перейти на другой результат поиска. Посетители отказываются искать ответ между рекламными площадками, им проще открыть другой сайт.


Ни для кого не секрет, что многие сайты создаются только для зарабатывания денег на рекламе, Google способствует этому, создав AdSense. Но считает, что для посетителя первична полезная информация, за которой пришел пользователь, а потом реклама, но обязательно по теме веб-страницы, на которой она стоит. Реклама должна быть как дополнительное расширения, как пояснение на его интересующую тему.


Например, человек зашел посмотреть как по симптомам, им указанным, лечить своего питомца. Пользователю не будет интересна реклама ремонта телефонов, или продажа женских сумочек. Но пользователя может заинтересовать реклама ветеринарной клиники.


У последней рекламы будет и больший отклик, и сам сайт пользователю покажется более полезным, что в конечном итоге оценит Google.


Так Google защищает пользователей от избыточной и не целевой рекламы.

14 – Pirate Algorithm (Пиратство)

Как уже говорилось не раз, Google отрицательно относится к копированию статей с других сайтов, он также отрицательно относится и к рерайту. По её мнению пользователям полезна только авторитетная и уникальная информация.


Можно даже уже видеть заявления, в котором говорится, что Google определяет, когда в тексте были переставлены, слова, слова заменены синонимами, и другие косметические изменения в тексте.


Кроме этого, Google прямо пишет в своем руководстве, что он распознает переведенные тексты с других языков, с использованием translate.google.com, и литературно не обработанный. И такой текст так же воспринимает как рерайт.


Не уверен, что по поводу синонимов, перестановки слов и переводов уже работает на все 100%, но уверен, что Google идет в этом направлении, и точность определения рерайта будет высочайшей, а поэтому не стоит пытаться зарабатывать дивиденды на чужом труде, даже если это ещё не полностью работает.


Более жестко Google относится, когда авторский текст, без изменения воруется с сайта, и перепечатывается на другом.


Google понимает, что на молодом сайте может появиться полезная статья, но быть проиндексированной на этом сайте позже, чем на другом, который уже приобрёл некоторый авторитет.


Если в этой ситуации применять правило: «Кто первый встал того и тапки», то значит, что поисковик поощряет пиратство, и молодым и перспективным сайтам никогда не пробиться в лидеры. Google же заинтересован, чтобы постоянно «вливалась новая кровь», чтобы поиск становился всё лучше и полезнее.


Фильтр Pirate Algorithm пессимизирует сайты, которые нарушают авторские права.


Google предлагает заявлять на контент свои авторские права через Google+, первоначально публикуя материал там. Но закрытие этой сети для физических лиц для многих авторов усложняет задачу закрепления авторских прав.


Остается один вариант – размещать статьи в социальных сетях, в надежде, что Google её там проиндексирует быстрее, чем на сайте конкурентов.


У Яндекса есть специальная форма для закрепления авторских прав.


У Google остается пока только одна форма, через которую правообладатель может подать жалобу. Но, как понимаете, подать жалобу и получить ответ, и получить положительный результат – это разные вещи.


Как говорится – обещать жениться и жениться – разные вещи.

15 – Gluing (Склеивание)

Google отслеживает не только авторский текст, но следит и за тем, что написано в анкорах (тексты ссылок, которые располагается между открывающимся тегом <a> и закрывающим тегом </a>), а так же к подписям к изображениям и видео.


Обычно рассылается ссылка с анкором в разные источники: своим «партнерам», друзьям или подготавливается автоматическая, или ручная рассылка по разным каталогам.


Фильтр Gluing обладает алгоритмами определяющего, как ссылка ставилась осмысленно или просто размножалась.


Сайты же акцепторы на которых плодятся бездомные ссылки сами по себе выпадают из первых строк или страниц поиска.


Кроме этого фильтр Gluing не любит «безжизненные» анкоры-фразы типа «Смотри здесь», «Перейдите по ссылки» и пр.


Если просите друга поместить ссылку на страницу своего сайта, то используйте ключевые или LSI фразы, которые передают смысл, как бы ответ на вопрос, который мог бы заинтересовать пользователя.

16 – Link Washer (Линкопомойка)

Под действием этого фильтра оказываются сайты, на страницах которых содержится чрезмерное количество исходящих ссылок на посторонние ресурсы.


Вероятность, что к сайту будут применены санкции, резко возрастает, если на страницах имеется свыше 20 внешних ссылок. Google считает, что никакая, даже научная статья не может ссылаться на 20 и более авторитетных изданий.

Фильтр «Линкопомойка» может быть применён к отдельным страницам. Если таких страниц несколько, так понижению рейтинга может быть подвержен и весь сайт в целом. Это зависит от степени заспамлености.


Правильнее говорить, что не поисковик наказывает, а поисковик освобождает место для более достойных сайтов.


Google понимает, что не за все нарушения нужно безапелляционно наказывать сайты, и если хозяева сайтов удаляют не тематические ссылки, то после последующей индексации сайт переносится на соответствующее место в результатах органического поиска.


Для того, чтобы не попасть или выйти из-под этого фильтра:


1. Проведите технический аудит, составьте полный список ссылок, исходящих со страниц на посторонние и малозначимые ресурсы. Помните, что, ссылаясь не по теме и / или на неавторитетный ресурс, одним этим происходит снижение веса страницы.


2. Составьте список ссылок, имеющих наименьшую значимость для пользователей и поисковой системы.


3. Удалите наименее значимые ссылки так, чтобы на каждой странице осталось не более 5—7 внешних ссылок, при условии, что текст статьи не менее 8—10 тыс. печатных знака.


После того, как источник проблемы устранён, сайт после очередной переиндексации будет освобожден от фильтра в течение периода от 2 недель до 2 месяцев, в зависимости от того, как Google считает нужным повторно переиндексировать ваш сайт.


Частота же посещения сайта для переиндексации зависит от частоты обновления сайта и его авторитета. Если обновления сайта не происходит долгое время, то и поисковик заходит на сайт редко.

Если же сайт обновляется ежедневно, а пользователи подолгу изучают контент, то переиндексация сайта может происходить ежедневно.


Популярные же новостные каналы могут посещаться поисковиком по несколько раз в сутки, и индексировать все страницы.

17 – Sociating (Социтирование)

Как говорилось не раз, Google отслеживает, чтобы ссылки были качественными.


Под качественными ссылками следует понимать, что сайты из одной тематики, рассматривают одни и те же вопросы, а ссылка – это некоторое расширение ответа на возможный вопрос пользователя.


Например, ссылка получает дополнительный вес, если в статье рассказывается об установки пластиковых окнах, а ссылка отправляет пользователя на сайт производителя этих окон, на статью, в которой рассказывается, из какого пластика изготовляются эти окна. Если сайт производителя окон авторитетный, то статья установщиков получает дополнительный вес. Если сайт не имеет авторитета, и мнимого производителя, то такая ссылка бессмысленна.


Плохой вариант ссылки, которая попадает под Фильтр Sociating, например такой.


Интернет-магазин бытовой техники ссылается на сайт местного, хоть и авторитетного поэта.


Вес таких ссылок не учитывается напрямую, но Google видит нарушение или неправомерное расширение тематики сайта, и понижает рейтинг интернет магазина при тематических запросах.


Хороший вариант сайту бытовой техники ставить ссылки на сайты производителей брендов. Например, в разделе «Зарядки для ноутбуков Asus» поставить ссылку на официальный сайт Asus, на страницу.

И не просто на главную страницу сайта, а на страницу, на которой показаны модели ноутбуков. Ссылку (анкор) можно подписать: «Документация зарядок моделей ноутбуков Asus».

18 – Bowling (боулинг, козни конкурентов)

Особый фильтр – фильтр жалоб. Действие, этого фильтра могут спровоцировать конкуренты.


Например, что вы украли контент с их сайта.


И жалоба будет вполне обоснована, если сайт конкурента пере индексируется чаще чем ваш.


Происходит так. Вы размещаете свою авторскую статью, конкурент её копирует, и размещает на своем сайте. После чего пишет жалобу в Google о том, что вы украли у него статью. Если Google первым проиндексировал копию конкурента, то вы уже точно потеряли статью, а ваш сайт получит пессимизацию.


Чтобы избежать такой ситуации перед публикацией статьи на сайте опубликуйте её часть в нескольких социальных сетях, со ссылкой на продолжение статьи на своем сайте.


Для этого хорошо подходит Дзен.

Но с дзеном – беда. Яндекс воспринимает, как будто оригинал находится на Дзене, и ее высоко позиционирует, а статья на сайте проваливается в результатах поиска.


Для закрепления авторства контента молодому сайту в Google, самым надежным способом, при публикации статьи, дать в Google контекстную рекламу на веб-страницу, на которой размещен этот материал.


Так вы хотя бы по дате публикации сможете доказать своё авторское право.


Другой вариант: написать статью в гостевом блоге, или каталоге, у которого высокая частота переиндексации, и в этой статье поставить ссылку на свою новую статью. Если выбрали правильную, часто индексируемую площадку, то авторское право будет закреплено за вами.


Более рискованно сразу после публикации статьи сразу купить ссылку на эту статью.


Ни один из перечисленных способов не гарантирует на 100% закрепление авторства за вами, но лучше что-то делать, чтобы увеличивать свои шансы.


Другой способ подгадить чужому сайту – писать на него отрицательные отзывы интернет-площадках.


Работают отрицательные отзывы, написанные и на других ресурсах, и величина пессимизации зависит от авторитетности площадки, на которой был написан отзыв.


В этом случае пара отрицательных отзывав не сделают погоды, но успокаивают жалобщика. А вот сотня негативных отзывав может существенно испортить репутацию.


Конкуренты могут писать отрицательные комментарии на вашем сайте, делать посты, не относящиеся к теме сайта, и ещё многое другое.


Мелким компаниям не следует этого бояться, но знать о том, что конкуренты могут повлиять на ваш веб-ресурс подлым образом. Но это нужно знать обязательно, чтобы отслеживать и вовремя пресекать происки конкурентов.


Постоянно надо отслеживать статистику сайта, и немедленно реагировать, обращаясь в поддержку Google.

19 – Supplemental Results (дополнительные результаты)

Робот Google индексирует все, что найдет на сайте, и все данные передает на анализ в фильтр Supplemental results. Этот фильтр разделяет проиндексированные страницы сайта на хорошие и плохие.


Страницы, которые Google считает хорошими, попадают в основной индекс.


Страницы же, которые Google посчитал плохими, попадают в дополнительные результаты.


Страницы сайта, не прошедшие через сито Supplemental results никогда не попадают в органический поиск. Google никогда ранее признанную страницу плохой не меняет своего мнения.


Если плохих страниц на сайте много, то Google считает сайт бесполезным пользователю, и никогда его не показывает. В этой ситуации не стоит пытаться улучшать что-либо. Единственный выход – закрывать сайт, и учитывая ошибки создавать новый.


В дополнительные результаты попадают:


В первую очередь, дубли страниц сайта.

О дублях страниц более подробно читайте в «Дубли или копии страниц на сайте».


Во-вторых, не корректное, или полное игнорирование основных тегов страницы (Title, Description). Если проигнорированы Title, Description и на страницы нет заголовка Н1, то это гарантия того, что сайт попадает под Supplemental results.

В дополнение замечу, что, хотя Google объявил, что перестал учитывать ключевые слова, но стоило нам на одном из сайтов, написать ключевые фразы, чтобы определиться со стратегией, как этот сайт вышел на первую страницу. Повторюсь, добавили только ключевые слова в мета—тег keywords, и всё. Возможно это совпадение, с каким-либо другим событием, или пришло время сойтись звездам. Но не стоит лениться, и поэтому заполняйте все имеющиеся мета-теги. Уж точно – хуже не будет, а плюсы – повысится качество сайта.


В-третьих, не достаточный вес у страницы. Если сайт содержит сотни или тысячи страниц, расположенные на 4-5-6 и т. д. уровнях и к ним добраться с 4-5-6 и т. д. клика, то будьте уварены, что такие страницы попадут в дополнительные результаты, потому что даже хозяин сайта считает их малополезными.

А для поисковика – чем выше уровень размещения статьи, тем он более значимый. Все же материалы ниже третьего уровня, для поиска считаются малозначимыми.


В-четвертых, если страница сайта не имеет обратных ссылок, нет качественного контента, то и такая страница может быть отнесена к дополнительным результатам.

Чем больше страниц сайта в дополнительных результатах, тем ниже авторитетность сайта, и тем ниже рейтинг всего сайта в результатах поисковой выдачи., что отрицательно влияет и на хорошие веб-страницы.

Поисковые роботы Google посещают страницы дополнительного индекса значительно реже, чем уже занесенные в индекс и поиск новых, поэтому лучше избегать попадания под действие фильтра Supplemental results, чем улучшать, или удалять «плохие» страницы, с надеждой, что скоро улучшенные страницы получат больший вес.

Дешевле сразу продумать интуитивно понятную структуру с пунктами меню, которые соответствуют запросам пользователей, чем после попадания в дополнительный индекс пытаться выводить сайт.

Обычному разработчику всё равно за что получать деньги, а вот хозяину сайта придётся платить дважды, если заблаговременно не позаботится о правильной структуре.

20 – Possum (Оппосум. Территориальное ранжирование)

Представьте распространенную ситуацию, когда в одном бизнес-центре находится 6 юридических контор, которые, судя по их сайтам, оказывают одни и те же услуги.


Если прежде все 6 компаний отображались в локальном поиске, то после введения Оссумума Google может показать в местном поиске только одну, или, возможно, две, юридические конторы вместо всех шести.


Для человека из 6 фирм выбрать одну, лучшую, практически не реально. Человек по природе своей в состоянии выбрать только из двух. Если ему приходится выбирать из трех, то выбор происходит следующим образом. Сначала сравниваются первые два, выбирается лучший, а затем выбранный и следующий. Уж так устроен наш мозг.


Гугл понимая это не совершенство мозга, создал свой искусственный интеллект, в помощь пользователю, оставив 2-е на выбор.


Только увеличив масштаб карты, или выбрав пользовательские фильтры, такие как «Лучшие», другие юридические конторы вновь появятся на прежних высоких местах в местном поисковике.


Но последнее кто будет делать?


В одном из примеров своего исследования MOZ отметил, что бизнес, расположенный слегка удаленно от географического скопления, подскочил с №21 до №10 в результатах локального поиска.


Это примечательно, поскольку в локальном поиске в SEO уже давно наблюдается, что компании, находящиеся за пределами района или города, имеют мало шансов, получить высокий локальный рейтинг по запросам, исходящих из этих районов или городов и содержащих названия этих городов.


В местном SEO было выдвинуто несколько дополнительных теорий о влиянии Опоссума. К ним относится увеличение чувствительности близости поисковика – расположения между физическим местоположением пользователя и предприятиями, которые Google показывает в результатах своих локальных пакетов.


Кроме того, есть мнение, что локальный фильтр Google работает более независимо от их органического фильтра после Опоссума, так как компании получают высокие рейтинги за списки, указывающие на страницы веб-сайтов с низким или «отфильтрованным» органическим рейтингом.


Помните, что Google всегда стремится показать наиболее релевантный веб-сайт конечному пользователю.


Улучшение общего локального SEO (включая полномочия домена, ссылки, контент, точность и распространение ваших ссылок, а также количество ваших собственных обзоров Google) может помочь «убедить» Google, что, если они собираются показывать только один бизнес в вашей категории и районе, он должен быть вашим.


Опоссум предоставляет хорошую возможность провести аудит конкурента, который не отфильтрован этим фильтром, чтобы увидеть, достигли ли они определенных показателей, которые делают их наиболее актуальным ответом Google.


Поскольку одним из триггеров для Опоссума является присутствие нескольких однотипных компаний географически близко расположенных друг от друга (например, кафе, или сувенирные магазины в исторической части города) и в одном месте, вы можете поэкспериментировать с изменением основной категории в Google Мой бизнес. (Сокращенное руководство по «Google Мой бизнес» см. в приложении. А полную версию этого руководства читайте в книге «50 руководств по SEO-оптимизации»).


Например, если ваша текущая основная категория – «Бар», и вы отфильтровываетесь, потому что эта категория также используется более сильным конкурентом около вас, вы можете протестировать переключение на «Пивной бар», если около вас нет ничего подобного.


Имейте в виду, что изменение категорий может привести к значительному снижению ранжирования, существенным колебаниям трафика и должно осуществляться только с четким пониманием потенциальных негативных воздействий и «Рекомендаций по представлению вашего бизнеса в Google».


Если же трафик уже упал до нуля из-за фильтрации, эксперименты могут оказаться единственным действующим средством для поднятия сайта в Google.


Поскольку Опоссум заложил основу для фильтрации списков на основе их общей принадлежности, это ставит под сомнение целесообразность составления списков для врачей и юристов, агентств недвижимости и аналогичных бизнес-моделей.


Учитывая влияние фильтрации, местной индустрии SEO необходимо продолжать изучать риски и преимущества списков, состоящих из нескольких специалистов, в том числе то, как диверсификация категорий Google может повлиять на результаты после Опоссума.


Страницы книги >> Предыдущая | 1 2 3 4 5 6 7 8 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации