Автор книги: Никита Мелькин
Жанр: Интернет, Компьютеры
сообщить о неприемлемом содержимом
Текущая страница: 5 (всего у книги 18 страниц) [доступный отрывок для чтения: 6 страниц]
Глава 3
Фильтры поисковых систем
3.1. Фильтры поисковых систем. Общая информация
Фильтры – это алгоритмы, вычищающие выдачу от плохих и некачественных страниц. А точнее даже от «плохих» страниц, искусственно маскирующихся под «хорошие». Т. е. от тех сайтов, над которыми плотно поработал оптимизатор для придания ресурсу псевдо-ценности, от ресурсов, использующих искусственную накрутку различных факторов ранжирования.
В следующих главах мы расскажем, что нужно делать для продвижения сайта. Эта же глава посвящена тому, чего делать НЕ НУЖНО. Перед началом продвижения вы должны знать, за что можно получить по рукам от поисковых систем.
Первым делом фильтры можно разделить на группы по принципу применения, фильтр может быть наложен:
– на весь сайт целиком. Т. е. весь ресурс исключается, либо сильно ограничивается в поиске;
– на конкретную страницу. Сайт в целом ранжируется нормально, трафик с поисковых машин есть, но некоторая отдельная страница в выдачу по своим запросам не попадает;
– на пару «запрос + страница». Хорошо ранжируется не только сайт, но даже и конкретная «зафильтрованная» страница. По всем своим запросам, кроме некоторых. Т. е. по «запрос 1» – высокие позиции, а по «запрос 2» – вообще нет в выдаче. Хотя оба запроса одного уровня и оба на странице раскрываются. Просто поисковик посчитал, что с «запросом 2» вы чего-то намудрили и информация по нему недостоверная. Но при этом поводов для какого-то серьезного «наказания» нет.
Фильтры можно классифицировать по времени наложения:
– ранние фильтры. Рассчитываются еще на этапе индексации. Нашел робот ссылку на ваш ресурс. По уму она должна увеличивать весомость и авторитетность вашего сайта. Но по каким-то причинам роботу эта ссылка не понравилась, и он обнулил ее вес. Такие фильтры не видны явно, а проявляются в том, что усилия по продвижению сайта не дают результатов. Это явный намек на то, что «в консерватории что-то подправить нужно», т. е. пересмотреть модель продвижения;
– поздние фильтры. Релевантность сайта уже рассчитана, он занял некоторое предполагаемое место в выдаче. После этого алгоритм проверяет страницы на «спамность» – может там сплошное масло масляное из ключевых слов. И если так – рассчитанная позиция резко ухудшается. Такие фильтры, как правило, заметны хорошо – позиции сильно падают вниз;
– фильтры перед выводом. Они накладываются непосредственно перед выдачей результатов. Все уже посчитано, сайт получил позицию, и вдруг в последний момент просто удаляется. Так работает аффилят-фильтр, срабатывающий, если в выдаче есть несколько схожих сайтов одного владельца. В выдачу допускается только один из них.
Теперь перечислим основные причины наложения фильтров.
– фильтры за переоптимизацию контента. Возможно вы поместили в текст ключевых слов сверх всякой меры, да еще выделили их жирным шрифтом. Либо тексты у вас не уникальные, а взяты из других источников. А может быть уникальны, но бестолковы и не несут никакой реальной пользы. Сюда же можно отнести агрессивную рекламу. В общем, это фильтры, накладываемые за содержимое сайта, за его низкое качество;
– фильтры за внешние ссылки. Появление огромного числа внешних ссылок разом (ссылочный взрыв), некачественные ссылки, переспам в анкор-листе (текстах ссылок) – все это указывает на попытку «накрутки» ссылочной популярности и может послужить причиной наложения фильтра;
– фильтры за накрутку поведенческих факторов. Искусственная попытка улучшить поведенческие факторы (специальными программами, либо с помощью толпы «школьников», выполняющих ваше задание) может также послужить причиной «наказания».
3.2. Вилы фильтров. Фильтры Яндекса
В этой главе мы в основном рассказываем о фильтрах Яндекса. Но сразу оговоримся, что и у Google есть аналогичные алгоритмы, работающие очень схожим образом. Так что информация из этой главы одинаково применима к обеим поисковым системам. Те же фильтры, которые имеют особую специфичность и существенно отличаются в реализации у Google и Яндекс вынесены в отдельные главы и о них разговор впереди.
Вы уже знаете в общих чертах что такое фильтры поисковых систем. Теперь расскажем, какие фильтры бывают:
«Ты спамный» или фильтр за переоптимизацию контента. фильтр призван отсеять страницы, искусственно перенасыщенные ключевыми словами.
За что накладывается фильтр:
– чрезмерная плотность ключевых слов, затрудняющая чтение;
«В нашем салоне свадебных платьев вы можете купить самые лучшие свадебные платья, дешевле, чем в других салонах свадебных платьев».
Нравится вам читать такой текст? Вот-вот, Яндексу тоже не нравится. Обратите внимание, что релевантность текста более чем отличная – ключевая фраза «свадебные платья» встречается несколько раз, в разных падежах, да еще и выделена жирным и подчеркиванием. Но по понятным причинам такой текст отправляется под фильтр и псевдо-релевантность его не спасет.
– злоупотребление тегами акцентирования – bold, Н и т. п., т. е. излишнее выделение ключевых слов жирным шрифтом, тегами заголовков и т. п.
– «портяночные» страницы. Портянкой называют страницу с очень длинным текстом.
Добавить достаточное количество нужных фраз можно не только через увеличение плотности ключевого текста, но и просто сделав статью длиннее. Текст большой – пиши что хочешь, красную черту «спамности» не перейдешь. При этом статья хоть и большая, но полезности в ней ноль.
Используя современный Интернет-сленг такую статью можно описать словами «много букав ниачем, ниасилил». Такие страницы вполне логично тоже уходят под фильтр.
– перечисление ключевых слов в TITLE или тексте. TITLE должен быть осмысленным. Если вместо этого там будет стоять «отдых в Египте, туры в Египет, отели Египта, экскурсии в Египте» – то это явно красный флажок для Яндекса.
Также раньше было модным в начале каждой страницы писать что-то вроде «нас находят люди по следующим фразам: отдых в Египте, туры в Египет, отели Египта, экскурсии в Египте». Этакий финт ушами – вроде бы и ключевики воткнули и стройность текста не нарушили. Сейчас это не пройдет.
– использование спамных конструкций текста. Здесь в противоборство вступают психология и правила русского языка.
Предположим вам нужно купить себе деревянную беседку. Если вы позвоните в магазин, то спросите примерно следующее: «Здравствуйте, подскажите, пожалуйста, ваши цены на деревянные беседки?». А вот обращаясь к Яндексу свой запрос сформулируете скорее всего так: «беседки деревянные цена».
Естественно, возникает желание вставить в текст ключевую фразу именно в том точном виде, в каком ее набирают в поиске. Если несколько извратиться, то при желании ее можно все таки вписать в статью без нарушения правил русского языка. Что-то вроде:
Беседки деревянные, цена которых классная
На сайте нашем можете свободно отыскать.
Так вот, на самом деле «беседки деревянные цена» – так не говорят даже те, для кого русский язык не родной. Яндекс это понимает и если видит текст, перенасыщенный такими неестественными языковыми конструкциями, то может отправить его под фильтр.
Фильтр за переоптимизацию может накладываться как на отдельные страницы, так и на целый сайт. Если спамных страниц немного, то они не принесут вреда ресурсу в целом. Но если таких большинство – то под фильтр может легко уйти весь сайт.
ОЧЕНЬ ВАЖНОЙ особенностью фильтра является его работа в связке с поведенческими факторами страницы, и эти факторы имеют приоритет.
Если пользователям ваша страница нравится-они на нее заходят, читают ее, комментируют-то будь она хоть десять раз спам-ная, никакого фильтра не появится. Яндекс понимает, что может ошибаться, и если материал высоко ценят люди, то нечего ему умничать и оценивать качество текста. Если же страница содержит переспам, и пользователи с нее сбегают через пару секунд – то это практически гарантия фильтрации. Тут поведенческие факторы наоборот подтверждают наличие «плохого» контента.
Фильтр Яндекс АГС. На seo форумах и в обсуждениях частенько встречается две непонятных аббревиатуры – СДЛ и ГС – которые противопоставляются друг другу. Поясню их значение. СДЛ – Сайт Для Людей, а ГС – гм… напишу немного обтекаемо ГуаноСайт (пардон за нелицеприятный термин). Честно скажу – не знаю, как сам Яндекс расшифровывает аббревиатуру АГС, но рунет в своем мнении однозначен, АГС – АнтиГуаноСайт.
Задача этого фильтра не в том, чтобы понизить позиции «плохого» сайта, а в том, чтобы вообще не помещать его в базу. Количество информации в Интернете растет такими темпами, что поисковым системам приходится тяжело. И они не могут позволить себе забивать свою базу данных (индекс) бесполезными страницами. Для этого и работает АГС-он просто не пропускает бессмысленные сайты в базу.
Главный симптом этого фильтра – в индексе Яндекса остается от 1 до 5 страниц с сайта, все остальные не индексируются. Т. е об остальных страницах, будь их хоть 1000, Яндекс ничего не знает и знать не хочет, в поиске участия они не принимают, фильтр выполнил свою задачу -1 страница есть и хватит, остальные пусть не забивают место в базе данных. Кстати, на оставшиеся в индексе страницы никаких дополнительных санкций может и не накладываться.
Главные причины АГС:
– не уникальный контент (зачем индексировать страницу, если на ней та же информация, что УЖЕ есть на других сайтах);
– бесполезный контент (статья вроде бы уникальная, но никому не нужная)
– массовая продажа ссылок. Т. е. создан не для людей, а для торговли ссылками, а стало быть реальные посетители ничего нужного там не найдут.
Т.е. главные причины – бесполезность ресурса как такового. Теперь о причинах второстепенных. Сами по себе они не являются криминальными, но ставят сайт «на подозрение»:
– молодой возраст
– бесплатный движок/CMS
– бесплатный хостинг
– бесплатный домен 3-го уровня (site.narod.ru).
– низкая посещаемость, отсутствие не-поискового трафика
Каждый фактор сам по себе ничего плохого не несет. Все «старые» ресурсы были когда-то молодыми. На бесплатных Jomla и Wordpress созданы миллионы сайтов. На бесплатных хостингах люди размещают личные некоммерческие странички, иной раз очень полезные. Посещаемость – дело наживное. Но если все эти факторы соединить вместе – прямо таки напрашивается мысль об очередном ГС.
Как не попасть под АГС? Делать полезный сайт. Как вывести сайт из-под АГС? Превратить сайт из бесполезного в полезный, а затем писать в команду тех. поддержки Яндекса).
Аффилят-фильтр Яндекса. Здесь в принципе все просто. Допустим у вас есть два сайта на одну тему, скажем о продаже хомячков. Оба сайта хорошие, с уникальным и главное полезным содержимым. Оба сайта любят пользователи, они имеют хорошие поведенческие факторы. Беда в том, что хомячки продаются одни и те же.
И стало быть нет смысла показывать оба этих сайта в выдаче одновременно.
Никаких санкций на сайты не накладывается, просто в выдаче будет присутствовать один из них. Вполне возможно, что по запросу «купить хомячка» будет Хомяка. ру, а по «продажа хомячков» – Хомякг. ру. Но занять два места в выдаче не получится.
Связь двух сайтов устанавливается по контактным данным, по владельцу домена и т. п. Ну и по общей тематике само собой.
Ссылочный взрыв и плохие ссылки. Фильтр может быть наложен на сайт за неестественно быстрый прирост ссылочной массы. Вашему проекту без году неделя, а на него уже 10 тыс. ссылок. Явно чувствуется прогон по супер базе каталогов или подобное «умелое» действие по раскрутке.
Нужно понимать, что если ссылки на вас появились естественным путем – то ничего страшного. Возможно вы какую-то «вирусную» идею пустили в массы, и народ действительно валом пошел к вам на сайт. Но тогда помимо появления большого числа ссылок, будет и резкое увеличение посещаемости. По этим ссылкам будут переходы.
Если же ссылок много, но они с низкокачественных каталогов и по ним никто не переходит-ждите фильтра.
Фильтры за покупку ссылок. Поисковые системы очень болезненно воспринимают попытки улучшения позиций за счет покупки ссылок. Не могут полностью отказаться от их учета, но в то же время стараются как-то ограничить эту распространенную SEO практику. У Google этот алгоритм называется Пингвин, у Яндекса – Минусинск. О них речь в отдельных главах.
Фильтр за накрутку поведенческих факторов. ПФ влияют на ранжирование. И если у нас с поведенческими дела не очень, то возникает соблазн «накрутить» эти факторы. Для этого есть специальные программы-автоматы, а есть и спец, сервисы, объединяющие армии школьников, готовых за копейки выполнять нужные действия – искать заданную фразу, переходить на нужный сайт и т. д.
Фильтр за содержание «для взрослых». Если на вашем сайте будут найдены материалы эротического характера (или даже просто ссылки на такие материалы), то сайт может вылететь из выдачи по всем обычным ключевым фразам. Т. е. по «взрослым» запросам позиции сохранятся, а по всем остальным – исчезнут.
Тут просто внимательным нужно быть к размещаемой рекламе, а также следить за форумом и комментариями, чтобы в них чего лишнего не появилось.
Заключение. У Яндекса есть такое очень важное отличие от Google, как реально работающая тех. поддержка. В случае подозрения на фильтр можно обратиться к Яндексу с вопросом – и вы получите на него ответ.
Конечно, там не будет прямых рекомендаций «сделайте то-то и то-то и мы вернем вас в ТОП», ответ, скорее всего, будет размытым и общего плана. Но зачастую он все же помогает определить наложение того или иного фильтра. А уже если причины фильтра выяснены и устранены – то написать тем более можно, это вполне вероятно ускорит выход сайта из-под санкций.
3.3. Фильтры Google
Как я уже писал, вся информация, изложенная в предыдущей главе одинаково справедлива для обеих поисковых систем.
Google точно так же не любит переспам на странице, точно так же следит за накрутками ссылочной массы и поведенческих факторов. Фильтры могут называться по иному, но суть их не меняется. И рекомендации точно такие же – делайте полезный, качественный сайт и санкции вам не грозят.
Еще два отличительных момента. Во первых в Google нет тех. поддержки, в которую можно было бы обратиться по поводу возможных санкций. Точнее, она как бы есть, но предписывает обращаться только в ряде конкретных ситуаций (например, на вас наложили санкции вручную). Если же вы обратитесь в Google по какой-то другой причине, которой нет в списке (скажем, сайт не индексируется), никто вам отвечать не будет. Есть, правда, Google-форумы для вебмастеров, на которых иной раз представители компании появляются – но опять таки, их к этому никто не обязывает. Так что будет ответ или нет – дело темное. В целом, Google куда менее дружественен к владельцам сайтов, чем Яндекс.
Второй важный принцип, которого всегда придерживался Google – лучше отправить в бан 10 хороших сайтов, чем пропустить в выдачу один плохой. Поэтому определенный риск получить санкции есть у любого ресурса, и бороться с этим будет очень трудно. Но таковы реалии.
Пару слов о наиболее интересных фильтрах.
Google.Песочница. Это фильтр для молодых сайтов. Я писал о влиянии возраста ресурса на продвижение, но песочница действует уж очень круто. Молодой сайт от полугода до года находится в полном игноре, позиции не поднимаются выше ТОП-100. Спустя отведенное время происходит резкий взлет сайта в выдаче, иной раз сразу в ТОП-10.
Правда это касается только англоязычных сайтов, да и то, говорят, что в прежнем виде песочницы больше не существует. Я песочницу на своих зарубежных проектах наблюдал вживую, но было это достаточно давно – так что актуальной информацией не владею.
В Рунете же в таком жестком виде ее точно нет.
Google.Панда. Фильтр за переоптимизацию контента. При выходе наделал много шума. Принципы те же, что я описывал ранее, только что фильтр действует в Google манере – т. е. очень жестко. Даже за несколько спамных страничек под санкции может улететь весь сайт. Видимо Google считает, что «нельзя быть немножко беременной» – либо ты спамер, либо нет.
Ну а в общем и целом – базовые принципы создания хорошего сайта одинаковы и для Google и для Яндекс.
3.4. Google-Пингвин
3.4.1 Google-Пингвин. Общая информацияПоскольку Пингвин появился на пару лет раньше отечественного аналога под названием «Минусинск», то с него и начнем.
Фильтр Google Пингвин направлен на борьбу с коммерческими ссылками, во всех их проявлениях. Будь то покупная seo-ссылка, или заказная статья или пресс-релиз – все это нарушает требования Google. Любая ссылка должна ставиться только и только по личному желанию вебмастера. В первой своей реализации алгоритм был абсолютно неадекватным. Постараюсь объяснить, почему я так думаю:
– двойные стандарты. За одни и те же действия сайт может оказаться и в ТОП-3 и за пределами первой сотни. И это не случайность или недоработка алгоритма.
– Пингвин не просто не учитывает покупные ссылки, он именно пенализирует, наказывает сайты. Попавшие под фильтр проекты вылетают из выдачи даже по низкочастотным запросам, по которым никакого продвижения не велось, а позиции были следствием качественного контента. Т. е. Google берет на себя роль этакого отца, который учит неразумных вебмастеров правилам жизни.
– качество сайта не является защитой от Пингвина. Всегда и во все времена хороший сайт, который нравится людям, обладал иммунитетом от фильтров. Если у проекта есть своя постоянная аудитория, непоисковый трафик, отличные поведенческие, но при этом он соответствует некоторым ФОРМАЛЬНЫМ признакам спама – то это плохая работа алгоритма, а не плохой сайт. Пингвину качество вашего сайта безразлично.
Поймите меня правильно, я вовсе не пытаюсь ныть в стиле «ах Google, он такой плохой, давайте перестанем им пользоваться, тогда он начнет уважать вебмастеров».
Google строит алгоритмы по своему усмотрению, наша задача приспосабливаться к новым условиям. Просто если официальные рекомендации компании по качеству поиска «вешают вам лапшу на уши» – то вы должны это объективно понимать.
Сейчас мы пошагово разберем некоторые официальные советы Google о том, что является нарушением при продвижении сайта
– покупка или продажа ссылок. В любом виде размещение ссылок за оплату есть явное и 100 % нарушение рекомендации.
За бортом остается вопрос, как все-таки продвигать сайты, которые естественных ссылок получить не могут. Как продавать все ту же щебенку?
Но дело даже не в этом. ОК, платные ссылки нельзя. Будем двигаться качеством контента, улучшать поведенческие и т. п. Главное знать правила игры, а там уже мы научимся работать так, как нужно.
А теперь идем в поиск Google и печатаем любой коммерческий запрос. ТЕОРЕТИЧЕСКИ после «зачистки» Пингвином ТОП-10 должен выглядеть так:
– 8 сайтов белые и пушистые, без покупных ссылок;
– 2 сайта злобные спамеры, пролезшие в выдачу с помощью покупки ссылочного. Их удаление – вопрос времени.
А РЕАЛЬНО выдача выглядит так:
– 8 сайтов продвигаются покупными ссылками, причем в самом худшем их виде – низкокачественные линкопомойки, прямые вхождения ключевых слов в анкорах и т. п.
– 2 сайта – проекты не пойми о чем, заброшенные своими владельцами
И вот вы, честный вебмастер, изучивший рекомендации Google, болтаетесь со своим супер-контентом во второй десятке результатов. А топ занят явными нарушителями. И если какие-то сайты из первой десятки попадут в будущем под фильтр, то их место займут опять-таки сайты с покупными ссылками. А вы останетесь на второй странице.
Я не знаю как обстоит ситуация в англоязычном Интернете, но в Рунете ситуация близка к описанной.
И это не ошибки или недоработки алгоритма. Если по тысячам коммерческих запросов весь ТОП-10 забит «нарушителями», то это никак нельзя списать на несовершенство Пингвина, это осознанная политика. Объяснение то простое очень – Google может определять покупные ссылки, но НЕ МОЖЕТ отказаться от их учета. Иначе качество выдачи объективно ухудшиться.
– предоставление товаров или услуг в обмен на публикацию ссылок.
Вот гляжу я и понимаю, что мой Semonitor тоже нарушитель. В свое время ко мне много блогеров и вебмастеров обращались с предложениями: «давай ты нам ключ, а мы про тебя обзор на своих сайтах». И я давал, более того испытывал чувство гордости за свой продукт. Для меня это было явным показателем востребованности и качества. Оказывается, нарушал.
Вообще, деньги-универсальная мера ценности. Но если ссылку кто-то ставит «за товар» – то это означает, что товар-то полезный.
– масштабная реклама с помощью статей или комментариев. Гм, а в цифрах – масштабная – это сколько? Сразу вспоминаю детский мультик про Мартышку, Слоненка, Попугая и Удава:
– А два ореха – это куча?
– Нет, два ореха – это точно не куча
– А шесть?
– Шесть – куча!
– Ну а три ореха – куча или нет?
– Три… гм… я не знаю
На западе покупка ссылок однозначно трактуется как «черное» SEO. Поэтому там последнее время все начали двигаться статьями и пресс-релизами, формально это нацелено на привлечение прямых клиентов, а заодно получаем нужные нам ссылки. А вместе со ссылками – здравствуй Пингвин. Реклама, па-а-а-нима-ешь, оказалась слишком масштабной.
Это второе нарушение, которое я обнаружил за своим Семонитором. Да-да, я активно использую платную публикацию статей и пресс-релизов о программе. Делаю я это на популярных сайтах, и в целях привлечения прямых покупателей, о seo-эффекте никогда особо не задумывался, но…оказывается и это тоже нельзя. Не знаю вот только, мои действия подпадают под понятие «масштабных»?
Теорию обсудили, в следующей главе рассмотрим нарушения, за которые фильтр может быть наложен с максимальной вероятностью.
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?