Текст книги "Контент: топовые техники SEO-продвижения"
Автор книги: Николай Климович
Жанр: Маркетинг; PR; реклама, Бизнес-Книги
сообщить о неприемлемом содержимом
Текущая страница: 2 (всего у книги 17 страниц) [доступный отрывок для чтения: 6 страниц]
Почему текстовой контент так важен для поисковых систем?
Мне бы не очень хотелось углубляться в историю развития поисковых систем, поскольку это может сильно поубавить ваш интерес и энтузиазм уже в самом начале. Поэтому в данной книге я позволю себе опустить большую часть исторических деталей, мы сфокусируемся только на самом важном. Те, кому интересно познакомиться с историей развития поисковых систем, могут узнать об этом из других моих книг, а также в блоге 8merka.ru.
Итак, что следует знать: поисковые системы были бы рады индексировать и понимать любые формы контента на сайте – тексты, изображения, аудио– и видеофайлы и даже хотели бы научиться понимать особенности дизайна сайта. Но на деле научить искусственный интеллект подобным навыкам крайне трудно, и сегодня поисковым системам удалось значительно продвинуться только по части текста. Фокусировка на текстовой составляющей обоснована тем, что до эпохи YouTube и Instagram текст был самой основной частью контента в Интернете.
Поисковые роботы постепенно учатся понимать содержание изображения, они значительно продвинулись в понимании flash-сайтов (хотя по-прежнему делают это весьма плохо), но самый значительный скачок произошел в отношении контекстуальной части текстов. Мне нравится говорить об этом, поскольку это позволяет заниматься контент-маркетингом на более высоком уровне, а также является мощным инструментом продвижения. Создавать сайты – это всегда очень интересно, но создавать интересные сайты – огромное удовольствие!
Представители поисковых систем также хорошо понимают потребность пользователей в более качественном контенте. Как мы уже говорили ранее, качественный контент должен соответствовать интенту. Такие материалы должны удовлетворять пользователя тем, что отвечают на его вопрос. Сегодня мы живем в крайне любопытное время, когда сотни тысяч людей пишут страницы полезных для жизни данных, и при этом миллиарды людей имеют свободный доступ к ним. Однако есть и другая сторона – спамный и малоэффективный контент – материалы, которые не имеют никакой практической ценности и не способны приносить пользу людям. Более того, подобные материалы наносят определенный урон, так как отнимают свободное время пользователя, который каким-либо образом наткнулся на материал и пытается вычленить из него полезную информацию. Урон есть и для поисковых систем. Индексируя подобные материалы, поисковые машины попусту растрачивают ресурсы на своих серверах.
Всё это исторически привело к борьбе со спамом и попыткам научиться лучше понимать тексты, чтобы выбирать лучшие из лучших и затем предлагать их пользователям в топе-10 поисковой выдачи. И здесь было бы неплохо углубиться в несколько исторических моментов возникновения важных поисковых алгоритмов.
«Колибри» и «Королёв»
26 сентября 2013 года Google сообщил о запуске алгоритма Hummingbird (в пер. с англ. – колибри). По свидетельству Google, последние столь серьезные перемены в Google происходили в 2001 году. Суть алгоритма заключается в том, что с 2013 года поисковая система Google умеет определять контекст страницы. Скажем, если вы использовали ключевую фразу «кубик Рубика» на странице по продаже апельсинов, Google поймет это и понизит вас в выдаче или выкинет из нее вовсе.
22 августа 2017 года схожий алгоритм анонсировали представители Яндекса. Они назвали данный алгоритм «Королёв». Поиск Яндекса научился определять содержание текста не по набору слов, а по смыслу. Столь значительный прорыв в обеих поисковых системах произошел благодаря развитию нейронных сетей и искусственного интеллекта.
Для того чтобы было проще воспринять эту информацию, я предлагаю вам зайти прямо сейчас в поиск Яндекса и вбить запрос «фильм, в котором у странного парня была шоколадная фабрика». Вы получите ответ «Чарли и шоколадная фабрика». Меня восхищает подобное развитие технологий. Поиск научился работать с longtail запросами. Longtail запросы – это запросы с длинным «хвостом» из дополнительных уточняющих слов. В нашем случае это было: «у странного парня была шоколадная фабрика».
Вернемся ненадолго к примеру с кубиком Рубика на странице по продаже апельсинов. Как в данном случае алгоритмы будут понимать, что речь идет о совершенно разных вещах? Быть может, мы продаем кубик Рубика апельсинового цвета? Поисковые алгоритмы способны понять, что кубик имеет кубическую форму, и это совершенно не связано с шарообразной формой апельсина. Кубик Рубика не может быть одного цвета, так как в данном случае теряется вся логическая необходимость данного предмета. Такой вариант может продаваться только в магазине приколов, и поисковая система способна понять этот момент. А вот апельсины редко бывают фиолетовыми или белыми. Кубик Рубика не имеет вкусовых параметров. Апельсины кислые или сладкие, а еще они – цитрусовые. Таким образом, мы ненадолго погрузились в мозг поисковой системы, которая обзавелась нейронными связями.
В действительности обе поисковые системы шли к этому очень долго и сегодня они по-прежнему развивают технологии, которые позволяют распознавать неочевидный смысл содержания страницы и интента запроса. Благодаря этому авторам и веб-мастерам была дана возможность оптимизировать свои сайты, используя естественные тексты, а не набор ключевых фраз. С помощью развивающихся талантов авторов или в связи с выходом данных алгоритмов, но тексты в Интернете действительно стали значительно лучше, и мы наконец обрели высокую ценность текстовых материалов в Сети.
Я хотел бы остановиться чуть более подробно на истории внедрения поисковых алгоритмов, так как знание этого в разы повышает профессионализм в сфере контент-маркетинга. Знать историю развития поисковых систем в действительности важно, чтобы понимать, что хотят увидеть представители поисковиков, когда говорят о качественном контенте.
В 2016 году Яндекс анонсировал новый алгоритм и большую статью с развернутым объяснением того, как они стремятся научить поисковую систему определять сложные контекстуальные запросы с длинными хвостами ключевых слов. Алгоритм был назван «Палех» в честь сказочного существа – жар-птицы, которая имела длинный хвост и часто изображалась на предметах в стиле «палех». Алгоритм «Королёв», который появился через год после «Палеха», можно считать его усовершенствованным вариантом.
Предлагаю уделить внимание технологиям нейронных сетей в рамках поисковых алгоритмов. Например, сегодня поисковые системы уже умеют понимать содержание графического изображения. Спасибо нейронным сетям!
И несмотря на то что они пока научились делать это в узкоспециализированных направлениях, тем не менее это значительный прорыв в технологиях поиска, и на основе этого можно предположить, что данная технология будет внедряться все больше и больше. Например, поисковые системы с легкостью определяют изображения порнографического характера. Они делают это благодаря определению количества телесного цвета на изображении. Таким образом работает цензура поисковой системы, отсеивая неэтичные изображения из прямых источников.
Как стоит интерпретировать информацию о работе данных алгоритмов в практическом смысле? В первую очередь мы получаем ценное понимание того, что поисковые системы стали значительно умнее – они научились понимать контекст страницы. Но я бы сильно поспорил с высказыванием представителей Яндекса о том, что веб-мастерам необходимо просто писать тексты для людей. Некорректность данного высказывания заключается в том, что для того, чтобы написать хорошие тексты для людей, необходимо как минимум изучить их психологию, понять портрет целевого пользователя, узнать всё о его «боли» и проблемах.
Что такому пользователю важно? Как он ищет информацию? Для чего он это делает? Каким образом он пытается сделать свою жизнь лучше, разыскивая ту или иную информацию? В действительности возникает множество важных вопросов, и «просто писать тексты для людей» не получится «просто» – это весьма неординарная задача.
В свете данных алгоритмов мы должны определить полный список ключевых фраз, которые встречаются в данной тематике. Сюда будут относиться вся перекрестная семантика, синонимы, околотематические фразы. В дальнейшем мы поговорим о том, как именно собрать подобную информацию. Я также расскажу о способах составления портрета целевого пользователя.
«Панда» и «Баден-Баден»
Для того чтобы объективно понимать ценность тех или иных техник работы с контентом, мы должны рассмотреть еще два важных алгоритма поисковых систем – это «Панда» у Google и «Баден-Баден» у Яндекс.
Алгоритм Google «Панда» был анонсирован в феврале 2011 года. Данный алгоритм был нацелен на чистку Интернета от низкокачественных сайтов, то есть сайтов, содержащих некачественный контент. Запуск алгоритма прошел не очень гладко, так как в первые же несколько итераций были пессимизированы множественные новостные сайты, популярные форумы, которые активно применяли стороннюю рекламу. Мэтт Каттс – бывший инженер Google, который руководил отделом веб-спама, а в 2017 году покинул Google, раскрыл большие объемы инсайдерской информации. Так, он прокомментировал, что Google в действительности пытался добиться увеличения прибыли от некоторых своих партнеров. В связи с не самым успешным запуском алгоритма в апреле 2011 года Google выпустил новую версию алгоритма, чтобы минимизировать ущерб, который получили множественные проекты в ходе первой итерации.
Алгоритм был назван не в честь редкого китайского животного (для тех, кто не знает: все панды в мире принадлежат КНР), а по фамилии инженера, который его изобрел, – Навнит Панда. Несколько позднее мы вернемся к данному алгоритму, так как требования по работе с контентом в рамках Google Panda совпадают с требованиями алгоритма Яндекса «Баден-Баден», который был анонсирован в марте 2017 года. Традиционно Яндекс называет поисковые алгоритмы в честь тех или иных городов. Можно заметить иронию: «Минусинск» – потому что «минусует», а «Баден-Баден» – потому что много «воды».
Алгоритм «Баден-Баден»
«Баден-Баден» Яндекса – алгоритм поискового ранжирования, направленный на пессимизацию сайтов с некачественными переоптимизированными текстами и созданный в целях «очищения» поисковой выдачи. Чистка напрямую связана с политикой Яндекса отдавать наиболее релевантные и полезные материалы в результатах выдачи.
На самом деле Яндекс не придумал ничего нового, алгоритм работает давно. Исходя из официальных материалов Яндекса, можно сказать, что алгоритм работает с 2011 года, просто сформировалось более четкое представление о том, как должен выглядеть текст для людей, ужесточились требования. Нет нужды паниковать, но уже давно пора обратить внимание на качество текстов на сайтах. Если вы до сих пор этого не сделали – самое время начать.
Вот так выглядит сообщение в панели веб-мастера при наложении фильтра:
Чем грозит «Баден-Баден»?
При наличии переоптимизированных текстов и наложении фильтра «Баден-Баден» все страницы сайта проваливаются в выдаче. Вот как выглядит падение позиций при наложении фильтра «Баден-Баден»:
На изображении указан февраль 2016 года, далее 28 апреля 2017 года. Я не работал по проекту с февраля 2016 года, поэтому у меня не было статистики за промежуточный период, но я знаю, что сайт стабильно занимал топ-10 по основным запросам:
Вот что происходит с трафиком в Яндексе:
Ущерб просто колоссальный. Поэтому задумайтесь заранее о качестве контента на своих сайтах!
Что важно понимать для избегания «Баден-Бадена»?
Главное и единственное, что нужно понимать, – это определение переоптимизации. Я работаю по принципу «не навреди» и поэтому на первых этапах работы с сайтом скорее могу недооптимизировать сайт, нежели переоптимизировать. Досолить проще, чем пытаться после сделать суп не таким соленым.
Вот пример переоптимизированного текста от Яндекса:
Еще один пример переоптимизированного текста:
Вот так выглядит текст реального сайта, который недавно попал под фильтр «Баден-Баден»:
И еще небольшой пример:
Что делать, чтобы не повторять чужих ошибок? Не требуйте от своих копирайтеров 35 упоминаний ключевой фразы. Навсегда откажитесь от максимализма во взглядах на SEO. Много – не значит хорошо. Обратите свое внимание на методику LSI-текстов. Используйте синонимы, тезаурус, связывайте другие фразы с ключевой – все это влияет на релевантность текстов. На первых порах следите за «тошнотой» текста, количеством «воды» и плотностью вхождения ключевой фразы. С опытом у вас должно сформироваться естественное и правильное понимание удобочитаемости текстов.
Плюсы алгоритма
Я большой сторонник контент-маркетинга. Зачастую для меня действует правило: если публикация написана менее чем на одну тысячу слов, то тема не раскрыта по-настоящему. Дело не в количестве, а в том, что это количество показало себя очень неплохо в тематике блогов о поисковом продвижении. Большая часть вопросов требует действительно серьезного рассмотрения.
Я люблю рассматривать вопрос с разных точек зрения, люблю демонстрировать примеры из личной практики, и я никогда не заглядываю в блоги коллег, чтобы изучить, как они раскрыли вопрос, до тех пор, пока не напишу свою публикацию на эту тему.
Конечно, я собираю много предварительной информации. Использую важные источники, но всеми силами стараюсь избегать рерайтинга. Моя цель – давать что-то новое и полезное, то, чего мои клиенты еще не видели в блогах других SEO-специалистов. Мне кажется, так должен поступать каждый. И «Баден-Баден» помогает таким, как я, освобождая место в выдаче. К слову говоря, заметил хороший рост на своих сайтах после начала работы «Баден-Бадена».
«Баден-Баден» может привести индустрию к созданию более качественных текстов. От этого хорошо всем: копирайтерам, потому что наконец увеличится чек и задачи станут более творческими и интересными, отсеется конкуренция в виде неопытных авторов; для веб-мастеров – тем, что их сайты действительно станут лучше, вырастет поведенческий показатель; для пользователей – тем, что им наконец не придется натыкаться на нечитабельные тексты.
Пользователь будет обращать больше внимания на тексты, после того как доверие пользователей к текстам будет возвращено. От этого значительно улучшатся поведенческие факторы.
Как вывести сайт из-под «Баден-Бадена»?
Для выведения сайта из-под фильтра «Баден-Баден», рекомендую полностью удалить тексты с сайта. Далее два варианта.
1. Сразу отправить сайт без текстов на переиндексацию по фильтру.
2. Написать новые, по-настоящему качественные тексты и отправить сайт на переиндексацию по фильтру.
Хорошая новость заключается также и в том, что, так как вы уже изучаете вопрос качественного контента, то вам будет достаточно применить изложенные здесь техники. Это значительно повысит качество материалов на вашем проекте и поможет быстро выйти из-под фильтра.
Знание поисковых алгоритмов позволяет понимать, чего от нас ждут поисковые системы. В целом политика поисковых систем вполне логична и имеет весомые основания для того, чтобы соблюдать ее. Несмотря на очевидность того, что дублированный низкокачественный контент, у которого нет ни уникальности, ни особой ценности для читателей, никогда не сможет генерировать высокие рейтинги и постоянный поток трафика, тем не менее многие люди продолжают надеяться на то, что подобная простая «работа» позволит им выйти в топ.
Начиная с этих страниц, я рекомендую навсегда отказаться от идеи заимствования материалов, если таковые у вас имелись. При этом важно понимать, что термин заимствования подразумевает не только грубое копирование чужих текстов на свой сайт, но и переписывание чужих идей. Поисковые системы способны определять рерайтинги. То есть они достаточно точно могут определить, откуда вы почерпнули идеи и какой материал переписали.
Я предполагаю, что эти новости могли повлиять на уровень вашего энтузиазма. Контент-маркетинг – действительно сложное и увлекательное направление, однако если вы считаете, что не наделены писательским талантом и не представляете, как можно применять свои навыки, если переписывание чужих текстов под запретом, то у меня есть и хорошая новость. Большая часть данной книги посвящена именно вопросам создания качественного и оптимизированного под поисковые системы контента.
Харуки Мураками в своем эссе «Писатель как профессия» говорит о том, что для того чтобы стать писателем, на самом деле не нужно иметь никаких специфичных навыков. Мураками-сан дает надежду любому, когда подчеркивает, что роман может написать каждый человек. Я считаю его достаточно авторитетным источником информации, поскольку прочитал большую часть его романов – они написаны хорошо.
В дальнейшем мы рассмотрим, как писать интересные качественные тексты самостоятельно. При этом информация данной книги направлена на создания контента, который позволит генерировать гигантский поток трафика на ваш сайт. Я делал это неоднократно и знаю, как заставить графики посетителей выглядеть подобным образом:
Мы затронем как коммерческий, предназначенный для интернет-магазинов, так и информационный контент. А также научимся организовывать и направлять создание контента. Например, создавать контент-стратегию и назначать корректные профессиональные технические задания копирайтерам, которые будут писать для вас высокоэффективный контент.
GoogleBERT
21 октября 2019 года Google запустил новый алгоритм под названием BERT. В чем же заключается основная суть нового алгоритма? По словам представителей Google, изменения поиска заключаются в том, что новый алгоритм, основываясь на нейросетях, способен еще более детально различать контекстуальный смысл текста в Интернете.
Google говорит, что это поможет улучшить выдачу по ряду запросов, но коснется только 10 % всей выдачи. Google приводит пример, где во фразах «с 9 до 5» (nine to five) и «без четверти 5» (quarter to five) фразы имеют два разных значения, которые могут быть очевидны для людей, но менее очевидны для поисковых систем. BERT предназначен для различения таких нюансов, чтобы выдавать более релевантные результаты. На основе данного примера становится понятным, что алгоритм имеет крайне глубокую привязку к языковым особенностям.
Как заявил Денни Саливан (один из руководителей развития данного алгоритма в Google), алгоритм в скором времени затронет другие языки. И уже через полгода BERT стал применяться в 54 разных языковых зонах. Подобное обновление поискового алгоритма дает еще больше понимания того, что поисковые системы учатся распознавать логическую составляющую текста. Иначе говоря, представители поисковых систем направили свои усилия на более глубокое понимание смысла со стороны поисковых систем.
Так что рекомендации, указанные в этой книге, будут становиться в дальнейшем еще более актуальными, и веб-мастерам уже сегодня необходимо учиться лучше видеть потребности пользователей и подстраивать контент под их нужды. Поисковые роботы во многом уже приблизились к человеческому пониманию текстов, а в чем-то превосходят их. Простой пример – это оценка читаемости текстов по индексу Флеша – Кинкейда. В то время как человеку необходимо затратить определенное время на уяснение того, насколько хорош тот или иной текст, поисковый бот может за несколько секунд «прочитать» такой текст и благодаря индексу удобочитаемости Флеша – Кинкейда быстро определить, хорошо написан данный текст или плохо. Несмотря на то что это весьма грубая оценка, она зачастую позволяет отсеять многие тексты уже на этапе «знакомства» бота с текстом.
Типы контента
Типы контента различаются между собой в зависимости от преследуемых целей и расположения на сайте. Как правило, оба этих понятия связаны друг с другом, так как структура сайта должна способствовать более простому восприятию информации. Так, например, страницы информационного характера находятся в разделе «блог», а страницы категорий товаров или сами товары расположены в родительском разделе «каталога» интернет-магазина. Кратко рассмотрим типы контента, с которыми чаще всего приходится работать, и обратим внимание на особенности этих страниц.
Главная страница
Главная страница является лицом всей компании. Все это понимают, и обычно наибольший интерес вызывает разработка главной страницы сайта. В некоторой степени значение главной страницы сильно переоценено, поскольку пользователи не всегда попадают именно на главную страницу. Так, например, переход по запросу «белые кроссовки Nike» сразу перенаправит пользователя на страницу продажи данных кроссовок, а не на главную страницу сайта. Отсюда стоит сделать вывод о том, что внутренние страницы имеют не меньшее значение, чем главная, а порой играют и значительно более важную роль.
Тем не менее определенная часть пользователей, по всей видимости, будет попадать на главную страницу и так или иначе, время от времени будут обращаться к содержанию данной страницы. Текст на главной странице обычно комбинирует в себе несколько видов информации. Здесь необходимо кратко рассказать о компании, перечислить главные преимущества и, самое важное, – дать пользователю четкое понимание того, на каком сайте он находится.
Графические изображения на главной странице имеют также большое значение. Особенно это касается облегчения навигации пользователя по сайту. Пользователи, которые пришли на главную страницу сайта, должны быстро понять общее содержимое сайта, а также получить возможность перейти на необходимую страницу максимум в течение одного – трех кликов. В дальнейшем я расскажу про инструмент «Вебвизор», который находится в функционале Яндекс. Метрики и позволяет точно понять реакцию пользователей на контент главной страницы.
Хорошим примером организованной навигации на главной странице является добавление категорий каталога прямо на главную. При этом реализация главным образом осуществляется за счет графических изображений, которые помогают пользователю быстро понять, куда ему необходимо перейти для просмотра желаемой информации.
Аналогичным образом стоит поступать и со страницами блога, добавив так называемую «карусель» новых или наиболее интересных записей блога с краткими анонсами. Важная роль здесь по-прежнему принадлежит графическим изображениям – превью публикаций вашего блога. Мы поговорим об этом более подробно, когда будем рассматривать вопрос изображений.
И просто прекрасно, когда удается дополнить содержание главной страницы важнейшими преимуществами сайта, которые выделяют проект из общей массы. Для интернет-магазинов это может быть некий эксклюзивный подход, быстрая доставка, клиентоориентированность, низкие цены или что-то другое. По сути дела, здесь важно донести до пользователя уникальное торговое предложение.
Для информационных проектов подобная информация не столь очевидна, но она тоже существует и может выгодно выделять проект из общей массы.
Для новостных проектов это может быть скорость оповещения: «Мы поставляем новости раньше всех». Таким образом, пользователь осознает, что, регулярно посещая ваш сайт и подписавшись на рассылку, он первым узнает о важных событиях и ничего не пропустит. Это также может быть достоверность предоставляемой информации: «Наш блог проверяет все данные, мы даем только 100-процентно достоверную информацию». Для информационного блога это может быть глубина рассматриваемого вопроса: «Мы рассказываем то, о чем молчат другие » и так далее.
Используйте подобную информацию, чтобы пользователь сразу понимал, с кем имеет дело. Хорошо, если вы сформировали список подобных отличий уже на этапе разработки проекта. Если нет, то сейчас настало самое время подумать, как вы можете выделиться на фоне конкурентов, на этом будет строиться вся работа с контентом.
Одной из сложнейших задач в вопросе построения контента главной страницы является возможность компоновки всех этих аспектов. Достаточно тяжело поместить всю эту информацию на одну страницу органичным методом и избежать при этом некой нелепости. Тем не менее масса примеров показывает, что это возможно, и достижение данной цели значительно продвинет вас на пути завоевания симпатий со стороны пользователей.
Правообладателям!
Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.Читателям!
Оплатили, но не знаете что делать дальше?