Электронная библиотека » Руслан Рзаев » » онлайн чтение - страница 2

Текст книги "SEO для бизнеса"


  • Текст добавлен: 6 августа 2017, 00:40


Автор книги: Руслан Рзаев


Жанр: Жанр неизвестен


Возрастные ограничения: +18

сообщить о неприемлемом содержимом

Текущая страница: 2 (всего у книги 10 страниц) [доступный отрывок для чтения: 3 страниц]

Шрифт:
- 100% +

Рисунок 17. Тепловая карта сайта www.businessmarafon.ru

менение. Текст должен


полностью раскрывать по-


требность посетителя, не оставляя нерешенных вопросов. Информация должна быть ак-туальной и достоверной. Если вы разочаруете свою аудиторию хотя бы один раз, у нее не будет доверия к вашим текстам, люди не станут читать их и сайт будет сложнее продви-нуть. В тексте должны быть точные вхождения с соблюдением грамматических правил русского языка. Текст не должен быть спамным, сегодня в этом нет необходимости.


Глава 1. Как продвинуть сайт



Задача: увеличить трафик сайта за счет текстовых факторов.


Рисунок 18. Кейс Руслана Рзаева «Улучшаем качество текста»


Тексты на проекте №1 были написаны с насыщением тематическими терминами, относящимися к данному кластеру запросов. Т.е. при написании текста брались все связанные с продвигаемыми запросами слова, повышающими релевантность текста, чтобы сделать текст качественным по оценкам новым алгоритмом текстового ранжирования поисковой системы.


Таким образом, текстовая релевантность увеличивалась без увеличения плотности ключевых слов, как было принято делать ранее.


Рисунок 19. Кейс Руслана Рзаева «Улучшаем качество текста»


Задача: увеличить тра-фик сайта за счет тек-стовых факторов.


Тексты на проекте № 1 были написаны с насыщением тематическими терминами, относящимися к данному кластеру запросов. Т. е. при написании текста брались все связанные с продвигаемыми запросами слова, повышающими релевантность текста, чтобы сделать текст качественным.


Таким образом, текстовая релевантность увеличивалась без увеличения плотности ключевых слов, как было принято делать ранее.


SEO для бизнеса


Медицинская клиника – только гинекология.




Результат.


Рисунок 20. Кейс Руслана Рзаева «Улучшаем качество текста»


Нанимая копирайтеров, не забывайте о том, что писать 30 000 знаков качественного контента в день могут только гении. Возможно, стоит снизить нагрузку или выбрать менее «производительных» исполнителей.




Рисунок 21. Изображение с сайта seodemotivators.ru


Глава 1. Как продвинуть сайт


Заканчивая тему недобросовестных конкурентов и уникальности контента, объясню, как нужно все делать правильно. Прежде всего, необходимо сделать нормальный рабочий сайт, на который нужно получить какое-то количество авторитетных ссылок, чтобы иметь доверие поисковых систем. Написать для сайта уникальный контент, который точно будет первым проиндексирован и зарегистрирован в «Яндекс.Вебмастере» с указанием вашего авторства.


Устройство поисковых систем


Как работает поисковая система? Есть робот-паук, который по ссылкам обходит сайты и добавляет их к себе в базу. Есть робот-индексатор, который работает с базой всех сайтов: он


ее анализирует целиком, очищает код, сравнивая тексты между собой, выделяет ключевые слова. Выстраивает таблицу, потом уже по ней ведет поиск и определяет важность каждого документа.


У поисковой системы есть страница результатов поиска, через которую она взаимодействует с пользователями.




Рисунок 22. Страница результатов поиска «Яндекса» по запросу «Пластиковые окна»


SEO для бизнеса


К чему вам все это знать? К тому, что робот, который обходит сайты, имеет строго определенные цели и задачи – обойти как можно больше сайтов, собрать как можно более свежую информацию и добавить ее в индекс. У робота, работающего с индексной базой, другая цель: правильно распознать индексы и правильно расположить их в базе, чтобы можно было нормально вести поиск.


Это означает, что, если у вас, например, встречаются грамматические ошибки, то слова могут правильно не распознаваться. Если у вас в коде технические ошибки, робот может вообще удалить страницу из базы.


Алгоритмы ранжирования. Что это такое, для чего они нужны и как работают? Алгоритм – это формула, учитывающая тысячи факторов. Он определяет, как нужно расположить сайты в результатах поиска, то есть, какой сайт окажется выше, а какой ниже.


Алгоритмы постоянно развиваются. Если они не будут развиваться, то очень скоро SEO-специалисты их «заспамят», будут под них подстраиваться. Пока существует поиск, всегда будет и спам.


В любом случае SEO-специалисту приходится заниматься спамом, но кто-то делает маркетинг и немного «подкручивает», а кто-то открыто занимается черными технологиями.


Пока есть поиск, можно на него влиять. И на вопрос «Когда умрет SEO?» я отвечу так: «Тогда, когда умрет поиск». А когда умрет поиск? – Никогда. Всегда будут какие-то параметры, на которые можно повлиять, просто способы влияния могут быть сложнее или проще. И технологии продвижения меняются. Раньше приходилось заниматься откровенным спамом, сейчас SEO – это на 80% маркетинг. Сегодня, влияя на продажи, мы влияем и на позиции. Об этом – позже.


Чистая выдача


Для поисковой системы очень важна именно чистая выдача. Что я подразумеваю под этим? То, что там нет сайтов, которые поисковая система распознала неверно. То есть, например, чтобы по запросу «резиновая шина» у нас в выдаче появился каталог автомобильных, а не медицинских шин.


Пример загрязненной выдачи – это «аффилиаты», несколько сайтов, принадлежащих одной компании.


Почти каждому предпринимателю, чей сайт попадал в топ, приходила

в голову гениальная мысль, что можно сделать еще 9 сайтов и тоже попасть в топ, и собрать всех клиентов к себе в бизнес, став монополистом.


Глава 1. Как продвинуть сайт


«Яндекс», конечно же, это понимает, и Google понимает. И в итоге, естественно, очень активно идет борьба именно с аффилиатами. Такие сайты определяются, склеиваются, и алгоритм работает так, что невозможно попасть в выдачу сразу с нескольких сайтов. Причем выйти из-под аффилированного фильтра очень сложно, в некоторых случаях практически невозможно.




Случай из жизни


Я знаю один случай выхода из-под фильтра аффилиата, когда компа-ния разделилась, то есть учредители разошлись. Каждый из них ис-пользовал контекстную рекламу, оплачивал услуги со счетов разных юридических лиц, у них были разные адреса, разные поставщики, разные цены, разные домены. Они по-разному продвигались. И лишь через год они окончательно были разделены.




Случай из жизни


Другая компания попалась на том, что, сделав два совершенно разных сайта на разные юридические лица с разным ассортиментом, добави-ла их в один аккаунт в «Яндекс.Вебмастере». Ручную проверку они не прошли.


А то, что обычно все делают, меняют контакты и т. п. – это вообще не работает, бесполезно. Можно даже не делать.


– Как понять, что это именно фильтр аффилиата?


Прежде всего, поясню – за аффилиат вам не снижают позиции и не удаляют сайт из базы.


Когда у вас аффилиаты, то показывается по каждому запросу только один сайт.


– Были такие случаи, чтобы хорошо продвигали аффилиаты и их невозможно было бы обнаружить?


Были. Но их забанили, потому что тематика конкурентная, а конкуренты не дремлют. – А как «Яндекс» узнал об аффилированности в таком случае?


Конкурент звонит во все фирмы. Где одинаковый голос оператора, там аффилиаты. Пишут в «Яндекс»: «Позвонил по разным телефонам, там одна и та же девушка указала одинаковый адрес. Это одна и та же компания, проверьте». Вот и всё.


SEO для бизнеса


Практика 4. Исправление ошибок


Вы можете терять до 90% трафика из-за технических ошибок




Если руки программиста растут не из того места


Рисунок 23. Опасность технических ошибок для продвижения




Рисунок 24. Дубликаты страниц


Очень важно очистить сайт от технических ошибок. Даже небольшие, на первый взгляд, недоработки могут привести к существен-ным проблемам, вплоть до полного исключения сайта из базы поисковой системы. Задача SEO-специ-алиста – исправить ошибки, найти мусорные страницы и добиться удаления их из базы.


На больших сайтах очень сложно избежать дублирова-ния страниц. Даже если сайт состоит всего из 1000 доку-ментов, часть страниц будет дублироваться. Например, когда карточку товара можно открыть не только через раздел Ноутбуки > ZenBook UX31A, но и через раздел Asus > ZenBookUX31A. Или страница доступна по не-скольким адресам: www. site.ru/asus/ и www.site.ru/ index.php?category_id=14.


Глава 1. Как продвинуть сайт



Рисунок 25. Дубликаты контента




Рисунок 26. Технические страницы


Иногда встречаются непол-ные дубли, когда совпадает какая-то часть текста, на-пример анонс при пере-публикации сообщения.


Иногда технические страницы веб-сервера могут попасть в базу поисковой системы. Вроде это не так страшно, но не стоит забывать о безопасности. Как-то раз, делая анализ сайта, я через такую страницу смог получить доступ к закрытой базе риелторских объектов.


А робот одной крупной поисковой системы так попал в административный раздел какого-то банка и удалил часть данных, просто переходя по ссылкам.


SEO для бизнеса



Рисунок 27. Пустые страницы




Рисунок 28. Ошибки кодировки


Некоторые модули позволяют создавать неограниченное количество пустых страниц. Например, календарь меро-приятий. Так, анализируя сайт одного клиента, я обнаружил


в базе «Яндекса» страницы мероприятий от 1143 года.


В результате технического сбоя, например, в базе данных, на сайте могут появиться страницы с ошибками отображения данных.


Глава 1. Как продвинуть сайт


Всё это приводит к про-блемам с ранжированием. Сайт теряет позиции, по-нижается уровень дове-рия поисковой системы, страницы исключаются из базы. Иллюстрация: из-за оплошности программиста в одном случае трафик упал с 3000 практически до нуля.


Это не санкции! Ошибка в robots.txt


Рисунок 29. Падение трафика в результате ошибки программиста


www.komandirovka.ru

Кейс: рост трафика в 2 раза в течение года после устранения технических ошибок




После устранения технических ошибок, удаления дубликатов –


и мусорных страниц, – ожидайте улучшений – в течение следующих 12 месяцев. Трафик может вырасти в несколько раз.


Рисунок 30. Рост трафика в результате исправления технических ошибок сайта


SEO для бизнеса


Санкции поисковых систем накладываются, если вы что-то сделали совсем не так, если вы переиграли со спамом. Как правило, это результат ошибок SEO-специалиста, но не так уж редки и ситуации, когда за то, без чего вчера сайт было продвинуть невозможно, сегодня накладывают санкции. Так, например, было время, когда длинные «полотна» текстов были обязательны – без них невозможно было продвинуть сайт в конкурентной тематике, так что 8–10 экранов нечитаемого текста стало правилом в SEO. Алгоритмы поменялись, и это стало расцениваться как спам. Было время, когда наличие ключевых слов в имени домена было обязательным фактором, некоторые компании даже меняли название сайта, чтобы в него вошли ключевые слова. А потом Google изменил алгоритмы, и в одном из интервью было объявлено, что теперь это признак спама. Бывают и ошибки со стороны поисковых систем. Несколько лет назад в «Яндексе» появился региональный поиск. Теперь в каждом городе предпочтение отдается местным компаниям.


Пример. У меня продвигался сайт клиники доктора Александрова. И на каждой странице этого сайта было написано «клиника доктора Александрова». А ещё есть город Александров. «Яндекс» решил, что клиника находится там, и роботы «Яндекса» поменяли регион на город Александров. Позиции упали, их удалось восстановить только через один месяц. Сотрудники «Яндекса» в переписке признали свою ошибку.


Как выяснилось позже, у моих коллег была аналогичная ситуация с городом Королевом. Есть еще такая проблема – часто новые алгоритмы работают ошибочно. Пока они тестируются, могут возникать сложности. Поэтому ничего удивительно нет, если новый алгоритм появился


и вдруг возникли какие-то ошибки. Да, ошибки бывают, и с ними нужно работать, их нужно исправлять и прописывать в «Яндекс».


Тенденции алгоритмов


Как начинался Интернет? Сначала сайтов было очень мало. Было время, когда все сайты помещались на одном жестком диске. Можно было уместить всё на трех терабайтах. Помню, у меня был жесткий диск на три гигабайта, и этого было очень много.


Постепенно Интернет рос. Люди знали сайты поименно – есть вот такой сайт и такой, а еще такой… В какой-то момент все сайты уже невозможно стало помнить, тогда появились каталоги сайтов. В каталогах можно найти нужный сайт, перебирая категории. Очень долгое время каталоги было единственным способом навигации по Интернету. Помните, когда Интернет ассоциировался с Rambler.ru. Удивительно, но для многих владельцев крупного бизнеса в солидном возрасте Интернет до сих пор – Rambler. Поэтому на Rambler очень крутая аудитория, там много хорошего коммерческого трафика.


Постепенно каталоги росли, количество сайтов стремительно увеличивалось. В какой-то момент стало ясно, что по каталогу нужен поиск. Поначалу поиск был просто как дополнение


к каталогу. Поисковые системы, собственно, так и начали развиваться. Потом стало понятно, что сайтов слишком много, да ведь и далеко не все стоит добавлять, но искать их тоже нужно.


Потому что есть популярные «запрещенные» тематики, их ищут. Одно время большим спросом пользовались сайты с генераторами лицензионных ключей, помните?


Глава 1. Как продвинуть сайт



Рисунок 31. Инструменты интернет-маркетинга


Так появились современные поисковые системы. Как они работали? Давайте представим себя на месте разработчиков поисковых систем. Интернет еще маленький, но сайтов уже довольно много. На основании чего можно определить, какой сайт хороший?


– Из заголовков.


– Контент.


Да, контент, заголовки.


– Тайтлы, кейвордс.


Да, конечно же, смотреть на HTML-код, что как отмечено. То есть <Н1> – это заголовок, там более важные слова. <P> – это абзац, там текст. <STRONG> – это выделение жирным, не просто выделение жирным, а логическое акцентирование на вот этом словосочетании. И так далее.


SEO для бизнеса


Практика 5. Как верстать страницы для SEO


Мы видим:




Робот видит:


Рисунок 32. Как поисковый робот видит сайт




Картинка в H1


Рисунок 33. Некорректное использование HTML-тегов


3 ключевых совета для верстальщика:


Для того чтобы заголовок выглядел как заголовок, а ссылка переводила вас на нужную страницу, исполь-зуются HTML-теги. Кон-тент-менеджер прописыва-ет их в коде, когда создает новую страницу, а версталь-щик делает разметку, когда создает страницу из макета. Некоторые из HTML-тегов: <TITLE> – название страницы <H1> – главный заголовок <H2> – подзаголовок


<P> – абзац <STRONG> – выделение жирным


<EM> – выделение курсивом


При верстке страниц неизбежно допускаются ошибки, теги используются не по назначению, в резуль-тате чего поисковая система не может распознать, где на странице заголовок, а где обычный текст. В этом случае ваш сайт не получает пре-имуществ перед конкурен-тами по HTML-факторам.


• Точные вхождения запроса в <H> и <TITLE>.


• <TITLE> каждой страницы уникален.


• <H> используются только по назначению.


Глава 1. Как продвинуть сайт


При составлении заголов-ков используют образующие ключевые слова. Они отли-чаются в каждой тематике. Например, для магазина женской одежды это: дис-конт, недорогая, брендо-вая, заказать, красивая, новинки, коллекция 2015.




Рисунок 34. «Запросообразующие» слова


На больших сайтах заголовки


генерируются по формулам.


Совместные покупки детских товаров в

«регион», вместе дешевле, «региональный» клуб совместных покупок, организатор СП – клуб babyblog.ru «код региона».


Рисунок 35. Формула генерации заголовков


SEO для бизнеса


Поисковые системы стали так ранжировать сайты. Естественно, через какое-то время веб-мастера заметили, что сайты, на которых присутствуют ключевые слова, заголовки, теги и т. п., лучше ранжируются. И стали это использовать. Появились сайты, на которых все ключевые слова были выделены жирными шрифтом. Были сайты, на которых было несколько Н1 в тексте. Потом стали делать сайты с текстами белым шрифтом на белом фоне внизу. Так началась эпоха текстового спама.


Поисковые системы, естественно, стали понимать, что появилась новая тенденция спама и на одни лишь текстовые факторы опираться нельзя.


А Интернет продолжал расти. Сайты стали ссылаться друг на друга, возникли «ссылочные рекомендации». Помните, когда очень популярно было ставить кнопки и баннеры «наши друзья» на популярные сайты. И по ним «кликали», и был трафик, посетители использовали эти ссылки для навигации. Сейчас по ним уже не переходят, они совершенно бесполезны.


Но раньше по ним переходили, и поисковые системы тоже по ним переходили, тем самым находили другие сайты и переходили с одного на другой, собирая все новые сайты и добавляя их в базу. Ссылки стали учитываться, появилось ссылочное ранжирование. И текстовый спам перестал быть такой угрозой.


Но очень быстро владельцы сайтов, которые уже из веб-мастеров переквалифицировались в SEO-специалистов, смекнули, что, если повлиять на ссылки – поставить их, обменяться ими, – то можно подняться в выдаче. Тогда стали появляться сервисы автоматического обмена ссылками – например, Linkator.


В первое время ссылок было не так много, их мало накручивали. Потом стали накручивать повсеместно. Поисковые системы стали с этим бороться. Пошла война аналитиков. Оптимизаторы придумывали разные хитрые схемы. Некоторые из них занимались серьезным математическим анализом, придумывая, как нужно перелинковать сайт, чтоб это было незаметно для антиспамных алгоритмов…


Но ведь по другую сторону «линии фронта», в штате поисковых систем, тоже хватало людей с математическим образованием. Они, естественно, все эти придумки учились определять и вырабатывали контрмеры.


Кстати, лучших оптимизаторов того времени пригласили работать

в поисковые системы. В частности, Александр Садовский, ныне работающий в «Яндекс» и, собственно, формирующий поиск, раньше был оптимизатором. Другой экс-оптимизатор – Сергей Петренко, владелец форума SearchEngines.Guru, – впоследствии стал директором «Яндекс-Украина». И это не все примеры…


Итак, самые толковые оптимизаторы постепенно перешли в поисковые системы. Самые бестолковые остались среди оптимизаторов. Шутка. Но, к сожалению, есть очень много бестолковых оптимизаторов. Невероятно велико их количество. И большинство из них думают, что они толковые. Но они бестолковые. К концу семинара будет понятно, почему.


Идем дальше. Итак, про текстовое ранжирование можно смело сказать, что здесь поисковые системы спам победили. Сейчас нет дорвеев* в «Яндексе».


*Дорвей – вид поискового спама, автоматически сгенерированные сайты, оптимизированные –


спамными методами для попадания на первые места результатов поиска, целью которых является – перепродажа трафика.


Сейчас нет таких текстовых «портянок», в которых написано: «Приходите в наш фитнес-клуб заниматься фитнесом с нашими фитнес-инструкторами в нашем фитнес-зале и пейте фитнес-коктейли». Хотя раньше это было почти на каждом сайте.


Но борьбу со ссылочным спамом поисковики проиграли. То есть в краткосрочной перспективе – да. А в долгострочной они потихоньку одерживают победу. «Яндекс» пытался полностью отменить ссылочное ранжирование. Был введен алгоритм «Магадан», который показал, что этого сделать уже нельзя. То есть поисковые системы не успели вовремя принять нужные меры, чтобы биржи ссылок завалить. В итоге биржи завалили поисковую систему спамом.


Говорят, что 99,5 % покупаемых ссылок – это спам. То есть, ссылки, которые делаются не для людей, а для поисковых систем. Одно это уже говорит о том, что поисковики проиграли оптимизаторам. Таких ссылок огромное количество.


Но в долгосрочной перспективе поисковые системы исправляются, решая проблему ссылочного ранжирования усилением поведенческих факторов.


Поведенческие факторы


Собственно, к ним все потихонечку и переходит. По той причине, что сайтов уже много и пользователей очень много. Сегодня поисковые системы уже могут собирать достаточное количество данных, чтобы на основании действий пользователя сделать вывод – решает сайт задачи или нет. То есть по тому, что из 5 000 людей, зашедших на сайт, 3 000 сделали такое действие, очень легко понять, что сайт им помог.


Поэтому активно развиваются системы «Яндекс.Метрика» и Google Analytics, а «Яндекс», например, еще использует данные «Яндекс-бара», данные некоторых других счетчиков статистики.


– Вопрос про счетчики. Одни люди говорят, надо Google Analytics ставить. Другие говорят, надо «Яндекс.Метрику» ставить. Третьи только за лайт-интернет. Что является верным и для каких случаев?


В общем, здесь логика очень простая. Говорят, если у вас плохой сайт, не ставьте «Яндекс. Метрику». Но мне почему-то кажется, что если у вас плохой сайт, нужно сделать хороший сайт и тогда уже поставить «Яндекс.Метрику». Если у вас сайт объективно плохой – такой, на котором будет отвратительная конверсия, неудобная для пользователей, то поисковое продвижение что вам даст? – Людей, которые в нем не разберутся и ничего не купят. Поэтому сделайте хороший сайт и ставьте «Яндекс.Метрику», Google Analytics – и все будет в порядке.


В чем здесь суть? Поисковой системе для того, чтобы понять, что сайт плохой, не обязательно нужна «Яндекс.Метрика». Она и без нее по поведению пользователя на выдаче это поймет.


SEO для бизнеса


Руслан Рзаев:


Для интернет-магазинов, которые постоянно развиваются и тратят силы на совершенствование своего сайта, качество сайтов у которых однозначно высокое, рекомендуется настроить цели в «Яндекс. Метрике» и Google Analytics. Поисковые системы будут видеть, как ваш сайт


удовлетворяет запросы пользователей, и будут Руслан Рзаев повышать его в органической поисковой выдаче.


В настройках счетчика «Яндекс.Метрика» есть пункт «Цели».


Рисунок 36. «Настройка целей» в «Яндекс.Метрике»


Настройка целей дает плюс в продвижении сайта с хорошим поведе-нием пользователя (хороший ассортимент, цены, функционал сайта) и, наоборот, покажет понижение позиций для сайтов с низкой конверси-ей и высоким показателем отказов.


Соответственно, чем больше вы будете заниматься улучшением своего сайта и параллельно бизнеса, тем выше будут ваши позиции в поиско-вых системах.


Глава 1. Как продвинуть сайт


Например, человек зашел на ваш сайт и вышел, пошел на другой сайт. Так же сделал следующий пользователь и следующий, и еще следующий… Человек прошел через ваш сайт


А на сайт Б и там остался, обратно в «Яндекс» не вернулся. Какой можно сделать вывод? Закончен поиск. То есть там человек нашел то, что искал. Может быть, он и у вас бы нашел, но по статистике становится понятно, что он нашел именно там, а у вас не смог найти.


Поэтому не обязательно, чтобы был установлен счетчик, и без него понятно, плохой сайт или хороший.


– То есть размещение счетчика никаких плюсов и минусов не дает?


Дает и плюсы, и минусы, но ваша задача в том (мы будет это разбирать), чтобы сайт сделать удобным – тогда будут только плюсы. Удобство сайта – это то, чем стоит заниматься.


Итак, про поведенческие факторы тоже поговорили. Кстати, их уже накручивают, существуют сервисы для накрутки поведенческих факторов. Есть несколько типов накрутки. Один


из способов – это BotNet. Когда множество компьютеров заражаются вирусом. Вирус выполняет какое-то действие, имитируя пользователя, заходит на выдачу, заходит на ваш сайт и там оформляет заказ. Есть SEO-компании, которые накручивали поведенческий фактор именно таким способом, то есть заражали компьютеры чужих пользователей вирусом.


Вроде очевидно, что: а) это обнаружат автоматические фильтры; б) это огромный минус репутации; и в) нарушение законодательства. Тем не менее, такой прецедент был. Кстати, для того агентства это закончилось санкциями, потерей репутации и продажей.


Другой способ – это биржи действий, представляющие собой не что иное, как эксплуатацию детского труда , где школьники за несколько рублей выполняют ваши задания. Это также легко обнаруживается.


На практике это выглядит так – заходит человек на эту биржу (допустим, школьник). А там говорится: «Зайди в «Яндекс», набери слово «окна», сделай скриншот. Зайди в выдачу, найди наш сайт, сделай скриншот. Зайди на наш сайт, найди страницу «Тарифы», сделай скриншот, побудь там 30 секунд, сделай скриншот. Пришли скриншоты – получишь 10 рублей». Зайдут 100 школьников, вот у сайта уже хорошие поведенческие факторы, потому что на него больше переходят и на нем больше «покупают».


А «Яндекс» уже давно анонсировал, что клики по выдаче будут работать. Я был еще в 2008 году у них на семинаре, еще в их старом офисе. Они рассказывали, что это один из факторов, который будет влиять на позиции. Тогда это казалось невозможным. Сейчас это один из ключевых факторов ранжирования.


Ещё способ накрутки. Пользователи ставят на свои компьютеры программу, куда зашиты «сценарии поведения». В невидимом режиме с компьютера пользователя происходят обращения на сайты, «люди» оформляют «заявки». Как вы думаете, как поисковые системы могут с этим бороться?


– По IP.


Нет, так не отследишь, на одном IP-адресе может быть десять пользователей, к примеру, если это wi-fi в кафе, а сами пользователи могут выходить из разных мест.


– Одинаковые «сценарии поведения».


SEO для бизнеса


Можно сделать генератор сценариев. Есть еще варианты?


– Вопрос: как этот софт представляется, когда заходит на сайт?


Он делает слепок, говорит, что я Иван Петрович из Иваново… Даю вам маленькую подсказку. Может ли поисковая система зарегистрироваться на такой бирже, как компьютер, с которого должна происходить накрутка, и отследить накручиваемые сайты? Может ли поисковая система зарегистрироваться на такой бирже как сайт-заказчик и отследить компьютеры, с которых происходит накрутка?


– Тогда она узнает всех, кто накручивает.


Да. То есть она отключит деяния людей, которые участвуют, и отключит сайты, которые участвуют поведенчески. Всё! Это самый простой способ. В действительности все еще проще, потому что уже по паттернам поведения всё фиксируется автоматически.


Глава 1. Как продвинуть сайт



ПОЛУЧАЙТЕ НА 75% БОЛЬШЕ ЗВОНКОВ КЛИЕНТОВ С САЙТА УЖЕ ЧЕРЕЗ 8 МИНУТ.


Новый онлайн-виджет CallbackHunter отследит вовлеченного посетителя на сайте. Когда он решит уйти без действия, виджет за 26 секунд организует звонок со свободным продажником.


ВВЕДИТЕ ПРОМО-КОД

«SEO»


на сайте callbackhunter.com и получите


25 минут тестирования сервиса


Практика 6. Юзабилити*


Советы по юзабилити:


Контент:


• функциональные элементы: калькулятор цен, галерея, сравнение товаров и др.;


• выделение смысловых акцентов через списки, цитаты, заголовки, картинки;


• выделение возражений и потребностей заголовками.


Ссылки:


• Все ссылки выделены подчеркиванием.


• Ссылки не выглядят так же, как текст.


• Очевидно, что по ссылке раскроется меню.


Формы:


• Содержание форм проверяется на валидность.


• Автоматическая авторизация после регистрации.


• Данные форм сохраняются при перезагрузке страниц.




Рисунок 37. Форма для аудита юзабилити


Проверить, насколько страница удобна, достаточно просто. Для этого выпишите все запросы, которые про-двигаются на эту страницу, изучите их и сформулируй-те потребности, с которой пользователи приходят туда. Теперь у вас есть ориентир,


с помощью которого вы можете проверить содержи-мое страницы – помогает оно достигать эту цель, нужно ли, или же мешает. Выпишите список всего функционала страницы и проверьте этими вопросами.


Проведите анализ конкурентов и запишите, какой функционал есть у них. По-смотрите, нужно ли что-то добавить на ваш сайт. Дополнительно можете выполнить проверку по чек-листу с сайта www.topexpert.pro/5.html


*Юзабилити – удобство пользования сайтом.


Как, например, работает антивирус? У него есть бот, который ходит по всем сайтам, самым ужасным сайтам, какие вы только можете себе представить, «голые женщины», «купить дипломы», «скачать Windows». В общем, собирает мусор и заражается всеми возможными вирусами. Собирает на себя все вирусы, собирает, собирает. Он находит и открывает все письма, которые приходят на почту, оставляет свои e-mail, чтобы туда приходило больше спама. К вирусам пишут «противоядие», которое попадает в базу и устанавливается на ваш компьютер. Всё! Ваш компьютер защищен.


Еще один важный момент. Если компания накручивает поведенческие факторы на сайтах всех своих клиентов, как «Яндекс» это обнаружит?


– По характеристикам, по поведению.


Внизу на ваших сайтах что написано? «Продвигает компания такая-то». Плюс к этому есть ktoprodvinul.ru, где написано: наши клиенты вот эти, эти и эти… Для поисковых систем нет труда собрать список клиентов по каждой SEO-компании. Если внезапно на 100 сайтах вырос трафик по запросам, которые в топ-30, это сложно не заметить, верно?


Любая промышленная накрутка будет обнаружена.




Руслан Рзаев:


Есть несколько наиболее важных поведенче-ских факторов, которые сильно влияют на фор-мулу ранжирования поисковой системы. Пере-числим их по порядку:


1. CTR.


Поисковые системы начали использовать

параметр CTR в контекстной рекламе. – Руслан Рзаев CTR (англ. click-through rate), или


«кликабельность», – это один из важнейших показателей для


измерения эффективности медийной и контекстной рекламы, который


рассчитывается по формуле: –


количество переходов / количество показов объявления или баннера.–



Т. е. по сути это количество пользователей, которые «кликнули» по объявлению, но не в абсолютном, а в процентном выражении. Если СTR – 100 %, то это означает что все 100 % пользователей перешли по вашему объявлению, сделав по нему клик.– После введения поведенческих факторов ранжирования поисковые системы начали считать CTR и для органической выдачи.


Глава 1. Как продвинуть сайт


Считается, что чем больше пользователей выбирает определенный сайт в поисковой выдаче по данному запросу, тем больше данный сайт удовлетворяет пользователя и тем выше он должен находиться в орга-нической выдаче после следующего апдейта. Именно поэтому SEO-оп-тимизаторы при продвижении проектов сейчас активно работают со сниппетами* в поисковой выдаче, чтобы представить сайт более вы-игрышно, чем у конкурентов. Когда оптимизаторам удается добиться, чтобы в выдаче по определенному запросу было больше «кликов» по урлу продвигаемого сайта, чем по другим сайтам в поисковой выдаче, то в следующий апдейт сайт получит более высокие позиции по данно-му поисковому запросу.


2. Показатель отказов.


Показатель отказов (англ. bounce rate) – термин в веб-аналитике, обозначающий процентное соотношение количества посетителей, по-кинувших сайт прямо со страницы входа или просмотревших не более одной страницы сайта.


Т. е. чем больше показатель отказов у урла и у сайта, тем менее отве-чающим на запросы пользователей он считается.


Исключением является тематика такси или услуг эвакуаторов, где пользователь не смотрит сайт, листая страницы, а просто делает зво-нок. Показатель отказов в данном примере не показывает качество сайта или урла, на него просто нельзя ориентироваться, и поисковые системы это понимают.


Страницы книги >> Предыдущая | 1 2 3 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации