Электронная библиотека » Анатолий Косарев » » онлайн чтение - страница 3


  • Текст добавлен: 29 февраля 2024, 14:02


Автор книги: Анатолий Косарев


Жанр: Руководства, Справочники


Возрастные ограничения: +12

сообщить о неприемлемом содержимом

Текущая страница: 3 (всего у книги 23 страниц) [доступный отрывок для чтения: 8 страниц]

Шрифт:
- 100% +
2 – SandBox (песочница)

Даже если куплено доменное имя, но по мнению Google, сайт претерпел серьёзные изменения, особенно в тематике, то его ждет фильтр «Песочница».

«Барахтаться» в «Песочнице» можно от 3 месяцев до 1—2 лет.

Если же хозяин сайта решил поменять тематику сайта, или внес существенные изменения в структуру и подачу материала, кардинально поменял контент, то такому сайту также не избежать «Песочницы».

Чем менее популярен запрос, тем меньший коэффициент понижения веса страницы применяется.

Если же запросы высокочастотные, то понижающий коэффициент тем выше, чем популярнее запрос.

Как и с новым сайтом требуется провести внутреннюю оптимизацию сайта, связав страницы тематическими ссылками, заполнить уникальным и полезным материалом.

Выйти из песочницы помогает контекстная реклама в Google, если поисковик видит, что, кликая по рекламе, пользователь получает желаемый ответ на свой вопрос. Только так можно «внушить» Google, что веб-сайт качественный.

Google не индексирует все страницы сайта за один заход. Как утверждают эксперты, Google «просматривает» сайт определенное алгоритмом количество времени, и забирает на индексацию столько страниц, сколько успеет. Поэтому скорость загрузки страниц сайта существенно влияет на количество индексируемых страниц новому сайту. (А далее время, уделяемое на индексацию сайта, зависит от периодичности и объема добавления новой информации.)

Когда все страницы сайта проиндексированы, он Google анализирует весь сайт на качество и полезность. Не уникальные тексты, картинки, тексты ссылок, и пр. – факторы для понижения рейтинга сайта.

3 – Оver Оptimization (чрезмерная оптимизация)

К этим фильтру нужно быть особенно внимательно начинающим SEO-оптимизаторам, по неопытности думающим, что чем больше ключевых фраз в тексте – тем лучше.

Ещё с древних времен считается, что чем больше раз поисковая ключевая фраза будет записана на странице, тем лучше.

Начинающие копирайтеры и оптимизаторы пишут примерно так:

«Наши пластиковые окна самые лучшие из всех пластиковых окон, которые продаются на рынке пластиковых окон у нас в городе. Покупайте у нас пластиковые окна, и убедитесь, что мы лучшие поставщики пластиковых окон, потому что наши пластиковые окна будут служить дольше, чем любые другие пластиковые окна, купленные в нашем городе.»

Google видит, что такие тексты не естественные, и такой текст не понравится пользователям, а значит не вызовет доверия, а значит у такого продавца никто не станет покупать.

Зачем показывать первым такой сайт, если есть сайты, написанные более человеку понятному языком. Естественно, такой текст Google считает не качественным и не авторитетным.

Как и везде при написании текстов нужна мера.

Просмотрев миллионы сайтов было определено, что нормальное количество поисковых клещевых фраз в качественном тексте составляет 3—5% от общего количества слов на страницы. Тексты в тегах, в заголовке и описании страницы, ALT и TITLE учитываются при расчете.

Это значит, на сто слов текста ключевое слово должно быть 1 раз

· в заголовке странице,

· в заголовке текста на странице,

· в начале статьи,

· в подписи к картинке,

· и еще, например, в подписи гиперссылки.

Все, что сверх этого – пере оптимизированный текст. С одним словом – просто, но когда в страница оптимизируется под ключевую фразу, состоящую из несколько слов, или даже оптимизация делается под несколько ключевых фраз (а такие страницы имеют больший вес в Google), то произвести точный подсчет не так просто.

SEO-специалисты разработали несколько вариантов методик подсчета, например подсчитать количество знаков в ключевой фразе, и сравнить с общим количеством знаков в тексте.

Google не раскрывает по каким правилам поисковик определяет этот злополучный процент.

Также не известно при таком подсчете Google учитывает или нет стоп, или шумовые слова. Поэтому лучше не заморачиваться на подсчетах, чтобы подогнать результат, а писать простым, человеческим языком, уделяя тому, чтобы статья была интересна, легко читаемая и полезная.

Лучшего результата можно добиться как должна быть оптимизирована страница, и какие LSI фразы следует использовать – посмотреть ТОП 5 конкурентов по выдачи, по этой фразе.

Любителям же математической статистики считать вручную плотность ключей в тексте не нужно, ведь для этого есть масса бесплатных программ.

И не забывайте о LSI словах, и других окружающих элементах, которые очень важны.

4 – Сocitation linking filter (плохое соседство)

В жизни формируют мнение о человеке не только по внешнему виду, но и по его окружению: по друзьям, и по другим людям, с которыми он постоянно общается.


Также и Google ориентируется на окружение сайта: на какой сайт ведут ссылки с этого сайта, и кто на него ссылается.


Это один из критериев определения авторитетности сайта.


Фильтр CO-citation Linking накладывается на сайт, если ресурс содержит ссылки на:

– низкокачественные сайты, по мнению Google,

– сайты начинающих веб-мастеров,

– сайты с неодобренным содержанием, например, порно сайты,

– спамерские сайты, которые создаются для увеличения рейтинга основного сайта;

– мошеннические сайты, которые под благовидными предлогами выманивают деньги у пользователей;

– фишинг сайты;

– другие вредные, или бесполезные для пользователя сайты;

– сайты с информацией о самодельных взрывных устройствах, наркотиках и т. п.


Поэтому, обращайте внимание не только на сайты своей тематики, но и убедитесь, что на сайт, на который вы ссылаетесь – доброкачественный, и чем он более авторитетный, тем лучше.


Сайт акцептор в этом случае не страдает санкциями от Google.

5 – Too Many Links At Once Filter (Ссылочный Взрыв, Свечка)

Часто молодые хозяева сайтов любители получить все за один день могут посетить несколько десятков сайтов, на которых что-либо написать, и поставить ссылки на свой сайт.


Горячие оптимизаторы, могут закупить на сайт несколько десятков или даже сотен ссылок, за короткий промежуток времени.


Все это вредно для сайта, особенно молодого, потому что Google считает, что естественным путем так быстро не может расти ссылочная масса. Еще более не правдоподобно для Google, когда в один день, или короткий промежуток времени ссылки добавлялись десятками или сотнями на разных сайтах, а потом наступило затишье.


Исследуя миллионы сайтов в разных отраслях, Google уже определил как быстро и в какой тематике набирается и теряется ссылочная масса.


Основная функция фильтра – фиксирование скорости увеличения или уменьшения ссылок (так называемых волн), приводящих на сайт. Быстрое, а значит не естественное увеличение ссылочной массы, фиксирует фильтр Too Many Links at Once Filter.


Если фильтр замечает волновое увеличение ссылочной массы, то перестает учитывать приводящие на сайт ссылки. По-моему, справедливо отдавать предпочтение сайтам, которые работают над качеством контента, а не сайтам, которые гонятся за наращивание ссылочной массы.


Искусственно наращивать ссылочную массу очень быстрый и дорогой вид продвижения, который отслеживает этот фильтр, и борется с нечестностью.


Борьба с покупными ссылками приоритетное направление у всех поисковиков, поэтому часто значительно проседают сайты, у которых основной вид продвижения – покупные ссылки.


Наращивание ссылочной массы таким путем имеет и оборотную сторону. Если средства у владельца сайта заканчиваются, или по какой-либо другой причине, он не в состояния больше оплачивать дорогие ссылки, то это также хороший сигнал для Too Many Links at Once Filter, чтобы пессимизировать сайт.


Также нужно медленно и отказываться от покупных ссылок, чтобы этот процесс выглядел как бы естественным. Быстрое снижение ссылочной массы также отрицательно влияет на рейтинг сайта.


Для Google в первые месяцы нового сайта естественным приростом внешних ссылок не должно превышать количества уникальных и качественных страниц на сайте.


В дальнейшем естественный прирост ссылочной массы не может превышать 10%.


Это значит, что, если на сайте 20 страниц за первые месяцы его существования максимально может появиться 15—20 ссылок с других сайтов. А далее по 1—2 ссылки в месяц. Причем в 20 страниц не входят страницы «Контактов», «О нас», «Наши сертификаты», «Партнеры» и подобные.


Google считает, что вышеперечисленные страницы нужны и поднимают авторитет сайту, но ссылки на такие страницы не имеют веса. Кроме этого не имеют веса коммерческие, спонсорские и подобные ссылки, ведущие в интернет магазин, или другую продажу.


Количество ссылок, ведущих на сайт при естественном приросте, не может быть скачкообразным волновым. Естественно увеличение или уменьшение количества ссылок не может быть равномерной: в один период их будет чуть больше, в другой – чуть меньше. Поэтому Google рассчитывает среднестатистическую погрешность, даже авторитетных и крупных сайтов.


Фильтр Too Many Links at Once Filter постоянно совершенствуется, всё лучше и лучше учится находить покупные ссылки, и уже делает их бесполезными, они не получают вес.


А для перестраховки (но не наказания) отключает вес даже тех ссылок, которые были получены естественным путем.


Фильтр проводит пессимизацию не только при не естественном приросте, но и при неестественном уменьшении.


Фильтр «Ссылочный взрыв» прекрасно понимает, что резкое уменьшение ссылок происходит, когда было закуплено много ссылок, но у хозяина сайта произошло ограничение бюджета, и он перестает закупать ссылки.


Вывести сайта из-под этого фильтра – наиболее сложная задача, чем вывод из-под других фильтров.

6 – Bombing (бомбардировка)

Если на сайт ведет много внешних ссылок с одинаковыми ALT и / или TITLE, и / или одинаковым текстом описания ссылки, то фильтр Bombing не учитывает эти ссылки, и не добавляет вес страницы. Из-за этого вес страницы может, обнуляются. Даже если несколько друзей решило сделать вам подарок, и проставили одну и ту же ссылку на вашу страницу со своих сайтов.


Google считает такие ссылки не естественными, и пессимизирует только те страницы, на которые ведут эти внешние ссылки. Поисковик понимает, что такие ссылки получаются при бездумном или автоматическом добавлении, а значит и не могут быть естественными.


Даже если автор вручную копирует и вставляет ссылку на разных сайтах, то это не меняет отношение Google. Для поисковика каждая ссылка должна быть уникальная, продуманная и быть связующим звено материала на сайте донора и акцептора.


Повторюсь, что поисковики желают видеть уникальный текст и помогать решить определенную задачу. Ссылка же должна вести на уточнение, на расширение понятия, описываемого в тексте. Поэтому и все атрибуты ссылки должны быть уникальными. Только тогда они имеют ценность для пользователя.


Как вы уже знаете, не Google, и ни какой другой поисковик придумал эти правила, а потребители контента так рассуждают, а поисковые системы формализовали этот факт в виде фильтра.


Удаление не качественных ссылок возвращает веб-страницы на прежние позиции в результатах поиска. Но это требуется делать разумно, планомерно и не спеша.


Быстрое же удаление ссылок приводит в действие другой фильтр – Too Many Links at Once Filter, который в этой книге расположен перед этим фильтром.

7 – Broken links (битые ссылки)

Этот фильтр – один из многих, который определяет качество сайта.


Любой развивающийся сайт, со временем претерпевает некоторые изменения. Некоторые страницы добавляются, некоторые изменяются, удаляются или переносятся. Страницы же сайта, как правило, связаны ссылками, и при переносе или удалении даже одной страницы случается так, что несколько или несколько десятков страниц сайта имеют ссылки на удаленную, или перемещенную страницу.


Поэтому получается, что несколько ссылок ведут на несуществующую страницу.


Бывает и так, что при создании сайта недодумано, могут генерироваться страницы с ошибкой 404.


Самый простой и распространенный пример. Программист устанавливает календарь событий компании, на котором пользователь может выбрать любую дату, месяц и год, чтобы посмотреть новость компании этого дня.


Но забывает закрыть доступ к тем датам, когда компания ещё и не существовала. Так пользователь может открыть любой год, например, 1001, или 11, и естественно получить страницу с ошибкой 404.


Разумному человеку вряд ли придет в голову посмотреть события компании в начале первого тысячелетия, но алгоритм, без эмоций выполняет свою работу.


У поисковика алгоритм – обойти все ссылки. Робот и обходит все, а для нашего примера это

2022 х 365 +505= 738 535 не рабочих ссылок, которые ведут на несуществующие страницы.


Ссылка, которая ведет на несуществующую страницу, называют битой. Обычно пользователю в этом случае выдается страница с кодом ошибки 404.


Ошибка 404 или Not Found («не найдено») – стандартный код ответа HTTP о том, запрашиваемая страница не найдена. (Ошибку 404 не следует путать с ошибкой «Сервер не найден» или иными ошибками, указывающими на ограничение доступа к серверу.)


Если сайт с таким календарем имеет несколько десятков страниц, то не сложно подсчитать отношение «хороших» и «плохих» страниц, а это хороший прирост к отрицательному определению качества сайта.


Кроме этого робот-паук должен обойти все страницы сайта, и если он «застрянет» на таком календаре, то хорошие страницы будут еще долго не индексированы.


Другая распространенная причина получения битых ссылок – перенос материала из одной категории в другую. Этим обычно страдают интернет-магазины.


Если битых ссылок на сайте много (величина или процент, который определяет, что битых ссылок много – коммерческая тайна Google), то Google считает этот сайт низкого качества, а поэтому его не стоит показывать пользователям, и пессимизирует его.


Перед запуском сайта нужно убедиться, что на веб-страницах нет битых ссылок, т.е. ссылок, которые никуда не ведут.

8 – Links (обмен ссылками)

Ранее среди веб-мастеров и хозяев сайтов было модно обмениваться ссылками, т.е. размещать ссылки на своем сайте на другой сайт, а тот в сою очередь делает то же самое.


Поисковики такой вариант увеличения ссылочной массы считают искусственным, и перестали учитывать такие ссылки. Если обмен ссылками был с большим количеством сайтов, то можно дополнительно получить наказание в виде понижения в рейтинге выдачи.


Links – применяется также к сайтам, содержащим страницы обмена ссылок с другими ресурсами. Такие страницы обычно называют полезными страницами, что на первый взгляд кажется правильным.


Но представьте такой вариант. У меня туристическая фирма, и я продаю путевки в разные страны и города. Для удобства пользователя на сайте создаю страницы для каждого курорта, где прописываю полезную информацию по этому месту отдыха. Например, даю ссылки на сайты: где заказать машину, экскурсовода, музеи, места, где вкусно готовят, и многое еще чего, что может пригодиться в незнакомой местности. В ответ, в качестве благодарности, все эти сайты делают ссылки на мой сайт.


Вся предоставляемая мной информация – полезна пользователям? Безусловно! Но поисковики считают такие страницы спамными. Кроме этого, чтобы не попасть под этот фильтр, если ссылка ведет на прайс-лист, или другое финансовое предложение, то Google разработал специальные атрибуты для гиперссылки, который указывает, что это коммерческая или спонсорская ссылка. Ссылки с такими атрибутами не учитываются, поэтому не учитываются и не могут навредить сайты. Их и требуется устанавливать в таких случаях.


Противоречиво, не справедливо, но это – объективная реальность на данный момент.


Под этот фильтр попадает обмен ссылками с доморощенными каталогами, которые предлагают за установку баннера их каталога размещать у себя ссылки на сайт.


Теперь если же на одной страницы сайта появляется 4 или более ссылок на сайты «партнеров», то велика вероятность попасть под пессимизацию фильтра Links.


Но если вы пишете хорошую статью, и в статье ссылаетесь на выводы нескольких авторитетных сайтов, то в этом случае сайт не попадает под этот фильтр, а наоборот – увеличивает свой вес.


Google считает, что одним из признаков авторитетности статьи – ссылки на первоисточники. В этом случае, если на странице 4 и более ссылок на авторитетные издания, то Google добавляет вес к авторитету сайта. Такой шаг Google считает, что ссылка помогает углубить изучение вопроса, в котором заинтересован пользователь.


Подчеркну, что Google не учитывает обмен ссылками. Лучше сослаться на авторитетный сайт самому, чем искать, с кем можно обменяться ссылками.

9 – Page load time (время загрузки страницы)

Фильтр Page load time проверяет, как быстро загружается сайт на различных гаджетах.


Если сайт долго загружается, то есть вероятность, что пользователь не дождется окончательной загрузки, то для этого фильтра – это сигнал, чтобы понизить рейтинг сайта на таком устройстве.


В самом деле, зачем пользователю показывать сайт, который на его устройстве будет грузиться долго, в то время как сотни подобных сайтов загружаются быстро. Особо щепетильно Google относится к загрузке страниц сайтов на мобильные устройства.


Каждый разработчик после того как собрал сайт, если желает, чтобы сайт высоко позиционировался в Google проверит скорость загрузки своего творения на тестирующие Google – PageSpeed Insights, чтобы убедиться, что скорость загрузки его шедевра удовлетворяет требованиям поисковика. Если же скорость загрузки низкая, то требуется выполнить там же предлагаемые рекомендации.


Заметьте, что Google никого и ничего не заставляет делать, он принимает всех, только выстраивает в рейтинге как считает нужным. Но Google дает рекомендации, которые не сам придумывает, чтобы усложнить жизнь разработчикам.


Его рекомендации – это плод его исследований, и собираемой статистики. Google бесплатно делится ими, чтобы помочь нам сделать свой веб-проект как можно более полезным конечному потребителю.

Но вернёмся к скорости загрузки веб-сайта.


Кроме медленной скорости работы сервера (что сейчас редко встречается), может быть очень большой объем загружаемой информации.


Это может быть километровые CSS файлы, скрипты, которые лучше подгружать позже, или скрипты в основном несущие только дизайнерскую «красоту» и эффекты, а также огромные картинки, которые в своем объеме практически не нужны. На все, что может снизить время загрузки, на исследуемом сайте Google сразу же указывает в своих рекомендациях, поэтому разработчик сайта обязан устранить все указанные недочеты…

Но скудные знания многих «программистов», тех, которые разрабатывают сайты на известных системах управления сайтами, не позволяют сделать это… А скорость загрузки сайта – один из приоритетных факторов при ранжировании сайтов.


Здесь и большая вина заказчиков сайтов. Они, как правило, желают по максимумы получить навороченный сайт. Но все навороты сводятся к усложнению дизайна: всякие всплывающие, динамические элементы, большие графические вставки существенно увеличивают время загрузки веб-страницы.


Возможно, провести сравнение крысы и белки. Белка – тюнингованная крыса, а заказчик желает получить белку, на которой дополнительно надеты наряды.


Google еще не понимает, хорош или плох дизайн, пользователю приятнее смотреть на белку. Поэтому мастерство разработчика сайта должно найти золотую средину между белкой и крысой.


Ведь, если пользователь пытается просмотреть сайт на своем мобильном устройстве, при оплате за трафик, для него тяжелые сайты – расточительны, поэтому тяжелая версия сайтов в Google считается недопустима. Так Google заботится о своих пользователях.


Если скорость загрузки страницы сайта больше 2—3 сек., то сайт может иметь существенную пессимизацию.


Здесь действует принцип – чем быстрее открывается веб-страница, тем лучше. Статистика показывает, что пользователи не готовы ждать открытия страницы более 2—3 сек. Пользователи смартфонов ещё более не терпеливы.

10 – Omitted results (упущенные результаты)

Если на сайте:

– много дублей страниц;

– мало уникального контента;

– много похожих фрагментов на разных страницах;

– мало ссылок на другие страницы сайта;

– нет внешних ссылок на авторитетные сайты;


То велика вероятность попасть под Фильтр Omitted results.


Честно говоря, мне не нравится стандартный оборот: «попасть под фильтр», мне кажется, что слово «выбраковывается» более точно подходит.


Дубли страниц часто возникают в системах управления сайтом (СМС), когда добраться до одного материала можно несколькими способами.


Например, до статьи можно добраться через раздел «Последние статьи», и через раздел, к которому приписана эта же статья. В интернет-магазинах один товар можно открыть в нескольких категория. И в каждом случае прописываются разные адреса одной веб-страницы.


Более подробно о дублях страниц, и как их избегать будет рассказано в другой части книги.


Малое количество уникального контента, т.е. основная часть текстов скопирована с других сайтов. Здесь не имеет значение, копирован текст с одного сайта, или была солянка фрагментов с разных сайтов.


Много похожих фрагментов на разных страницах, когда на веб-странице вместо гиперссылки на другую страницу сайта дублируется текст. Это распространено в интернет-магазинах, когда схожие товары имеют одно описание.

Этим грешат и компании, у которых несколько филиалов. Чтобы набрать больше страниц, они для каждого филиала создают отдельные страницы с длинными, или не очень длинными текстами. И вся разница в том, что в текстах меняется только адреса, телефоны, да время работы.


Так же плохо, когда дублируется текст на нескольких страницах.

Не желательно копировать фрагменты текстов с разных источников, которые в этом случае идут в минус. Для этого нужно пользоваться тегами цитаты.


Для Google хороший сигнал качества, когда в тексте он видит тег <blockquote> для длинных фрагментов текста, и тег <q> для коротких цитат, с указанием первоисточника.


Google считает, что пользователям удобнее прослеживать одну мысль от начала до конца на одной странице. Если же требуется расширить изложение в подтверждении фактов, или развить тему с уводом излагаемого в сторону, то нужно делать гиперссылку на все разъяснения и отклонения. Не желательно валить всё в одну кучу, у себя на веб-странице.


Например, в биографии знаменитости, в описании, где учился, может быть достаточно, указать только название университета со ссылкой на описание истории этого университета, а не валить все в кучу.


Так пользователь быстро получает ответ на свой вопрос, а дополнительные разъяснения – это ответ на другой вопрос, а значит должна быть и другая страница.


Или другой пример. На запрос пользователя: «Где учился Лермонтов» пользователь вероятнее всего хочет получить информацию о наиболее значимом учебном заведении поэта.


В большинстве случаев пользователю будет достаточно написать «Московский государственный университет имени М. В. Ломоносова». Но для расширения ответа перечислить другие места его образования, поставить внешние ссылки на действующие сайты, и сделать внутренние ссылки на страницы описания учебных заведений, которых уже нет.


Чем больше в тексте гиперссылок на авторитетные сайты, тем больше сигналов для Google, что контент – качественный.


Если в статье излагается полезная информация – факты, то наилучшим подтверждением справедливости написанного текста будет ссылка на авторитетный сайт, который подтверждает это, чем самому дублировать качественный контент.


Например, то, что Колумб родился в Австралии, возможно можно найти на каком-нибудь сайте с нулевым авторитетом. Google считает, что такой «факт» не заслуживает доверия. Но если в статье написано, что Генуя, Италия – место рождения Колумба, и море авторитетных сайтов утверждают это, то ссылка на один из таких сайтов увеличит рейтинг веб-страницы.


Какому заключению вы доверите больше: заключению бабушки, студенту, или практикующему специалисту?


Google как обычный человек доверяет тому больше, у кого выше авторитет.


Действие этого фильтра можно увидеть, если сайт отсутствует в результатах основного поиска, но виден в расширенном поиске.


Страницы книги >> Предыдущая | 1 2 3 4 5 6 7 8 | Следующая
  • 0 Оценок: 0

Правообладателям!

Данное произведение размещено по согласованию с ООО "ЛитРес" (20% исходного текста). Если размещение книги нарушает чьи-либо права, то сообщите об этом.

Читателям!

Оплатили, но не знаете что делать дальше?


Популярные книги за неделю


Рекомендации