выборка из информационного шума

Full width home advertisement

Post Page Advertisement [Top]

Неправильная оптимизация и неправильный ТОП - о «черных» методах SEO.

Неправильная оптимизация и неправильный ТОП - о «черных» методах SEO.


Неправильная оптимизация и неправильный ТОП
Этот выпуск нашей рассылки несколько необычный – в рубрике «Технологии поискового маркетинга» мы расскажем не о том, что надо делать для оптимизации сайта, а наоборот – чего надо избегать. В этот раз речь пойдет о «черных» методах SEO, которые негативно влияют на продвижение. Любому оптимизатору и владельцу сайта полезно знать об этих методах, чтобы не стать их же жертвой – или вовремя распознать на сайте, доставшемся в «наследство» от недобросовестного псевдоспециалиста.


«Черной оптимизацией» принято называть запрещенные методы поднятия рейтинга сайта в поисковых системах. Такие способы обычно основаны на обмане поисковиков и их роботов-индексаторов. «Черное» SEO использовалось еще на заре оптимизации, когда обмануть поисковую систему было довольно просто. Тогда эти методы действительно приносили свои плоды, но спустя некоторое время поисковые системы разработали комплексы мер по борьбе с ними. Сегодня их использование с крайне большой вероятностью ведет к суровым санкциям со стороны поисковиков.


Клоакинг

Клоакинг (англ. cloak – мантия, маска, прикрытие) – один из самых характерных методов «черного» SEO. Его суть заключается в том, что поисковым роботам выдается одна информация, а живым пользователям другая. Какая в этом выгода? Все дело в том, что для поисковика выгодно показать образцово оптимизированную страницу, то есть с нужным количеством вхождений ключевых слов, необходимым объемом текстового контента и другими особенностями, положительно влияющими на ранжирование, при этом пользователю выгодно подать информацию в удобной форме – например, с минимальным количеством текста. По мнению многих оптимизаторов, сложно совместить привлекательность страницы для пользователя и для поисковой системы одновременно. Поэтому и стал применяться такой способ. Более того: с использованием клоакинга можно продвинуть страницу по нецелевым высокочастотным запросам – это обеспечивает большой трафик за небольшие деньги, а клиенту-сайтовладельцу всегда можно сказать, что в отсутствии заказов (трафик-то нецелевой) виноваты дизайн сайта и инопланетяне-масоны.
В настоящее время этот способ оптимизации считается нелегальным, его использование может привести к серьезным мерам со стороны поисковых систем – вплоть до бана и исключения из индекса.
Технически реализовать клоакинг довольно сложно, для этого необходимо обладать знаниями в области программирования, иметь базу IP. Обычно клоакинг организуется двумя способами:

  • по User Agent, когда сравниваются входящие данные, и с помощью специального скрипта определяется робот. Таким образом для бота выдается оптимизированная версия страницы, а для всех остальных посетителей обычная.
  • по IP-адресу, так как его очень сложно подделать. При входе из подсетей поисковых систем подгружается версия страницы для роботов. Этот способ сложнее, так как требует владения базой данных IP-адресов.
Стоит отметить, что эти два способа могут использоваться и совместно, что только повышает их эффективность.
Клоакинг надо рассматривать несколько шире, чем просто один из «черных» методов SEO – он используется и в других целях, вполне благородных. Наиболее часто его легальное применение используется для определения языка, установленного в браузере пользователя, его местонахождения и в других случаях. Такой «белый» клоакинг позволяет подгружать нужную версию страницы, избавляя пользователя от дополнительных настроек. Такие способы используются на многих известных сайтах и даже на самом Google в его различных сервисах. Разумеется, такой «белый клоакинг» следует правилу релевантности страниц и нацелен не на поисковых роботов, а на различные категории посетителей. При этом страницы должны отличаться только языком, контактной информацией и прочими признаками локализации, но рассказывать, безусловно, должны об одном и том же. Только тогда у владельца сайта будет полное право писать в техподдержку и добиваться отмены санкций, если вдруг поисковая система случайно их наложит.

Дорвеи

Дорвей (англ. doorway – портал, входная дверь) – сайты, использующиеся для перенаправления пользователей на другой ресурс. При этом содержимое дорвея оптимизировано под один или несколько популярных запросов и не несет никакой полезной информации. При переходе на него пользователь с помощью автоматического редиректа (но не веб-серверного, а скриптового) перенаправляется на другой сайт, таким образом ресурс обеспечивается достаточным количеством разношерстных посетителей за счет нескольких дорвеев, оптимизированных для разных ключевых слов.
Контент дорвея может включать любой текст с нужными вхождениями ключевиков вплоть до автоматически сгенерированного. Для достижения значимых результатов в продвижении таким нечестным способом требуется создание большого количества дорвеев. Ушлые «черные» оптимизаторы, чтобы облегчить свою работу создали специальные программы для производства таких сайтов – доргены (генераторы дорвеев), которые существенно сокращают трудовые затраты.
Автоматическое перенаправление пользователей по лицензионному соглашению поисковиков считается одним из видов спама, который наказывается пессимизацией или баном. Выявить дорвей довольно сложно, но все современные поисковики имеют специальные алгоритмы для этих целей.


Линкбомбинг

Линкбомбинг – вид поискового спама, характеризующийся простановкой ссылок с анкорами, которые не соответствуют информации и тематике ресурса. Появление такого вида спама обязано хулиганам и шутникам – изначально он использовался в юмористических целях. Самый громкий пример линкбомбинга связан с запросом miserable failure (жалкий неудачник), благодаря множеству ссылок с таким анкором, по нему на первую строчку выдачи Google выводился сайт Джорджа Буша, а по запросу «геморрой» первую строчку «Яндекса» довольно долго занимал сайт Microsoft.
Сегодня такой метод продвижения довольно широко используется: отличить сайты, в продвижении которых был задействован линкбомбинг, можно по пометке «найден по ссылке» в выдаче «Яндекса». При злоупотреблении этим методом велик шанс наложения санкций поисковиков. Следует помнить, что соответствие анкоров контенту продвигаемой страницы – очень важное условие легитимности поискового продвижения и стабильного присутствия в ТОП.


Спам-тексты

Необходимо уделять особое внимание текстовому контенту, так как он является одним из главных внутренних факторов ранжирования. С самого начала истории поисковиков существовали способы, которые позволяли видоизменять тексты на страницах для достижения лучших позиций.
Один из таких способов — переопитимизация текстов. Она заключается в большом количестве вхождений ключевых слов в ущерб читабельности. Чрезмерное количество ключевиков в тексте на жаргоне оптимизаторов называется «тошнотой». То есть такой контент с зашкаливающей плотностью вхождений предназначен исключительно для поисковых систем, а не для живых пользователей — читать такие опусы едва ли кто-то станет.

Еще один способ недобросовестных оптимизаторов — размещение текстов с большим количеством вхождений нужных слов, которые достигаются плотностью, а за счет огромного объема. Такие фрагменты контента в среде оптимизаторов принято называть «простынями». Для пользователей они практически не представляют интереса из-за того, что из них сложно извлечь необходимую информацию.
Следует отметить, что оба этих способа в настоящее время являются факторами, однозначно классифицируемыми поисковиками как спам. Если в наследство от оптимизаторов прошлых лет вам достался сайт с таким контентом, его следует обязательно переписать, сделать «человечным», читабельным и интересным. Современные алгоритмы поисковых систем оценят это положительно.


Прочий спамдексинг

Термином «спамдексинг» принято называть все нечестные методы оптимизации, в том числе и рассмотренные выше. Но кроме дорвеев и клоакинга есть другие способы накрутки рейтинга.
Для оптимизации важно наличие ключевых слов в тексте, но злоупотребление количеством их вхождений безусловно отрицательно влияет на читабельность. Чтобы решить эту проблему, оптимизаторы придумали способы скрытия «оптимизированного» текста от глаз пользователя, но не от поисковых систем. Этого можно достигать разными методами: чрезмерно мелким размером текста, размещением под изображениями, цветом, совпадающим с фоном, и многими другими.
В настоящее время эти методы относительно легко вычисляются поисковиками, что влечет негативные для продвижения последствия. Риск их применения становится неоправданно высоким.
Негативные действия со стороны поисковика могут последовать в ответ на ссылочный взрыв — так называют резкий скачок роста входящей ссылочной массы. Особенно вероятны санкции со стороны поисковой системы, когда на молодой сайт вдруг проставляется неестественно большое количество ссылок, причем не с самых авторитетных ресурсов. То есть неестественная динамика роста входящей ссылочной массы воспринимается поисковыми системами как накрутка. При закупке ссылок необходимо учитывать этот фактор и наращивать их число как можно более плавно. Именно с этим связаны многие вопросы начинающих пользователей по поводу скорости закупки ссылок: на начальном этапе закупает их в оптимальном темпе, увеличивать который какими-либо дополнительными ухищрениями строго не рекомендуется.
Безусловно огромное значение для оптимизации имеет качество площадок, на которых размещаются внешние ссылки. «Черные» оптимизаторы создают специальные сайты, называемые ГС («говносайты»). Они часто создаются в автоматическом режиме для снижения стоимости и трудовых затрат, представляют собой страницы с шаблонным дизайном или вовсе без него, краденным или сгенерированным нечитабельным текстом. Такой способ продвижения был популярен несколько лет назад, но в настоящее время может только навредить — поисковики крайне негативно относятся к ссылкам с таких ресурсов. Следует подчеркнуть, что «на глаз» отличить ГС от полезного для продвижения сайта невозможно (особенно если нужно купить десятки и сотни ссылок): для этого нужны специальные алгоритмы проверки работоспособности.


Выводы
Политика развития алгоритмов ранжирования многих популярных поисковиков в последнее время строится таким образом, чтобы максимально «очеловечить» выдачу. То есть юзабилити, дизайн, информативность и реальная релевантность постепенно выходят на передний план.
Будьте белыми и пушистыми, не поддавайтесь искушению использовать «черные» методы, и поисковики обязательно оценят это, а вы не будете рисковать своим сайтом и сможете избежать наложения серьезных санкций. И обязательно проверьте свой сайт, если его продвигал кто-то, не внушающий особого доверия!

Комментариев нет:

Отправить комментарий

Bottom Ad [Post Page]