К основному контенту

Сообщения

Сообщения за декабря 4, 2011

SEO-технологи. Фильтры Яндекса.

Фильтр – это санкция поисковой системы, которая применяется к сайту или его конкретным страницам. Результаты «попадания под фильтр» – исключение из индекса, понижение в результатах поиска, замедление роста позиций и добавление каких-либо других понижающих коэффициентов при ранжировании. Конкретная проблема будет определяться фильтром, под который сайту не посчастливится попасть. Фильтров достаточно много, и они подстерегают тех, кто не соблюдает правила игры: то есть делает то, что не нравится поисковой системе. Изначально фильтры и баны задуманы, чтобы противостоять поисковому спаму – «черным» методам оптимизации (дорвеям, автоматически и полуавтоматически создаваемым сайтам, копипасту контента и так далее). Однако «Яндекс» несовершенен, и если фильтр наложен несправедливо, нужно обязательно связываться с техподдержкой для решения проблемы. Фильтры учитываются в предварительном ранжировании (само слово «фильтр» подразумевает предварительный отсев), то есть при формировании ограниченн

Мэтт Каттс о HTTPS и ранжировании

Мэтт Каттс в своем новом видео развеял миф о негативном влиянии протокола HTTPS на ранжирование сайтов . Уже не раз оптимизаторы опасались, что снизить позиции в поисковой выдаче может «тормознутость» данного протокола. Так как HTTPS использует шифрование данных, скорость передачи данных по этому протоколу ниже, а это в свою очередь может негативно повлиять на ранжирование сайта, так как алгоритмы Google учитывают этот фактор. Мэтт Каттс заявил, что использование этого протокола для сайтов вполне оправдано, и поставил в пример PayPal, который использует HTTPS. Шифрование данных снижает скорость передачи данных, но не настолько сильно, чтобы повлиять на позицию сайта в поисковой выдаче. В свою очередь команда разработчиков делает все для того, чтобы защищенный протокол HTTPS не влиял на положение сайта в рейтинге. Только чрезмерно медленная загрузка может стать причиной снижения положения в SERP, но это частный случай, вероятность которого крайне мала. Причиной в подавляющем большинстве

C www и без

Для поискового робота страницы www.site.ru/krot.html, site.ru/krot.html и site.ru/krot.html/ и так далее – разные. Но при создании сайта и добавлении страниц очень многие об этом забывают. Если робот поисковой системы увидит на сайте кучу дублей, то есть одинаковых страниц, отличающихся только URL (адресом), то он будет их склеивать – то есть объединять, выбирая основную страницу, которая останется в индексе. И если эту склейку не направлять, она может стать произвольной – в индексе будут страницы с www и без, с закрывающими слэшами и без. Во-первых, это немного уменьшает доверие поисковика к сайту, во-вторых – может вызвать потери ссылочного веса: вы купили ссылки на www.site.ru/krot.html, а в индексе оказалась страница без www. http://www.help52.ru/

Как Яндекс ищет хорошие сайты?

Хороший информационный сайт = качество информации (полнота, достоверность и т.д.). Коммерческие сайты – другие. Хороший коммерческий сайт = качество информации + качество транзакции (пользователю удобно совершать покупку, он доверяет сайту). Поэтому такие сайты нужно оценивать по делам, а не описанию товара. Отрицательные признаки – наличие контекстной рекламы на коммерческом сайте. Положительные – фото, адреса, отзывы клиентов. По словам Яндекса - может использовать факторы, на которые SEO-специалисты никогда не подумают, что они значимы, поэтому надо делать сайты для пользователей. Один из  вопросов про социальные кнопки на сайте (будут ли учитываться лайки, твиты и т.п.). Сейчас они не учитываются Яндексом, но в перспективе такая возможность рассматривается… Итого: клики; поведение пользователей на странице выдачи; посещаемость сайта/страницы; поведение пользователей на сайте. Влияние кликабельности на ранжирование сайта в Яндексе и Google разное. Яндекс ставит на кликстр

Важный фактор – загрузка сайта

Скорость загрузки сайта является важным фактором ранжирования Google. По статистике, 57% пользователей не будут ждать дольше 3-4 сек., пока загрузится сайт, они уйдут. 80% из них больше никогда не вернется, 50% недовольных еще и расскажет друзьям, что сайт медленный. Поэтому быстрый сайт – это довольные пользователи, больше конверсий и выше позиция в выдаче. Google постоянно работает над тем, чтобы сделать загрузку страниц своих сервисов быстрее.   http://www.help52.ru/

Google может перекрыть кислород браузеру Firefox

Корпорация Google , чей браузер Chrome недавно обогнал Firefox и занял второе место в мире по популярности (по данным StatCounter), может окончательно вытеснить конкурента, перекрыв ему кислород. Дело в том, что некоммерческая организация Mozilla Foundation , выпускающая Firefox , почти полностью финансируется за счет интегрированного в браузер поиска Google. Как пишет редактор ZDNet Эд Ботт, в течение нескольких последних лет за размещение своей поисковой строки в верхнем правом углу браузера Google платит Mozilla около 1 доллара на каждого нового пользователя Firefox. В прошлом году на долю поиска Google пришлись 84% от 123-миллионой выручки Mozilla, то есть порядка 100 млн долларов. Соглашение между Google и Mozilla, истекшее в ноябре, до сих пор не было продлено, подчеркнул Ботт. Он сделал такой вывод исходя из того, что представители Mozilla уклонились от его вопроса о статусе соглашения с Google, сославшись на свое заявление, сделанное в 2009 году (тогда организация выразил