Новый Penguin будет выявлять переоптимизированные сайты, то есть, бороться с так называемым поисковым спамом. «Чёрный» SEO все сильнее подвергается критике со стороны поисковых систем. То есть, такие методы становятся всё менее эффективными. Как Google так и Яндекс стремятся к тому, чтобы интернет состоял не из поисковых слов, и накрученных рейтингов, а был наполнен интересной и полезной информацией.
Алгоритм фильтра Penguin 1.1 имеет некоторые модификации, сам же фильтр получил новую базу. Теперь поисковый фильтр умеет дополнительно отслеживать поисковые запросы ведущие на сайт, исходящие с сайта сигналы, то есть получать достаточно информации, чтобы определить накрутку и переизбыток ключевых слов.
Есть несколько основных критериев, которые указывают на поисковый спам:
- Количество ключевых слов избыточное (правда, какой предел и отношение ключевых слов к общему контенту разработчики не указывают);
- Переоптимизированность (как это определяется тоже не совсем понятно);
- Бесконтрольное использование купленных ссылок (ну с этим ещё можно разобраться).
Остаётся некоторой загадкой, из чего исходят разработчики фильтра, и где передел тех самых ключевых слов, которые каждый уважающий себя веб мастер размещает на страницах сайта, а конкретно – в контенте. Как определить пресловутую «переоптимизированность», тоже не совсем понятно. Но если вдруг, на какой либо сайт упало количество трафика, идущего с поисковой системы Google, возможно этот сайт попал под новый фильтр.
Одним словом, контент должен быть уникальным, ссылки на сайт «естественные», изображение правильно подписаны, страницы оптимизированы (мета-теги, описание, тайтл). «Белое» SEO в почёте, всё остальное скоро станет спамом.
Вернуться в раздел