«Панда» не такой страшный, как его рисуют

Нашумевший поисковый фильтр «Панда», от Google, не такой страшный, как его рисуют. Конечно, изначальная цель разработчиков стоит в фильтрации неинформативных и неинтересных сайтов, а так же тех, которые…

18 февраля 2015

Нашумевший поисковый фильтр «Панда», от Google, не такой страшный, как его рисуют. Конечно, изначальная цель разработчиков стоит в фильтрации неинформативных и неинтересных сайтов, а так же тех, которые предназначены только для сбора трафика, и основанные на спамовых алгоритмах. Некоторые тонкости «Панды» пояснил на видео встрече, представитель компании Джон Мюллер.

Основная проблема многостраничных сайтов, имеющих узкое направление, это дублирование ключевых слов, заголовков страниц и расширенных заголовков. После выхода обновления фильтрующих алгоритмов, вебмастера в спешке начинают придумывать, как изменить данные параметры, предполагая, что дубликаты могут навредить. Джон Миллер пояснил, что алгоритм «Панда» имеет более продвинутую технологию, и не учитывает дублирование метатегов на нескольких страницах, а рассматривает сайт в целом. Алгоритм в состоянии отличить хороший контент от плохого, и дублирование ключевых слов, на некоторых страницах – это посредственный пункт, и не является главным для фильтра. Самое главное, чтобы сайт имел действительно полезный контент, и был интересен пользователям.

Но вебмастерам не стоит расслабляться, повторение десятка ключевых слов на всех страницах сайта не является «хорошим тоном». Не стоит забывать, что около 70% русскоязычного относится к выдаче поисковой системы Яндекс, а у него несколько другие алгоритмы фильтрации.

Вернуться в раздел