Основная проблема многостраничных сайтов, имеющих узкое направление, это дублирование ключевых слов, заголовков страниц и расширенных заголовков. После выхода обновления фильтрующих алгоритмов, вебмастера в спешке начинают придумывать, как изменить данные параметры, предполагая, что дубликаты могут навредить. Джон Миллер пояснил, что алгоритм «Панда» имеет более продвинутую технологию, и не учитывает дублирование метатегов на нескольких страницах, а рассматривает сайт в целом. Алгоритм в состоянии отличить хороший контент от плохого, и дублирование ключевых слов, на некоторых страницах – это посредственный пункт, и не является главным для фильтра. Самое главное, чтобы сайт имел действительно полезный контент, и был интересен пользователям.
Но вебмастерам не стоит расслабляться, повторение десятка ключевых слов на всех страницах сайта не является «хорошим тоном». Не стоит забывать, что около 70% русскоязычного относится к выдаче поисковой системы Яндекс, а у него несколько другие алгоритмы фильтрации.
Вернуться в раздел