Реклама, маркетинг, PR и технологии

Борьба с дублями страниц

Для посетителей ресурса наличие дублей страниц ничего не значит, так как они приходят за информацией, а вот поисковые роботы воспринимают их как разные страницы, на которых находится одинаковый контент. А это значит, что содержимое таких страниц не уникально. Вот фактор не уникальности материалов и сказывается негативно на ранжировании в поисковой выдаче.
Кроме того, наличие дублированных страниц распыляет ссылочный вес, который может сосредоточиться совсем не на той странице, которая продвигается.
В большинстве ситуаций возникновение дублей происходит из-за не корректных настроек CMS. Для решения возникшей проблемы сложно назвать один рецепт.
Также, иногда возникают нечёткие дубли, в которых материал идентичен не целиком. Данные страницы можно увидеть у различных интернет-магазинов.
Поиск дублей
Для начала, необходимо сравнить количество страниц в поисковиках. Для этого в Яндексе или Google следует ввести host:вашсайт.ru и они покажут количество страниц в индексе.
Если количество будет отличаться в разы, то вероятно, что одна из поисковых систем проиндексировала дубли страниц. Следует заметить, что страницы-копии не всегда виноваты в большой разнице, но, тем не менее, следует тщательно проверить сайт. Если он небольшой, то можно просто посчитать реальное число страниц и сравнить с результатами поисковиков.
Искать дубли можно по их адресам в индексах поисковиков. Если на ресурсе настроен ЧПУ, то URL типа «index.php?g=v7w1rv 8dbc», будет сразу заметен.
Ещё одним способом определения копий при помощи поисковиков является ввод фрагмента текста в строку поиска. Если в результатах будет больше одной страницы, то на ресурсе присутствуют дубли.
Способы решения
После нахождения всех дублей требуется их удалить. Для этого существуют разные способы, но, не исключено, что потребуется использовать все, из перечисленных ниже решений.
Если дубли были созданы вручную вебмастером, то и удалить их можно, также, вручную.
Если нужно склеить страницы, URL которых различаются только наличием WWW, то подойдёт редирект 301.
Для нечётких дублей можно применять тег canonical. К примеру, для страниц с товарами в магазине, отличающиеся только параметрами сортировки. Кроме того, canonical можно применять у версий страниц для печати.
Важным инструментом в борьбе с копиями страниц является файл robots.txt. Использование директивы Disallow позволяет закрыть индексацию дублей поисковыми роботами.
Вывод
Дубли страниц являются одним из самых массовых ошибок, совершаемых при создании сайта. Их присутствие на качественном ресурсе недопустимо, поэтому от них следует избавляться как можно быстрее.

Интересные статьи

Подбор поисковых запросов

Интересные статьи | (Закрыть)