Дублирующий контент является одной из ключевых причин катастрофической потери поискового трафика. Дубли могут возникать в силу разных причин, допустим, в результате некачественной работы CMS движка или несознательного размещения ссылок посторонними лицами с других тематических площадок.
Очень часто копии информационных страниц могут появиться за счет ошибок оптимизатора, который занимается разработкой сетевым проектом. В случае при создании нового шаблона и тогда новые информационные страницы могут получить совершенно другой адрес.
Копии, это результат неправильного кода или погрешности веб-мастеров. Вообще, с дублями необходимо бороться, поскольку такие непростительные ошибки способны оказать негативное влияние на результат продвижения, на скорость индексации и на естественные пути развития сайта в целом.
При наличии дублирующего контента могут возникнуть следующие распространенные проблемы:
1. Ресурс понижается в индексе.
2. Может произойти замена целевой страницы.
3. Теряется прирост естественных ссылок.
У каждой поисковой системы свои критерии требований и если некоторые серверы относятся более или менее лояльно к таким погрешностям, другие более категоричны из-за борьбы с шаблонными методами построения внутренней структуры ресурса.
При любых обстоятельствах, лучше не рисковать, периодически тестировать свой носитель на наличие дублеров и при нахождении сразу устранять эти недоделки, поскольку последствия чреваты, в первую очередь это отображается на развитии сетевого проекта.
Существует некоторые универсальные методы, благодаря которым можно найти дублирующую информацию. Например, можно воспользоваться панелью Гугл — вебмастер и с помощью функционала провести тестирование внутренней структуры сайта.
К сожалению, таким методом не получится определить частичные дубли, имеющие уникальное содержание, но повторяющие заголовки, зато выявить в целом копии вполне допустимо.
Можно провести технический аудит сайта и использовать для поиска дублей программу Xenu Link Sleuth, это универсальная программа, которой в основном пользуются опытные оптимизаторы. Подобный инструмент наделен расширенным функционалом и помогает найти неуникальный тайтлы, картинки с отсутствующим атрибутом, неработающие ссылки, информационные страницы с внушительным уровнем вложенности.
Учитывая, что изначально эта программа разрабатывалась для усовершенствованного поиска битых и неработающих ссылок, с помощью этого полезного инструмента можно решать ряд других технических задач и убирать все слабые места.
И наконец, для поиска дублера можно воспользоваться поисковой выдачей, используя для этих целей специальный запрос: site:mysite.ru -site:mysite.ru/& Таким простым методом можно определить дублирующие страницы или частичные копии, которые не участвуют в поиске и мешают другим сетевым документам ранжироваться из основного индекса.