schel4koff.ru

Компьютер — интернет — сайтостроение — SEO — монетизация

Дублированный контент на сайте

    Дублирующий контент является одной из ключевых причин катастрофической потери поискового трафика. Дубли могут возникать в силу разных причин, допустим, в результате некачественной работы CMS движка или несознательного размещения ссылок посторонними лицами с других тематических площадок.

Очень часто копии информационных страниц могут появиться за счет ошибок оптимизатора, который занимается разработкой сетевым проектом. В случае при создании нового шаблона и тогда новые информационные страницы могут получить совершенно другой адрес.

Копии, это результат неправильного кода или погрешности веб-мастеров. Вообще, с дублями необходимо бороться, поскольку такие непростительные ошибки способны оказать негативное влияние на результат продвижения, на скорость индексации и на естественные пути развития сайта в целом.

При наличии дублирующего контента могут возникнуть следующие распространенные проблемы:

1. Ресурс понижается в индексе.
2. Может произойти замена целевой страницы.
3. Теряется прирост естественных ссылок.

У каждой поисковой системы свои критерии требований и если некоторые серверы относятся более или менее лояльно к таким погрешностям, другие более категоричны из-за борьбы с шаблонными методами построения внутренней структуры ресурса.

При любых обстоятельствах, лучше не рисковать, периодически тестировать свой носитель на наличие дублеров и при нахождении сразу устранять эти недоделки, поскольку последствия чреваты, в первую очередь это отображается на развитии сетевого проекта.

Существует некоторые универсальные методы, благодаря которым можно найти дублирующую информацию. Например, можно воспользоваться панелью Гугл — вебмастер и с помощью функционала провести тестирование внутренней структуры сайта.

К сожалению, таким методом не получится определить частичные дубли, имеющие уникальное содержание, но повторяющие заголовки, зато выявить в целом копии вполне допустимо.

Можно провести технический аудит сайта и использовать для поиска дублей программу Xenu Link Sleuth, это универсальная программа, которой в основном пользуются опытные оптимизаторы. Подобный инструмент наделен расширенным функционалом и помогает найти неуникальный тайтлы, картинки с отсутствующим атрибутом, неработающие ссылки, информационные страницы с внушительным уровнем вложенности.

Учитывая, что изначально эта программа разрабатывалась для усовершенствованного поиска битых и неработающих ссылок, с помощью этого полезного инструмента можно решать ряд других технических задач и убирать все слабые места.

И наконец, для поиска дублера можно воспользоваться поисковой выдачей, используя для этих целей специальный запрос: site:mysite.ru -site:mysite.ru/& Таким простым методом можно определить дублирующие страницы или частичные копии, которые не участвуют в поиске и мешают другим сетевым документам ранжироваться из основного индекса.

Вы можете посмотреть так же записи

Где взять графический контент для сайта.
Увеличение посещаемости сайта
Как поднять тИЦ на 10 с помощью социальных закладок
Как правильно составить семантическое ядро
Поисковые системы начинают оценивать смысловую уникальность текста
Продвижение анкорами - составление анкоров
Устанавливаем виджет комментариев вконтакте на сайт
Добавяем сайт в RSS каталоги
Как пренести сайт на другой хостинг или домен -- пошаговая инструкция
SEO стихи
Советы по созданию 404-й страницы
Как узнать, что статью своровали и что делать

Автор

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Schel4koff.ru © Все права защищены 2014 г.
Для любых предложений по сайту: [email protected]