WordPress и replytocom дублированный контент

WordPress и replytocom дублированный контент

Недавно я заметил на сайте большое количество страниц, проиндексированных параметром «replytocom», эти подстраницы были включены в результаты поиска. Странно, что тег rel = "canonical" долгое время был в блоге, чтобы предотвратить такие события. Когда я сталкивался с предметом, я встретил очень интересные выводы, которые я описываю в этой записи. В то же время я представляю способ решения проблемы индексации replytocom в комментариях.

Проблема с дублирующимся содержимым известна почти всем, кто столкнулся с проблемами оптимизации и позиционирования. Чрезмерное дублирование контента может привести к тому, что ваш сайт будет понижен или даже исключен из результатов поиска. Поэтому очень важно отслеживать наш сайт с точки зрения дублирования контента, или, другими словами, избыточной индексации одних и тех же URL-адресов (с учетом различных форм / параметров).

Мы можем использовать отличный инструмент, предоставляемый Google — Инструменты для веб-мастеров для борьбы с дублирующимся контентом. Мы найдем в нем множество ценных советов, которые помогут диагностировать и быстро реагировать на проблему.

В разделе «Диагностика => HTML-предложения» имеется подробный список ошибок. Если в списке есть адреса с двойными заголовками или мета-описаниями, необходимо более тщательно изучить ситуацию, проверить, какие из них задействованы в ней.

В этом примере ясно, что в индексе Google есть страницы и в основном URL-адреса, содержащие одни и те же заголовки и описания. Вы также можете увидеть, что все адреса, используемые для ответов на комментарии, были проиндексированы и видны в SERP как отдельные подстраницы с дублирующимся контентом. В такой ситуации вы должны как можно скорее заблокировать возможность индексирования ссылок replytocom. Как это сделать?

Согласно общедоступной информации, изменение файла robots.txt и добавление записи Disallow: *? Replytocom к ней должно сделать трюк. Однако этот файл является лишь подсказкой для ботов, а не строгой детерминантой. Другими словами, robots.txt не всегда соблюдается. Вышеуказанный метод недостаточен, поэтому я представлю еще один, который эффективно защитит нас от бессознательного дублирования контента.

В Центре веб-мастеров в разделе «Конфигурация сайта => Настройки => Обработка параметров» вы найдете список параметров.

Как оказалось, Google решает, что индексировать (по умолчанию: Оставить Google в покое). Хм … оставляя свободную руку на боту, может иметь плачевный эффект, поэтому вам нужно изменить настройки, а параметр replytocom изменит действие от значения по умолчанию до — Игнорировать. Чтобы сделать это, просто нажмите «Изменить» и укажите, что вам нужно, из раскрывающегося списка Конечно, любые изменения, которые должны иметь какой-либо эффект, должны быть сохранены. Выполнение этих рекомендаций должно эффективно устранять дублирование контента.

Так как насчет канонического тега? Похоже, что использование этого тега не мешает дублированию содержимого содержимого индекса (URL), оно указывает только на исходный источник документа.

Как это относится ко всей проблеме дублированного контента? В какой степени дублированные подстраницы, попавшие в индекс поисковой системы, вредят сайту? Может ли канонический тег автоматически не удалять эти типы адресов из индекса? Является ли Google вредным для владельцев веб-сайтов по умолчанию, «Оставьте решение Google»? Я не могу ответить на эти и другие вопросы прямо сейчас, время покажет. Если у вас есть интересные наблюдения, я приглашаю вас на обсуждение.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *