Дублирование контента: SEO методики, которые помогут его избежать

Уникальный, полезный и информативный контент поможет продвигать ваш сайт, личный бренд, товары и услуги. Одна ошибок и проблем, которые возникают в SEO и контент-маркетинге — дублирование контента. 

Почему это происходит, в чем вред и как найти дубли контент на сайте? Обо всем этом дальше в статье.

Тексты на вашем сайте должны быть уникальными не только в сравнении с другими ресурсами, но и при сравнении внутри ресурса. Чем вредят дубли контента внутри сайта  на разных URL? 

  1. Проблемы с индексацией страниц. Поисковые роботы тратят ресурс на индексирование сайта. Заметив похожий или одинаковый контент, они будут реже посещать сайт и проводить на нем меньше времени. Чем больше будет таких страниц, тем больше вероятность, что индексация сайта прекратится. 
  2. Риск того, что сайт попадет под фильтры. Поисковые системы в некоторых ситуациях пессимизируют сайт с дублями или полностью исключают его из выдачи за слабый и неуникальный контент. 
  3. Из-за возникающих дублей контента в выдаче может оказаться страница, которая не отвечает запросу. Это ухудшит показатели органического трафика, конверсии. В такой ситуации инвестиции в сайт не окупятся.

Также рекомендуем читать: Что такое клиентоориентированность? 

Дублированный контент, как его определяют с поисковики?

Теперь разберемся с тем, что такое неоригинальный контент и дубли в понимании Google и других поисковых систем. Ваши представления, конечно, могут отличаться, но именно Google диктует правила игры. 

Дублированным считают контент, который полностью скопирован с другого URL адреса. Google может посчитать дублированным почти идентичный контент (например, просто замена продукта, торговой марки или названия местоположения).

Простая замена нескольких слов не проблему с дублей URL и контента. Все это отражается на видимости сайта в поисковых системах. 

К дублям контента относят также повторяемые тексты на нескольких разных сайтах. К счастью, есть много способов избежать всех перечисленных проблем. 

В статье мы разберем несколько связанных вопросов: 

  • Влияние дублированного контента на оптимизацию и трафик. 
  • Как избежать появления дублей? 
  • Что делать, если контент скопировали без вашего ведома? 

Как дубли контента влияют на ваш сайт?

Страницы с дублированным контентом, могут привести к нескольким разветвлениям в результатах поиска Google и, иногда, даже к штрафам. Наиболее распространенные проблемы с дублированием контента включают:

  • Отображение нерелеватных страниц в поисковой выдаче
  • Ключевые для сайта страницы неожиданно плохо растут в поисковой выдаче или испытывают проблемы с индексацией.
  • Колебания или снижение основных показателей сайта (посещаемость, позиции в рейтинге или критерии E-A-T)
  • Другие неожиданные действия поисковых систем в результате запутанных сигналов.

Google всегда советовал веб-мастерам и создателям контента делать страницы в первую очередь для пользователей, а не для поисковых систем.

Для любого веб-мастера или SEO должно быть создание уникального контента, который принесет уникальную ценность пользователям. Но это не всегда просто. Из-за шаблонов контента, функций поиска, UTM-тегов, неправильной синдикации контента и других факторов возникает риск дублирования. 

Рекомендуем прочитать: SEO рекомендации для интернет-магазинов и маркетплейсов

Как предотвратить дублирование контента?

Существует множество различных методов и стратегий, чтобы избежать дублей контента на вашем сайте и не дать другим сайтам получить выгоду от копирования вашего контента:

  • Правильная таксономия (структура) сайта.
  • Канонические теги.
  • Мета-теги.
  • Обработка параметров.
  • Повторяющиеся URL и работа с ними.
  • Перенаправления.

Как предотвратить дублирование контента?

Существует множество различных методов и стратегий, чтобы избежать дублей контента на вашем сайте и не дать другим сайтам получить выгоду от копирования вашего контента:

  • Правильная таксономия (структура) сайта.
  • Канонические теги.
  • Мета-теги.
  • Обработка параметров.
  • Повторяющиеся URL и работа с ними.
  • Перенаправления.

Таксономия

Для начала проанализируйте таксономию вашего сайта. Любой документ со списком страниц, ключевыми словами, H1 и title будет отличным фундаментом для этой работы.  Организация вашего контента в тематические кластеры поможет разработать продуманную стратегию, ограничивающую дублирование.

Теги canonical

Наверное самый эффективный способ борьбы с дублированием контента на вашем собственном сайте будет тег canonical. 

Элемент rel = canonical — это фрагмент HTML-кода, который дает понять Google, что издатель владеет частью контента, даже если контент можно найти в другом месте. Эти теги указывают Google, какая версия страницы является «основной».

Каноникализацию используют для печатных и веб-версий контента, версий страниц для мобильных и настольных ПК или страниц с таргетингом на несколько местоположений. Его можно использовать для любых случаев, когда существуют повторяющиеся страницы, которые происходят от основной версии URL.

Есть два типа канонических тегов: те, которые указывают на страницу, и те, которые ведут на другие URL. Те, что указывают на другую страницу, сообщают поисковым системам, что другая версия страницы является «основной».

Ссылки на канонические элементы являются важной частью распознавания и устранения дублированного контента, а ссылающиеся на самих себя теги canonical практика, одобренная Google. 

Мета-теги

Еще один полезный технический элемент, на который следует обратить внимание при анализе риска дублирования контента на вашем сайте, — это мета-роботы и сигналы, которые вы в настоящее время отправляете поисковым системам со своих страниц.

Мета-теги для поисковых роботов полезны, если вы хотите исключить определенную страницу или страницы из индексации Google и предпочитаете, чтобы они не отображались в результатах поиска.

Добавляя метатег «noindex» в HTML-код страницы, вы фактически сообщаете Google, что не хотите, чтобы он отображался в поисковой выдаче. Этот метод предпочтительнее, чем закрытие от индексации через Robots.txt. Использование «noindex» позволяет блокировать определенную страницу или файл, тогда как Robots.txt закрывает от индексации большие разделы и группы файлов на сайте.

В большинстве случаев Google поймет эту директиву и должен исключить повторяющиеся страницы из поисковой выдачи.

Советуем прочитать: Показатель отказов на сайте

Обработка параметров URL

Параметры URL указывают, как поисковым роботам эффективно сканировать сайты. Параметры часто вызывают дублирование контента, поскольку их использование создает копии страницы. Например, если существует несколько разных страниц с описанием одного и того же продукта, Google сочтет это дублированным контентом.

Обработка и настройка параметров способствует более эффективному сканированию сайтов. Для крупных сайтов и сайтов со встроенной функцией поиска важно использовать обработку параметров через Google Search Console и Bing Webmaster Tools.

Указывая параметризованные страницы в соответствующем инструменте и давая сигнал Google, поисковой системе может быть ясно, что эти страницы не следует сканировать и какие действия предпринять, если есть URL с параметрами.

Дубликаты в URL

Некоторые структурные элементы URL-адреса могут вызывать проблемы с дублированием на веб-сайте. Часто они связаны с тем, как поисковые системы воспринимают URL-адреса. Если нет других инструкций, другой URL всегда будет означать другую страницу.

Нечеткость и неправильные сигналы могут вызвать колебания или снижение основных показателей сайта (трафик, позиции в рейтинге или критерии E-A-T). Параметры URL-адреса, вызванные функциями поиска, кодами отслеживания и другими сторонними элементами, могут привести к созданию нескольких версий страницы.

Частые причины дублирования URL-адресов включают: 

  • версии страниц HTTP и HTTPS,
  • www. и без www., 
  • адреса с косой чертой в конце и без.

Во втором и третьем случаях, вам необходимо определить, какую версию вы чаще всего используете на сайте, и придерживаться ее на всех страницах. Так вы избежите дублирования. После этого настройте переадресацию на версию страницы, которую необходимо проиндексировать. Например, mysite.com>www.mysite.com.

Помните и о том, что адреса с http не безопасны, поэтому нужно настроить редиректы с них на адреса с https. 



Редиректы

Настройка редиректов часто помогает устранить проблему дублей. Страницы, скопированные с другой, можно перенаправить на основную версию.

Если на вашем сайте есть страницы с большим объемом трафика или ссылочной ценностью, которые дублируются с другим URL, редиректы будут отличным вариантом решения. 

Используя редиректы для удаления дублированного контента, помните о двух правилах:

  •  всегда выполнять перенаправление на более эффективную страницу,
  •  если возможно, использовать redirect 301.

Что делать, если мой контент скопировали против моей воли?

Что делать, если ваш контент скопировали, а вы не использовали канонический тег, чтобы указать, что содержимое страницы оригинальное? Такие ситуации проще предотвратить. Как действовать?

  • Используйте Search Console, чтобы определить, насколько регулярно ваш сайт индексируется.
  • Свяжитесь с веб-мастером, ответственным за сайт, который скопировал ваш контент, и попросите оставить ссылку на вашу страницу или удалить контенте.
  • Используйте саморегулирующиеся канонические теги для всего создаваемого нового контента, чтобы гарантировать, что ваш контент будет распознан как «истинный источник» информации.

Выводы

Дублями называют страницы, содержимое которых совпадает полностью или частично. Обнаружить такие URL не всегда просто. Для этого приходится использовать инструменты технического аудита или даже вручную анализировать выдачу Google. 

Для обнаружения дублей можно использовать:

Дубли на сайте возникают из-за некачественного контента, непродуманной структуры сайта и различных технических проблем. 

Чтобы избежать дублей на сайте: 

  • используйте теги canonical и noindex;
  • уделите максимум внимания проработке семантики и структуры сайта;
  • отслеживайте индексацию страниц;
  • настройте 301 редирект на страницах с одинаковым содержимым. 

Сайт без дублей получит больше трафика и будет стабильно расти в выдаче. В следующих статьях мы расскажем детальнее о том, как использовать каждый из инструментов. 

Facebook Comments Box

Оставьте комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Top