Published by: 0

Дублированный контент — одна из самых больших проблем для оптимизации сайта, а также и вообще для поисковых систем. Сейчас не будем касаться такой обширной проблемы, как дублированный контент на разных сайтах (а дублированным он может оказаться не обязательно из-за воровства контента, а, например, из-за того, что описание официальное описание одной и той же модели телефона размещено на 1000 сайтов). Рассмотрим вопрос дублирования контента в рамках одного конкретно сайта.

Пути возникновения дублированного контента на сайте — неисчислимы. Могут быть страницы для печати и просто страницы, может один и тот же текст «о компании» быть вообще на каждой странице, описание одного и того же товара можно найти в разных разделах каталога (взять даже блог, который вы сейчас читаете — дублированного контента масса: анонсы записей на главной странице, потом анонсы в разделах блога и т.д.) Все вышеперечисленные примеры — дублированный контент. Бороться с ним не всегда бывает нужно. Поисковые системы уже приспособились к тому, что сайты имеют сложную структуру, и не считают дублированный контент этаким криминалом. Но бывают случаи, когда из-за того, что на страницах одинаковый контент, в поисковую выдачу попадает «неправильная страница». Вот тут и нужно бороться с одинаковым содержание страниц, чтобы вывести «правильную» и низвергнуть «неправильную» страницу.

Вот некоторые простые приемы, которые помогут устранить проблему дублирования контента:

  • 301 редирект. Все банально просто. Если страница не нужна и содержит дублированный контент, то ставим 301 редирект на нужную страницу. Данный вариант не всем подходит, так как обычно страница, содержащая дублированный контент, нужна сайту, и убрать её нет никакой возможности. Поэтому переходим ко второму варианту.
  • Тег canonical. Все также довольно просто. В Head сайта прописывается специальный тег canonical, в котором указана страница, которая должна быть в индексе вместо данной, т.е. оригинал вместо копии. Вот пример использования данного тега:
  •  
  • Файл robots.txt — запрещаем поисковым паукам залазить на страницы-копии.
  • Используем тег robots NoIndex — указание паука не индексировать данный страницы. Вообще говоря, лучше использовать тег canonical, но это только моё мнение.
  • И еще один момент — помечаем все ссылки на дублированные страницы тегом NoFollow — сохраняем PR для страницы оригинала.

—————————————————————————

http://www.karlovy-vary.ru/ — оптимальный вариант для поиска недвижимости в Чехи