АРМАДА
Дубли страниц в Яндексе
Новая тема Написать ответ

Баяс
Свой
Зарегистрирован: 25.08.2014
Сообщений: 35
Обратиться по нику
# Добавлено:Ср Фев 11, 2015 8:42 amДобавить в избранноеОтветить с цитатой
Уважаемые знатоки! Помогите советом! Яндекс неожиданно проиндексировал огромное количество дублей только одной моей статьи. Как их закрыть в роботсе или другим образом? Все дубли с цифрами на конце. Вот такого вида:


Как вывести популярные статьи в сайдбар | Блог Баяса Батуева - Part 760
bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html/760
Как вывести популярные статьи в сайдбар | Блог Баяса Батуева - Part 771
bbseo.ru/kak-vyvesti-populyarnye-stati-v-sajdbar.html/771

blogmatic
V.I.P.
Зарегистрирован: 10.08.2010
Сообщений: 4775
Обратиться по нику
# Добавлено:Ср Фев 11, 2015 3:38 pmОтветить с цитатой
Удалить дубли можно несколькими способами:

- вручную (при малом числе)
- склеивание страниц-дублей с помощью 301 редиректа
- с помощью тега canonical (всем копиям присваивается атрибут rel=”canonical”)
- закрыть доступ поисковым роботам с помощью robots.txt

Баяс
Свой
Зарегистрирован: 25.08.2014
Сообщений: 35
Обратиться по нику
# Добавлено:Ср Фев 11, 2015 7:58 pmОтветить с цитатой
-вручную удалять не советуют ( чревато )
-редирект тоже не подходит, слишком много дублей
-каноникал присвоен ( сео плагин )
Интересует именно, как закрыть в роботсе, что именно прописать туда. И еще один момент: если избавиться от rel=’shortlink’, поможет ли это? Ведь именно этот атрибут формирует дубли с цифрами на конце?

blogmatic
V.I.P.
Зарегистрирован: 10.08.2010
Сообщений: 4775
Обратиться по нику
# Добавлено:Чт Фев 12, 2015 3:19 pmОтветить с цитатой
Цитата:
Интересует именно, как закрыть в роботсе, что именно прописать туда.



Подробнее об этом можно прочитать здесь: Руководство по использованию robots.txt
Новая тема Написать ответ    ГЛАВНАЯ ~ ПОИСКОВЫЕ СИСТЕМЫ

Перейти:  





Генеральный спонсор



Партнеры