АРМАДА
WP и дубль морды, SEO pack стоит
Новая тема Написать ответ Advanced Hosters - профессиональный хостинг

Konkoff
Свой
Зарегистрирован: 01.10.2007
Сообщений: 71
Обратиться по нику
# Добавлено:Ср Окт 01, 2008 9:48 pmДобавить в избранноеОтветить с цитатой
Сабж.
Создал сайт на WP статичный (WP Sticky прибил статью на морду), залил SEO, на рубрики+каталоги+теги поставил nofollow для роботов чтобы избавиться от дублей.

НО!!! На морде статья сидит для Гугли под 2-мя урлами:
http://сайт.ру
http://сайт.ру/статья-на-главной/

как бы мне избавиться от http://сайт.ру/статья-на-главной/ ???
http://jurists.moscow

Konkoff
Свой
Зарегистрирован: 01.10.2007
Сообщений: 71
Обратиться по нику
# Добавлено:Ср Окт 01, 2008 9:51 pmОтветить с цитатой
Если вколочу в robots
Disallow: /статья-на-главной/

это же будет не то ведь?
http://jurists.moscow

Лена
Гуру
Зарегистрирован: 19.10.2005
Сообщений: 1203
Обратиться по нику
# Добавлено:Ср Окт 01, 2008 11:45 pmОтветить с цитатой
Как раз в robots.txt его проще всего (и надежнее) вырубить. Только эту тему почитай сначала: http://www.armadaboard.com/viewtopic.php?t=20190 - чтобы у тебя не случилось подобное. Или у тебя там не в формате /?p=11 , а в формате /title-of-article/ ?
В общем выруби его так. Это закроет от индексации именно эту страницу, которая висит на главной, прикленная с помощью WP Sticky.

Konkoff
Свой
Зарегистрирован: 01.10.2007
Сообщений: 71
Обратиться по нику
# Добавлено:Ср Окт 01, 2008 11:59 pmОтветить с цитатой
Да да, в формате /postname/ у меня,
я прочитал тот топег, вставил в роботс (в том числе)
Disallow: /postname/

но топик тот меня децл смутил...
Для гуглбота отдельно чтоль правила прописывать надо?
http://jurists.moscow

Лена
Гуру
Зарегистрирован: 19.10.2005
Сообщений: 1203
Обратиться по нику
# Добавлено:Чт Окт 02, 2008 12:04 amОтветить с цитатой
Да. Вот почитай - самое полезное, от самого гугла:
Как заблокировать или разрешить доступ роботу Googlebot?
Блокировка и удаление страниц с помощью файла robots.txt
Как предотвратить индексирование или удаление моего содержания из индекса Google?
Предотвращение сканирования или удаление сохраненных в кэше страниц

Konkoff
Свой
Зарегистрирован: 01.10.2007
Сообщений: 71
Обратиться по нику
# Добавлено:Чт Окт 02, 2008 12:18 amОтветить с цитатой
Спасибо за ссылки, узнал некоторые полезности про сниппеты,
но я имел ввиду про отдельные правила для гуглбота, как в том топике последний человек запостил.
то есть делаем так:

User-agent: *
Disallow: /lemurs
User-agent: Googlebot
Disallow: /lemurs

или всё же он "прогнал" r5 и хватит только

User-agent: *
Disallow: /lemurs
http://jurists.moscow
Новая тема Написать ответ    ГЛАВНАЯ ~ ТЕХНИЧЕСКИЕ ВОПРОСЫ

Перейти:  





Генеральный спонсор



Партнеры