АРМАДА
Выход из content duplication гугла
Новая тема Написать ответ

dr.Greg
V.I.P.
Зарегистрирован: 29.07.2006
Сообщений: 2042
Обратиться по нику
# Добавлено:Вт Фев 20, 2007 2:06 pmДобавить в избранноеОтветить с цитатой
Статью Вацлава про выход из саплементала прочитал с удовольствием. Понятно что ссылки рулят и чем их больше на внутренние страницы тем выше шанс вылезти из сапли. Но если гугля положила все страницы под фильтр content duplication, несмотря на уникальность контента. Скорее всего только за наличие одинаковых элементов(меню и т.д.) на страницах. Как нужно действовать с такой проблемой?

Chin +
олорирропролл
Зарегистрирован: 29.01.2007
Сообщений: 2890
Обратиться по нику
# Добавлено:Вт Фев 20, 2007 2:09 pmОтветить с цитатой
Добавить жирных внешних ссылок на страницу.
ну и вот специальная подборка по этому вопросу http://chingiz.org/index.php?s=supplemental

Вацлав
Сетевой Гугляка
Зарегистрирован: 21.02.2006
Сообщений: 4965
Обратиться по нику
# Добавлено:Вт Фев 20, 2007 2:30 pmОтветить с цитатой
Не совсем так, Чин. Входящие ссылки, увы, не решают проблему "склейки" по duplicate. В данном случае, помогает скорее минимизация повторяющихся элементов и увеличение объемов текстового контента на конкретно взятой странице. Я вовсе не зря уже год как твержу всем, что пост должен содержать не менее 100-200 слов, чтобы страница отдельного поста не уходила в склейку.
Как рецепт:
На блогах, где у меня используется контент от партнерок (с их rss) я предпочитаю пихать в один пост сразу 3-5 постов (схожих) из чужой RSS, а не 1 к 1.
Второе пришествие Вацлава. Камингсуново.

Li-Hua
Чинамэн
Зарегистрирован: 25.12.2005
Сообщений: 11544
Обратиться по нику
# Добавлено:Вт Фев 20, 2007 8:11 pmОтветить с цитатой
dr.Greg писал(а):
Скорее всего только за наличие одинаковых элементов(меню и т.д.) на страницах. Как нужно действовать с такой проблемой?




Так убери(измени) эти элементы, тута третьего не дано КМК, либо элементы сносим, либо контент увеличиваем.

Chin +
олорирропролл
Зарегистрирован: 29.01.2007
Сообщений: 2890
Обратиться по нику
# Добавлено:Ср Фев 21, 2007 12:23 amОтветить с цитатой
Вацлав, я с тобой кардинально не согласен. Чем меньше текста, тем сложнее его в дубли по текстовым признакам положить (в разумных пределах, разумеется).
Повторяющиеся элементы это вообще из области мистики Wink Не влияют они. Вообще. Это конечно лично мое имхо и я его никому не навязываю. Чего то вообще как-то все странно прицепились к меню, например. Люди, глаза разуйте, в гугле куча не склееных сайтов у которых дохуа повторяющихся элеметнов на страницах. И ничего, живут и трафик собирают.

Суплементал - это болезнь:
1) ухода в дубли по текстовой составляющей (либо надо меньше текста, либо миксить по другому). Не так давно очень много инфы по текстовым алгоритмам обсуждалось на умаксе, и чуть меньше - на клике. Там очень не мало пользительной инфы по возможным алгоритмам Wink
2) недостатка ссылочного ранжирования

Если не можете рулить обоими факторами - ну хоть одним попробуйте порулить. Только лучше сразу, потому как если попал в яму - вылезти можно только несоизмеримыми усилиями, проще сразу процесс рулить.
А если уже ушла страница в сапы - меняй там что хочешь, хоть "i love Серёга Брин" пиши, пока ссылками не накормишь - сдвигов можешь пол года ждать.
Li-Hua, да как раз третье и дано и им и надо рулить чтобы процесс пошел - это ссылочное ранжирование Smile

Li-Hua
Чинамэн
Зарегистрирован: 25.12.2005
Сообщений: 11544
Обратиться по нику
# Добавлено:Ср Фев 21, 2007 7:45 pmОтветить с цитатой
Не, я неудачно выразился, в данной проблеме если принимать во внимание что у человека нет возможности проставиться жирными бэками, то ему остается рулить контентом: убирать повторяющиеся элементы или работать с текстом. Но мое имхо в том что все еще в данный момент 90% успеха дают ссылки мать их.

Раз пошла такая пьянка, вобпе я бы все СЕО разделил на два момента которые обязательно надо соблюдать, на остальное можно забить хуй очень глубоко.
1. Ссылки, дохуя ссылок, и постоянный рост их числа.
2. Уникальный контент, так как фильтр за дубли реально работает.

Li-Hua
Чинамэн
Зарегистрирован: 25.12.2005
Сообщений: 11544
Обратиться по нику
# Добавлено:Ср Фев 21, 2007 7:46 pmОтветить с цитатой
Chin писал(а):
Чем меньше текста, тем сложнее его в дубли по текстовым признакам положить (в разумных пределах, разумеется).




Эту часть я не понял, обсудим?

Chin +
олорирропролл
Зарегистрирован: 29.01.2007
Сообщений: 2890
Обратиться по нику
# Добавлено:Чт Фев 22, 2007 6:02 amОтветить с цитатой
Понимаешь в чем дело, можно в течение года каждый день контент менять, но гугль на него не будет реагировать. Из за недостатка веса. Я в суплементалах потерял не одну сотню тысяч страниц дорвейных Smile У меня очень многое попадает не в бан а в сапплименталы, так что меня этот вопрос сильно интересует уже длительное время и есть некоторые наблюдения Smile

Цитата:
Эту часть я не понял, обсудим?


Блин, мне лень очень много писать, скажу вкратце - любой текст можно представить сочетаниями типа "слово-слово", разбив на такие двойки (тройки и т.д.)
Чем больше текста, тем больше "двоек-троек..." которые могут совпасть с другими двойками-тройками. Путано наверное объясняю, поищи на умаксфоруме в топиках про фрейз-ранк, там разжовано очень четко почему меньшее кол-во текста сложнее в саппы загнать (в разумных пределах конечно). И поэтому же примитивный марков мало полезен, особенно на небольшом входящем тексте и сравнительно большом "выходящем". Грубо говоря из метра текста можно нагенерить 10 000 доров по 10 килобайт текста (но лучше - меньше текста), а вот из 50к текста сделать 100 доров по 10 к уже нереально. Точнее реально, но результат будет плохой.

Li-Hua
Чинамэн
Зарегистрирован: 25.12.2005
Сообщений: 11544
Обратиться по нику
# Добавлено:Пт Фев 23, 2007 1:15 amОтветить с цитатой
идея понятна, сенк

CountZero
Профессионал
Зарегистрирован: 04.01.2006
Сообщений: 541
Обратиться по нику
# Добавлено:Пт Фев 23, 2007 1:39 amОтветить с цитатой
вот здесь алгоритм описан более подробно:
http://www.cs.umd.edu/~pugh/google/Duplicates.pdf
еще маны:
http://www.google.com/search?hl=en&ie=UTF-8&oe=UTF-8&num=100&q=duplicates%20shingles%20filetype%3Apdf
только у меня есть ощущение, что гугл если и применяет этот метод, то редко - например, только для популярных запросов или только для новостей. во-первых, подобные методы потребуют очень больших вычислительных мощностей, во-вторых, линк-листы очень часто застревают в сапплементале именно из-за того, что на них стоят ссылки с других сайтов только на морду или на категории, а заголовки страниц на всей категории одинаковые... в то же время, дески для фришников там уникальны...
Профессиональная покерная школа
Новая тема Написать ответ    ГЛАВНАЯ ~ ПОИСКОВЫЕ СИСТЕМЫ

Перейти:  





Генеральный спонсор



Партнеры