АРМАДА
Статья! Как я вывел сайт из-под ручного фильтра Гугла.
Новая тема Написать ответ

Miss Content
V.I.P.
Зарегистрирован: 05.03.2010
Сообщений: 7881
Обратиться по нику
# Добавлено:Ср Май 22, 2013 8:24 amДобавить в избранноеОтветить с цитатой
Ни для кого не секрет, что в компании Гугл трудится много людей, которые в ручную проверяют поисковую выдачу и сайты, которые в ней находятся. Существуют определенные правила, которым должен следовать владелец сайта. Асессоры Гугла следят за их выполнение и вручную банят сайты, которые нарушают эти правила.

Если однажды вы не находите свой сайт в выдаче по нужным ключевым словам и нет никаких заявления о новых апдейтах Панды или Пингвина, то ваш сайт определенно попал под ручной фильтр. Что произошло? Очевидно, модератор Гугла наткнулся на ваш сайт и подумал «Еще один спамный сайт, барыжащий ссылками. Отправляйся в бан!».



Недавно ко мне обратились за консультацией по поводу одного сайта. Данные по SEOPanel показали следующее:




Меня смутили цифры в в четвертой, пятой и шестой колонке, в первой и последней строке (внимание: ключевые слова скрыты по соображениям безопасности): сайт абсолютно не ранжировался в Гугле, но занимал хорошие позиции в других поисковых системах (Яху и Бинг, для примера). И такая картина продолжалась на протяжении 8 месяцев!

Совет: ручной фильтр можно заподозрить, если вы наблюдаете подобную картину на протяжении 6-8 месяцев. Т.е. сайт хорошо ранжируется во всех поисковых системах кроме Гугла.

Шаг 1. Находим плохие ссылки.

Открываем Webmaster Tools и просматриваем обратные ссылки. Этот этап был очень трудоемкими, поэтому я решил сгруппировать обратные ссылки следующим образом:

    - Цитирование сайта на блогах (некоторые из них были хорошие, некоторые откровенные ГС).
    - Закладки (за небольшим исключением, все они оказались качественными).
    - Партнерские обратные ссылки
    - Остальные ссылки (поставленные недавно и не рассматриваемые в этом анализе).


Шаг 2. Построение обратных ссылок из закладок.

После мониторинга существующих обратных ссылок, я решил увеличить количество хороших (частота: 6-8 в день, продолжительностью около двух месяцев), используя:

    - Продвижение ссылок на форумах IT тематики (первый этап — создание аккаунта и общение с комьюнити, второй этап — продвижение бренда).
    - Новые закладки (социальные новости, социальные сети).
    - Гостевой блогинг.
    - Отдельные каталоги статей с качественным контентом (принадлежащие коллегам или старым друзьям).


Шаг 3. Отрекаемся от плохих ссылок и пишем Гуглу.

В конце концов я нашел причину фильтра — просматривая ссылки с * blogspot.it я обнаружил на Blogger целую кучу копипастных статей с идентичными анкорами и одинаковыми ключевыми словами, за которые нас и наказали. Это была работа предыдущего сеошника и мы до сих пор ее расхлебывали.

Для нейтрализации эффекта плохих ссылок я использовал Google disavow tool. К таким ссылкам я отнес:

    - Обратные ссылки бесполезные для пользователей (за исключение закладок вроде Digg, Slashdot и т.п.).
    - Обратные ссылки не связанные с контентом сайта.


После этого, я обратился с письмом в Гугл. Вот примерная схема письма:

    Представление (я новый SEO консультант...);
    Бла-бла-бла про анализ ссылок;
    Примеры плохих ссылок. (в данном случае - *.blogspot.it);
    Соображения по поводу возможных причин (плохая работа предыдущего сеошника)




Письмо было послано 31 января. Ответ я получил 22 февраля.

Шаг 4. Внутренняя оптимизация.

Ожидая ответа Гугла я занялся контентом сайта. Многие вебмастера недооценивают его важность, ограничиваясь заголовками/описаниями. Запомните одну вещь - мета-описания не являются основной целью SEO по одной простой причине: они зависят от технологий Гугла.

Там любят создавать описания самостоятельно, смешивая, в лучшем случае:

    - Значения запроса (синонимы и т.д.);
    - Содержание страницы, соответствующее запросу;
    - Мета-описания, отвечающих запросу.


Так что, не слишком заморачивайтесь по поводу последних. Лучше, сосредоточьтесь на простых принципах, которых я сам придерживаюсь при работе с сайтами.

1. Создавайте простые заголовки (описывающие 1 страницу).
2. Описания максимум 1-2 предложения.
3. Сделайте рерайт всех продуктовых страниц или, по крайней мере, наиболее посещаемых.
4. Избегайте использования в заголовке страницы названия сайта (если только это не домашняя страница), особенно если речь идет об оптимизации блога.
5. Убедитесь, что заголовки не содержат ключевых слов (повторение n-раз ключевого слова — это не оптимизация).

Шаг 5. Выход из под фильтра!

Через 20 дней после подачи заявки на пересмотр, я получил ответ: «Мы получили ваш запрос на пересмотр и он был одобрен. Ручной анти спам фильтр был снят, возможно потребуется несколько недель для восстановление позиций. Благодарим за помощь в улучшении поисковой выдачи.



Можно выдохнуть! Наконец моя борьба с Гуглом закончена. Надеюсь, вы оцените мой небольшой вклад в копилку SEO знаний.

Оригинал статьи на английском языке: http://www.searchenginejournal.com/escape-from-google-manual-penalties/62723/
Место для Вашей рекламы!

seogrot
Свой
Зарегистрирован: 20.11.2010
Сообщений: 86
Обратиться по нику
# Добавлено:Ср Май 22, 2013 12:06 pmОтветить с цитатой
Неужели гугл начал отвечать на письма, попробовать что-ли и себе с одним из зафильтрованных сайтов эксперимент провести.
Лучший хостинг для WordPress

Coooler
V.I.P.
Зарегистрирован: 21.06.2010
Сообщений: 4368
Обратиться по нику
# Добавлено:Ср Май 22, 2013 12:22 pmОтветить с цитатой
А по каким признакам можно отличить ручной фильтр от попадания под алгоритм?

Miss Content
V.I.P.
Зарегистрирован: 05.03.2010
Сообщений: 7881
Обратиться по нику
# Добавлено:Пт Май 24, 2013 10:29 amОтветить с цитатой
Цитата:
А по каким признакам можно отличить ручной фильтр от попадания под алгоритм?


На Сеомозе был очень полезный пост на эту тему:http://www.seomoz.org/blog/the-difference-between-penguin-and-an-unnatural-links-penalty-and-some-info-on-panda-too
Место для Вашей рекламы!

Doc
V.I.P.
Зарегистрирован: 31.03.2010
Сообщений: 4909
Обратиться по нику
# Добавлено:Пн Май 27, 2013 7:45 amОтветить с цитатой
Модераторы Гугла чрезвычайно придирчивы, по причине того, что если из выдачи убрать хороший сайт, то на его место поднимется другой. А если в топе оставить ГС, то это сразу испортит выдачу.
Новая тема Написать ответ    ГЛАВНАЯ ~ ПОИСКОВЫЕ СИСТЕМЫ

Перейти:  





Генеральный спонсор



Партнеры