АРМАДА
Чему Яндекс и Google учат своих поисковых роботов?
Новая тема Написать ответ

Miss Content
V.I.P.
Зарегистрирован: 05.03.2010
Сообщений: 7881
Обратиться по нику
# Добавлено:Ср Ноя 11, 2015 1:44 pmДобавить в избранноеОтветить с цитатой
Что такое поисковый робот? Это ключевой элемент практически любого современного поисковика, исключая разве что все менее распространенные мета-системы и системы, управляемые человеком (то есть каталоги ресурсов). Боты автоматически перебирают страницы отдельных сайтов для занесения полезной информации о них в индекс. От эффективности этих программных модулей и поддерживаемых ими технологий зачастую зависит полнота представления контента в поисковой выдаче. Ведь если бот плохо переваривает, к примеру, CSS, соответствующий контент зачастую попросту ускользает от его внимания. Как следствие, создателям сайтов и вебмастерам приходится медлить с внедрением новых технологий, дожидаясь момента, когда их начнут поддерживать роботы.

Отличным примером в данном случае является передовой протокол передачи гипертекста HTTP/2, работа над которым завершилась в феврале 2015 года. Его внедрение сулит снижение технического трафика, нагрузки на серверы и многие другие бонусы. Поддержкой HTTP/2 уже могут похвастать практически все популярные браузеры вроде Chrome, Edge и Firefox. Вот только вебмастерам от этого не легче.

Есть одна проблема: боты Google пока не научились индексировать страницы, доступные только через HTTP/2. Представитель Корпорации добра Джон Мюллер в ходе недавней открытой веб-конференции для вебмастеров заявил, что о проблеме известно, и она решается (видео выше с третьей минуты). Исправить баг обвешают к концу года текущего или в начале следующего.Не отстает от заокеанского конкурента и отечественный Яндекс – как в плане наличия проблем в работе ботов, так и с точки зрения желания решать их, а не "играть в молчанку" на фоне критики со стороны вебмастеров.

Через свой официальный блог лидер рынка поисковых систем Рунета сообщил , что роботы Яндекса начали учитывать JavaScripts и CSS при сканировании сайтов для сбора большего количества полезной информации. Отмечается, что теперь боты смогут "видеть" содержимое сканируемых сайтов в том виде, в каком контент отображается в современных браузерах. Не исключено, что появление в индексе ранее неиспользуемого Яндексом контента положительно повлияет на ранжирование определенных сайтов в выдаче.

На данном этапе компания проводит тестирование нововведений, причем испытания охватывают лишь небольшое число сайтов. Но со временем охват будет расширяться. Яндекс рекомендует вебмастерам открыть файлы JavaScripts и CSS для индексации своим ботам через внесение соответствующих правок в robots.txt.
Место для Вашей рекламы!
Новая тема Написать ответ    ГЛАВНАЯ ~ НОВОСТИ ИНТЕРНЕТА

Перейти:  





Генеральный спонсор



Партнеры