Google: объемы сканирования зависят от скорости доступа к сайту

​Американская поисковая система раскрыла взаимосвязь между количеством контента, который способен просканировать Гуглбот, и скоростью загрузки сайта, на страницах которого этот контент размещен.

В своих размышлениях Джон Мюллер в очередной раз подтвердил для кого-то вполне известную истину – чем быстрее ваш сервер отвечает на запрос GoogleBot, тем быстрее поисковый робот просканирует сайт. Причем в этом случае скорость имеет самое непосредственное отношение и к объему сканирования:

«… в целях ускорения сканирования сайта я бы побеспокоился о максимально быстром ответе сервера. Чем выше скорость сканирования с нашей стороны, тем больше контента в итоге мы способны просканировать в принципе».

Из этого следует, что скорость сайта (достигаемая быстротой серверов или грамотной оптимизацией кода) является важной не только для ваших конечных посетителей, но и для процесса сканирования его страниц со стороны Гуглбота. Обратная же сторона медали заключается в том, что медлительность ответа ресурса поисковому роботу Google ограничивает его передвижение по сайту. Со всеми вытекающими последствиями для поисковой оптимизации...

Напомним, вчера мы писали о том, что боты Google научены распознавать не все типы ссылок.

Комментарии (3)
  6 дней назад в 07:03
Серьёзно? Для вас новость понятие Краулинговый бюджет? :)
  6 дней назад в 08:56
Тут нужно уточнить - речь идёт о максимальном возможном объёме сканирования. Если сайт быстро отвечает, но у Гугла есть "особое мнение" на его счёт, то он может заходить на сайт крайне редко, даже при достаточном количестве контента.
  5 дней назад в 08:05
Краулинговый бюджет - это по другой теме. Тут говорится о технической стороне парсинга сайтов никак не связанной с контентом сайта.

Подписка