Ограничение поисковых ботов
Сегодня мне заблокировали хостинг из за превышения CPU сервера!
Письмо от хостинга: "Здравствуйте!
К вашим сайтам поступает чрезмерное количество обращений от поисковых ботов рекомендуем добавить ограничение в robots.txt для всех сайтов на хостинге:
User-agent: *
Crawl-delay: 40
Значительное количество запросов приходит от Googlebot"
Отразится ли на трафике, ограничение поисковых ботов?
Спасибо!
Любой поисковый робот снижает нагрузку (обходит меньше), как только чувствует малейшие задержки в ответе, иначе многие сайты бы висели.
Таким фейковым превышением CPU славится Timeweb. Если у вас этот хостинг - бегите оттуда
а если без фанатизма и прописать например Crawl-delay: 10 ?
cайт с посещаемостью в 500 уник.\день работает на блоговом тарифе
https://support.google.com/webmasters/answer/48620?hl=ru
Везде пытаются впарить какую то дичь и побольше выманить денег.