Предупреждение google webmasters в ходе проверки файла robots.txt

intimvalentin intimvalentin   14.08.2018 20:46   440  
При проверке файла robots.txt  гугл  написал, что ошибок 0, и 4 предупреждения.
Выделены строки, начинающиеся с Crawl-Delay:...  
Нужно ли это исправлять? что с этим делать?
Весь файл robots.txt:
User-agent: *Disallow: /my/Crawl-delay: 3Sitemap: https://intimvalentin.ru/sitemap.1976346.xml.gz
User-Agent: YandexAllow: /Disallow: /my/Crawl-delay: 3Host: https://intimvalentin.ruSitemap: https://intimvalentin.ru/sitemap.1976346.xml.gz
User-agent: msnbotCrawl-delay: 10
User-agent: MJ12botCrawl-delay: 20
User-agent: AhrefsBotDisallow: /

Ответы на вопрос (5) Написать ответ
RAmops RAmops   15.08.2018 00:47
http://sildenafilneu.com viagra online https://viagrabez.com viagra ingredients http://viagraplc.com herbal viagra http://viagratph.com herbal viagra gnc http://cialisviu.com tadalafil generic
0
sungoldline sungoldline   15.08.2018 01:17
Во первых Crawl-Delay для google это пустой звук, он давно уже не поддерживает это. Во вторых, кто вас научил так ставить ограничение в роботсе?
0
sungoldline sungoldline   15.08.2018 01:20
Ну и если все понятно, все быстро ринулись за виагрой, по ссылке выше ))))
0
intimvalentin intimvalentin   15.08.2018 05:55
Я сам ничего не ставил, программисты составляли. а что за ограничения?
0

Войдите, чтобы написать ответ
Вход Регистрация