SEO Сообщество: Спрашивайте и помогайте

Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.

Q&A SEO

Проиндексировано, несмотря на блокировку в файле robots.txt

artur ivanov artur ivanov  
0
  06.01.2019 02:30       3 671    
Проиндексировано, несмотря на блокировку в файле robots.txt

У каждого товара на сайте есть страницы покупки, назовём её site.ru/buy/tovar2
Гугл проиндексировал их,  хотя в роботс тхт сказано не надо.  Что делать? 

Ответы на пост (9) Написать ответ
TAPAKAH TAPAKAH
45
06.01.2019 02:34
Проиндексировано, несмотря на блокировку в файле robots.txt

Странная вещь, потому что при нажатии гугл показывает список страниц.. которые никогда не блокировались в robots.txt, там почти все страницы сайта. Что делать?

Так проиндексировалось при запрете в robots.txt или наоборот не проиндексировалось при отсутствии запрета в robots.txt??? Правильно задавайте вопрос.
0
vituson vituson
2363
06.01.2019 07:50
Если есть возможность, нужно вставить метатеги - фоллоу, ноиндекс. Так будет надежнее.
0
v3663 v3663
399
06.01.2019 09:34
Это невероятно. Гугл никогда не лез в закрытые роботсом места. Таким образом я всегда надёжно закрывал js-код от простого просмотра Гуглом. И выводил на странице всё что хотел. Никаких нареканий не было.
Проверьте ещё раз - правильно ли закрыли страницы в роботсе.
0
vklimin vklimin
480
06.01.2019 10:15
Есть такая штука у Гугла, жутко бесит. Где-то в хелпах нашёл официальный комментарий к ситуации - "Если на страницу ссылается что-то важное, то эта страница всё же может быть проиндексирована, не смотря на запрет в файле robots.txt" (писал на память, а идеальную точно не ручаюсь).
0
sansan sansan
1680
06.01.2019 11:44
Проверьте страницы в google вебмастер инструментом проверки robots.txt
Не замечал, чтобы google "перетрудился" и индексировал "закрытое от индексации".

1/ Проверьте robots.txt, правильность составления.
2/ Возможно, на сайте стоит какой-то плагин, блокирующий "корневой" роботс и реализующий - свой собственый.
3/ Возможно, вышкеназванные страницы были недавно "закрыты" и google не успел выполнить переобход и исключить их из поиска. В кэше они будут относительно долго "торчать".
4/ проверьте sitemap, ненужные страницы стоит из карты - удалить.
1
vklimin vklimin
480
06.01.2019 12:42
Читать всем.

Файл robots.txt сообщает поисковым роботам, какие страницы или файлы на вашем сайте можно или нельзя обрабатывать. Эта функция позволяет ограничить количество запросов, которые получает ваш веб-сервер, и снизить нагрузку на него. Она _не предназначена_ для того, _чтобы запрещать показ_ веб-страниц в результатах поиска Google. Если вы не хотите, чтобы какие-либо материалы с вашего сайта были представлены в Google, используйте теги или директивы noindex.

https://support.google.com/webmasters/answer/6062608?hl=ru
1
vklimin vklimin
480
06.01.2019 12:50
Фактически sitemap.xml и ссылки имеют бОльший вес при принятии решения об индексации, чем robots.txt
0
Sud3n0 Sud3n0
30
06.01.2019 17:04
Та же проблема. Закрыто в robots.txt, в sitemap нету ничего. noindex и nofollow проставлены правильно.
0
YaBlogo YaBlogo
0
06.01.2019 22:34
Возможно гугл проиндексировал до установки запрета, а теперь когда запрет стоит робот не может зайти и страницы в поиске просто пока не выкинет.
0