Подскажите как правильно. Есть ссылки, по типу: www.site.ru/blabla/?table www.site.ru/blabla/?list www.site.ru/blabla/?apply Чтобы запретить table, list, apply, достаточно ли в роботс добавить Disallow: /*?
Спасибо за ответы. Сделал именно Disallow: /?*. Если прописать Disallow: /blabla/, то будет блокировка ссылок, в которых есть подобная последовательность, например, /blablanono также будет запрещено к индексации, а подобные ссылки есть.
Правило Disallow: /blabla/ не запретит ссылки вида: /blablanono А только каталог /blabla/. В кабинетах вебмастеров Яндекс и Гугл есть инструмент проверки файла роботс-тхт. Загрузите его и вставьте в форму проверки все интересующие ссылки. То есть увидите, как изменение роботса влияет на запрет индексации.
Закрывать страницы через в роботс не самый эффективный способ. Я бы посоветовал закрывать станицы метатегом robots noindex,nofollow в самый верх страницы head, подробнее читайте справки, которые дают поисковые системы и не изобретайте велосипед. Вот самая наглядная: https://yandex.ru/support/webmaster/controlling-robot/html.xml
Составлять правильный robots.txt - это изобретать велосипед? Расскажите об этом Гуглу и Яндексу, а то их представление о сайтостроении и индексации явно устарели.
Вот эту страницу по-вашему явно стоит удалить - https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml
Да вы хоть кому расскажите, ваш robots.txt давно никому не нужен, так же как keywords. Поисковые системы обращают внимание на них, но не всегда следуют инструкциям вашего текстового файла, а конкретный метатег в верней части сайта показывает роботу, суда не ходи, снег голова попадёт...
Робостс никто не отменял, просто я говорю как будет лучше. Давно доказанный факт, что правильный txt должен быть максимально коротким, робот должен иметь свободный и беспрепятственный доступ, а те страницы, которые вы хотите закрыть индексацией - закрывайте тегами непосредственно в head.
Развелось блин диванных войск, начитаются и спорят...
Disallow: /?* запретить все после /?
Disallow: /*? запретить все что между /?
Disallow: /blabla/
Вариант 2
Disallow: /?*
/blablanono
А только каталог /blabla/. В кабинетах вебмастеров Яндекс и Гугл есть инструмент проверки файла роботс-тхт. Загрузите его и вставьте в форму проверки все интересующие ссылки. То есть увидите, как изменение роботса влияет на запрет индексации.
Вот эту страницу по-вашему явно стоит удалить - https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml
Робостс никто не отменял, просто я говорю как будет лучше. Давно доказанный факт, что правильный txt должен быть максимально коротким, робот должен иметь свободный и беспрепятственный доступ, а те страницы, которые вы хотите закрыть индексацией - закрывайте тегами непосредственно в head.
Развелось блин диванных войск, начитаются и спорят...