Robots.txt - регулярные выражения
Добрый день.
У меня в магазине присутствует непонятные страницы с сортировкой товаров, хотя страница остается та же самая, а этом мне создает дубли контента... например:
mysite.com/category/subcategory/sort1
mysite.com/category/subcategory/sort2
mysite.com/category/subcategory/sort3
Чтобы закрыть эти sort'ы, правильна ли будет конструкция
Disallow: */sort* ?
Заранее спасибо!
Это перекроет доступ всем страницам, содержащим "sort" (начинающимся на "sort...").
Убедитесь в том, что нужные страницы не содержат этих символов.
В любом случае, Вы можете посмотреть правильность на странице вебмастера Гугла (у Яндекса также есть)
https://www.google.com/webmasters/tools/robots-testing-tool
Проверил, все точно так, как и было нужно.
всему контенту и всем папкам, которые лежат в папке subcategory)
Disallow: /subcategory* (то же самое)
Disallow: /sort*$ (запрещает sort с разными окончаниями )
Disallow: /sort$ (запрещает только sort)