А зачем вам на сайте - метки - в принципе? Тема узко-специфичная. Всё нужное легко можно найти в каталоге товаров.
Лучше, имхо, вообще отключить этот скрипт.
При переходе по ссылке tag/метка - получим блог-выборку существующего на сайте контента, т. е. дубль. Как и "результаты поиска", как и "сортировка по фильтру". Блокировать/нет - решайте сами. В Сети много мнений, что "это всё фигня" :) На мой взгляд эти страницы - натуральный "мусор" для индекса и стоит его "закрыть" от инднексации. Например так:
Disallow: /*tag/
Поиск и фильтрация у вас у индексации уже "закрыты": Disallow: /*?
R слову: Директивы в вашем robots.txt
Disallow: /*?on_page=20
Disallow: /*?on_page=10
Disallow: /*?on_page=30
Disallow: /*?on_page=40
Disallow: /*?on_page=50
Disallow: /*?on_page=100
Заменяет одна:
Disallow: /*?
Она тоже прописана в файле.
Зачем дублировать директивы?.. Проверте в google вебмастер по вкладке: проверка robots.txt
Не за что.
Нормальный сайт. Немного "блеклый" на мой вкус (шрифт - мелковат/сероват). А в-целом - клиентам должно понравиться. И поисковикам :) Коротко и внятно.
если вам нужно "блокировать" от индекса в гугл какую либо директорию, то скрывайте её, у поисковиков есть стр. с описанием как это делается. Не ленитесь читайте.
1. Нас интересует именно индексация данных страниц. В роботсе выставляются условия индексирования не только для Гугла.
2. Зачем скрывать от пользователей? Суть тегов тогда вообще теряется. Можно и вовсе удалить.
Организовать генерацию тайтла и мета-описания под метки, хотя бы (шаблон с текстом, куда будут подставляться значения меток/тегов).
Делается он для добычи доп. трафика (если это возможно).
Данный метод не всегда подойдет, конечно. Тут уже нужно смотреть, рационально ли такое решение для данного сайта.
Если эти страницы будут без контента, то лучше их просто закрыть от индексации.
В магазине, думаю, с тегов вообще толку нет (в карточках товаров). В статьях можно сделать просто модуль "Похожие статьи", без тегов.
В общем, нюансов вагон. И главный из них - насколько это рационально.
1. Нас интересует именно индексация данных страниц. В роботсе выставляются условия индексирования не только для Гугла.
2. Зачем скрывать от пользователей? Суть тегов тогда вообще теряется. Можно и вовсе удалить.
Лучше, имхо, вообще отключить этот скрипт.
При переходе по ссылке tag/метка - получим блог-выборку существующего на сайте контента, т. е. дубль. Как и "результаты поиска", как и "сортировка по фильтру". Блокировать/нет - решайте сами. В Сети много мнений, что "это всё фигня" :) На мой взгляд эти страницы - натуральный "мусор" для индекса и стоит его "закрыть" от инднексации. Например так:
Disallow: /*tag/
Поиск и фильтрация у вас у индексации уже "закрыты": Disallow: /*?
R слову: Директивы в вашем robots.txt
Disallow: /*?on_page=20
Disallow: /*?on_page=10
Disallow: /*?on_page=30
Disallow: /*?on_page=40
Disallow: /*?on_page=50
Disallow: /*?on_page=100
Заменяет одна:
Disallow: /*?
Она тоже прописана в файле.
Зачем дублировать директивы?.. Проверте в google вебмастер по вкладке: проверка robots.txt
Нормальный сайт. Немного "блеклый" на мой вкус (шрифт - мелковат/сероват). А в-целом - клиентам должно понравиться. И поисковикам :) Коротко и внятно.
Если оставить без оптимизации (как сейчас), то лучше блочить.
2. Зачем скрывать от пользователей? Суть тегов тогда вообще теряется. Можно и вовсе удалить.
Делается он для добычи доп. трафика (если это возможно).
Данный метод не всегда подойдет, конечно. Тут уже нужно смотреть, рационально ли такое решение для данного сайта.
Если эти страницы будут без контента, то лучше их просто закрыть от индексации.
В магазине, думаю, с тегов вообще толку нет (в карточках товаров). В статьях можно сделать просто модуль "Похожие статьи", без тегов.
В общем, нюансов вагон. И главный из них - насколько это рационально.
2. Зачем скрывать от пользователей? Суть тегов тогда вообще теряется. Можно и вовсе удалить.