Дублирование страниц

steinvlad steinvlad   08.11.2012 18:47   404  
Имеется сайт, на котором имеются дубли, вроде: http://my_site.ru/page2
причем страница битая. Если в robots.txt прописать Disallow: /page/
проблема уйдет? не исчезнут ли из индекса сайта другие страницы?
Заранее Спасибо!



Ответы на вопрос (6) Написать ответ
port port   08.11.2012 20:01
Правильней ставить Disallow: */page/
0
Решение
steinvlad steinvlad   08.11.2012 21:07
не подскажете, что это " * " в данном случае дает? в чем преимущество?
0
mihayloo mihayloo   08.11.2012 18:58
Другие страницы, конечно, не исчезнут. Но по собственному опыту скажу, что Гугл ну очень долго выплёвывает страницы запрещённые в роботс. Яндекс в разы быстрее.
0
steinvlad steinvlad   08.11.2012 19:02
ну это запрещение точно не навредит сайту, каким-нибудь образом?
0
milko milko   08.11.2012 19:17
я за 5 дней удалила все ненужные файлы через гугл вебмастер. удаляла папками, по одной. сразу все почему то не желали удаляться
0
steinvlad steinvlad   08.11.2012 19:00
извиняюсь, в примере поправка: http://my_site/page/2 , http://my_site/page/10 и тд.
0

Войдите, чтобы написать ответ
Вход Регистрация

Курс по LSI-копирайтингу. Заберите ТОП в любой нише. Аналогов нет. Факты - есть!