SEO Сообщество: Спрашивайте и помогайте

Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.

Q&A SEO

Дублирование страниц

steinvlad steinvlad  
1
  08.11.2012 18:47       1 194    
Имеется сайт, на котором имеются дубли, вроде: http://my_site.ru/page2
причем страница битая. Если в robots.txt прописать Disallow: /page/
проблема уйдет? не исчезнут ли из индекса сайта другие страницы?
Заранее Спасибо!



Ответы на пост (6) Написать ответ
port port
11
08.11.2012 20:01
Правильней ставить Disallow: */page/
0
Решение
steinvlad steinvlad
1
08.11.2012 21:07
не подскажете, что это " * " в данном случае дает? в чем преимущество?
0
mihayloo mihayloo
83
08.11.2012 18:58
Другие страницы, конечно, не исчезнут. Но по собственному опыту скажу, что Гугл ну очень долго выплёвывает страницы запрещённые в роботс. Яндекс в разы быстрее.
0
steinvlad steinvlad
1
08.11.2012 19:02
ну это запрещение точно не навредит сайту, каким-нибудь образом?
0
milko milko
282
08.11.2012 19:17
я за 5 дней удалила все ненужные файлы через гугл вебмастер. удаляла папками, по одной. сразу все почему то не желали удаляться
0
steinvlad steinvlad
1
08.11.2012 19:00
извиняюсь, в примере поправка: http://my_site/page/2 , http://my_site/page/10 и тд.
0