Имеется сайт, на котором имеются дубли, вроде: http://my_site.ru/page2 причем страница битая. Если в robots.txt прописать Disallow: /page/ проблема уйдет? не исчезнут ли из индекса сайта другие страницы? Заранее Спасибо!
Другие страницы, конечно, не исчезнут. Но по собственному опыту скажу, что Гугл ну очень долго выплёвывает страницы запрещённые в роботс. Яндекс в разы быстрее.