Удаление страниц в яндекс вебмастер
Добрый день, помогите, пожалуйста разобраться, на моем сайте 66 страниц в поиске, а загружено роботом 1100 страниц - правильно ли я понимаю - это дубликаты? Попыталась удалить один из дублей через Яндекс Вебмастер, появляется ошибка: Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex. Т.е. нужно запретить индексирование дублей в robots.txt? Вопрос: каждая страница, из 1000 дублей, в отдельности запрещается в robots.txt или есть алгоритм как их объединить в группы и запретить все одним махом? Вот примеры дублей:
1. /uslugi/novosti/2014/06/12/.../novosti/novosti/2014/05/15/...
2. /novosti/2014/06/12/.../uslugi/novosti/2014/06/05/.../dokumentyi.html
3. /uslugi/novosti/2014/06/05/.../novosti/2014/06/09/.../
4. /novosti/novosti/novosti/2014/03/27/...
5. /novosti/2014/06/09/.../uslugi/uslugi/novosti/и др. Спасибо за ответ.
во-вторых, дубли бывают в количестве 2-3 на страницу
в-третьих, 1100 страниц скорее не имеют смысла для поисковика, чтобы добавлять их в поиск, вот
он и выбрал самые оптимальные 66 страниц.
Как вариант, указывайте в заколовке канонический адрес страницы, тогда дубли должны склеится через какое-то время.
почитайте эту тему возможно вам будет полезно
https://talk.pr-cy.ru/topic/20040-vojna-s-dublyami-dublim-dubli-ili-budni-optimiza/
Но остается вопрос, если эти страницы - дубли, но состоят они полностью из адресов моих реальных страниц, без всяких доп. значков. Как их запретить в robots.txt, прописывать полностью? Или вписывать например так Disallow:/*uslugi/novosti/, не запретит ли это реальные страницы в отдельности? И нормально ли это если robots.txt будет состоять из 1000 исключенных страниц, прописанных полностью?