Гугл съел все страницы сайта с вариантами подбора по параметрам
В выдаче Гугла вместо 100 страниц 2200... С янедексом все в норме. В коде прописаны rel="canonical", а также подбор закрыт в robots.txt таким образом:
Disallow: /*?
Disallow: /*?*
Disallow: /*.php
Но в выдаче все равно полно страниц с урлами вида:
/?game_term=Все+жанры&game_info_year_ot=--&game_info_year_do=2007&game_info_art=Платформа&posts_per_page=На+странице
При всем этом подобные ссылки не с hhtp:// в выдаче а с https:// почему то. И при переходе по ним выдается сообщение о недостоверном сертификате безопасности.
2 вопроса.
Что делать, чтобы гугл выкинул из выдачи все дубли?
Почему в выдачу попадают страницы с https?
А как решить: поискал за вас в гугле - http://www.svift.org/2007/https-robots-txt/
1 - я указал Вам на решение Вашей проблемы.
2 - я уточнил, что https (а именно его появление) - это реально Ваша проблема. Сам по себе SSl не появляется, а значит Вы намеренно это сделали.