Здравствуйте!
Имеется новый сайт и в гугле вебмастере где отображаются ошибки сканирования URL постоянно появляются вот такие данные как на скрине:
Мне сказали прописать в
robots.txt такое значение
Disallow: /*? но почему то оно не помогло, когда я прописал
Disallow: /? помогло, возможно совпадение но с гугла траф исчез. Возможно кто-то сталкивался с таким подобным или в курсе чо это?
Возможно скрин будет плохо видно так вот ссылка на норм размер
http://s16.radikal.ru/i190/1209/f1/abd836e12390.jpg
будет блокировать доступ к страницам начинающимся с ?ssid
Пункт (5) Использование спецсимволов "*" и "$"