SEO Сообщество: Спрашивайте и помогайте

Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.

Q&A SEO

Двоятся урлы. Как исправить?

feniks79 feniks79  
92
  30.10.2017 10:57       687    
На одном из сайтов при проверке через xenu выяснилось, что все страницы открываются с двух адресов - ЧПУ типа https://сайт/статья и через дрянь типа https://сайт/?p=1956,  https://сайт/?p=2392 и прочее.

Если я пропишу условие Disallow: /?* - ничего лишнего не закрою?

Ответы на пост (8) Написать ответ
warlocksoft warlocksoft
11
30.10.2017 14:59
Никто не знает что ты там запретишь. Надо смотреть структуру. По поводу каноникал, смотри какая ситуация. При ЧПУ каждая страница имеет два адреса: через ЧПУ и через параметры. Физически, это одна страница. То есть https://сайт/?p=1956 = https://сайт/такая-то_статья/ То есть на странице https://сайт/такая-то_статья/ ты ставишь каноникал и он автоматически будет распространяться на страницу по адресу https://сайт/?p=1956 Таким образом поисковики узнают какую ссылку ты хочешь видеть в индексе и дубль просто удалят. То есть не надо искать какому ЧПУ какие параметры соответствуют. И не надо выдумывать с disallow.
0
Решение
feniks79 feniks79
92
30.10.2017 15:01
Вона как... спасибо, пойду пробовать)
0
warlocksoft warlocksoft
11
30.10.2017 13:55
поставь <link rel="canonical" href="ссылка на правильную страницу"/> и наслаждайся жизнью...

еще имей ввиду, что при таком ЧПУ страницы https://сайт/статья и https://сайт/статья/ являются разными страницами, потому нужно поставить .htaccess редирект на страницу со слэшом или без слэша... что привести к единому виду)
0
warlocksoft warlocksoft
11
30.10.2017 14:04
https://yandex.ru/support/webmaster/controlling-robot/html.html#canonical для понимания
0
feniks79 feniks79
92
30.10.2017 14:54
Так это со всеми страницами сайта творится, я хз, как их все перебрать, найти, какая циферная соответствует какой ЧПУ и потом еще на каждую страницу сайта поставить каноникал.
Со слэшами проблем нет, там все отредирекчено, меня интересует именно возможность проставления Disallow: /?* в роботс - не получится ли, что я еще и что-то лишнее запрещу к индексации? Или как еще можно с этой пачкой циферной справиться? На сайте около 400 страниц, соответственно, около 400 дублей с цифровыми значениями урл.
0
sansan sansan
1680
30.10.2017 18:20
Удалят дублю или не удалят - "бабушка на двое".
Иногда нормально, иногда нет.
Если чпу отлажено нормално, то
Disallow: /*?
не навредит.

ps: "Склеит"-не"склеит" - не ромашка. Робот он, может посчитать - как захочет, а не как правильно.
Вот когда robots.txt станет необязательным, вот тогда настанет - "веселка". А к этому всё и идет.
1
vovan777 vovan777
238
31.10.2017 09:44
Проверьте правильность настройки ЧПУ и не занимайтесь всякой фигней. И лучше Гугл читайте, а не тут.
1
feniks79 feniks79
92
31.10.2017 09:49
ЧПУ настроены, но почему-то наряду с ними генерируются и цифровые урлы. Похоже, бороться надо не с имеющимися, а остановить сам процесс генерации двойных урлов. Только не представляю, с чего начинать, такая проблема у меня впервые(
0