SEO Сообщество: Спрашивайте и помогайте

Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.

Q&A SEO

Нужна помощь с clean-param.

jvrris jvrris  
0
  16.03.2022 10:26       2 294     Помощь  

Здравствуйте, сегодня получил уведомление в вебмастер:

На вашем сайте некоторые страницы с GET-параметрами в URL дублируют содержимое других страниц (без GET-параметров). Например, https://example.com/tovary?fro... дублирует https://example.com/tovary. Из-за их обхода информация о важных для вас страницах может медленнее передаваться в поисковую базу, что может влиять на состояние сайта в поиске.

Вот примеры страниц и дублирующих их страниц с незначащими GET-параметрами:

page21
site.ru/page/14/?page21
page21
site.ru//page/467/?page21

Помогите разобраться с этим! Что и как нужно прописать в robots.txt. Заранее всем спасибо.


Ответы на пост (4) Написать ответ
Cube Cube
10
16.03.2022 17:07
Здравствуйте! Примеры страниц это как я понимаю пагинацию, а ее в clean param не убирают. Clean param нужен только для яндекса и только для страниц с get запросами, которые полностью дублируют страницу, к примеру utm метки. Страницы с get параметрами, пагинация, сортировка, фильтра содержимое меняют, даже если меняют порядок и такие страницы надо ставить в noindex, Disallow и т.д., но не в clean param.
0
jvrris jvrris
0
16.03.2022 17:16
Пагинация у меня закрыта в robots.txt. Вот что яша еще пишет: 

Если эти страницы действительно являются дублями, рекомендуем использовать директиву Clean-param в robots.txt, чтобы робот игнорировал незначащие GET-параметры и объединил все сигналы со страниц-копий на основной странице.

Вот robots.txt с сайта:
User-agent: *
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-json/
Disallow: /xmlrpc.php
Disallow: *?s=
Disallow: *&s=
Disallow: /search
Disallow: /author/
Disallow: /users/
Disallow: */trackback                     
Disallow: */feed            
Disallow: */rss             
Disallow: */embed  
Disallow: */page/        
Disallow: */wlwmanifest.xml
Disallow: /xmlrpc.php
Disallow: *utm*=
Disallow: *openstat=
Allow: */uploads
Allow: /*.css
Allow: /*.js
0
Cube Cube
10
18.03.2022 15:23
"Пагинация у меня закрыта в robots.txt. Вот что яша еще пишет:" - очень плохо...
Больше вопрос касательно страниц, почему к примеру идут //, такого не должно быть. Почему если одинаковые страницы доступны по 2ум разным url, такого тоже не должно быть и clean param или disallow здесь не нужны, здесь надо разбираться.

К примеру, если в интернет-магазине 2 одинаковых товара т.е. дубля, то нужно 1 удалить и с удаленного url поставить 301 на нужный товар, а не исключать 1 из товаров в правила.

clean param нужны вот для чего, к примеру есть страница
/dfgdfg/234234/dfgdgf/
у нее появились в ходе работы такие страницы
/dfgdfg/234234/dfgdgf/utm_compaign?234234324345
/dfgdfg/234234/dfgdgf/utm_term?456456g456f456456
и вот такие страницы надо с помощью clean приводить к 1 варианту.
0
ryaskov85 ryaskov85
46
03.04.2022 04:11
Ох друже не знаю решил ты эту проблему или нет, у меня было тоже самое. 
Мне помогло так 
Clean-param: &view&rtcl_location
в твоем случае будет 
Clean-param: &tovary-from-mainpage 

и да после того как я у себя сделал пришлось ждать два раза по 14 дней, с первого раза не схавал яндекс почему то


0