SEO Сообщество: Спрашивайте и помогайте

Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.

Q&A SEO

Код страницы

Сергей Сергеевич Сергей Сергеевич  
0
  09.09.2020 19:20       985    

Разобрался как настроить пагинацию. Решил прописать <link rel="canonical" href="https://pr-cy.ru/jump/?url=https%3A%2F%2F%D0%BC%D0%BE%D0%B9+%D1%81%D0%B0%D0%B9%D1%82"> на каждой страницы пагинации и главной соответственно надеюсь что понял это правильно.))))) Сейчас вопрос в другом как мне найти код КАЖДОЙ СТРАНИЦЫ ??? ХОСТИНГ БЕГЕТ , Движок вердпресс. В какой папке на хостинге лежать файлы страниц сайта?


Ответы на пост (5) Написать ответ
vituson vituson
2363
09.09.2020 20:42
Канонический адрес указывается для уникальных (отдельных) страниц и одиночных записей, чтобы поисковый робот, найдя их в архивах (по другим ссылкам), знал, какой адрес приоритетный для индексации. Страницы пагинации уникальностью не обладают, ибо формируются из абзацев или текста одиночных записей, соответственно тег - каконинкал им не нужен.
0
я понял это вопрос в другом на блоке в поис попала страница /page2 рано или позно яндекс и гугл поймут это как дубль страниц? Так. Как мне найти где код этой страницы что бы на них прописать канонический адрес главной страницы. Как посмотреть код / page2. На хостинге искал в коневой папки не могу найти. Вот и спрашиваю как найти путь к странице с хвостом page 2????
0
верд прес создает динамические страницы если указать 5 постов на странице то шестоц пос перенесется на следующую. И у нее адрес тоже будет канонический. ? Как это исправить
0
на самом впрдпрес я как бы не создавал страниц. У меня в разделе "страницы" их нет
0
wprazor wprazor
519
10.09.2020 08:50
Учите матчасть по WordPress сначала. Вы даже написать правильно Вордпресс не можете. Страницы пагинации создаются динамически, можно закрыть их от индексации в robots.txt или при помощи плагина или написав код который будет добавлять заголовки x-robots-tag noindex, follow

В вашем случае для начала пропишите в robots.txt
Disallow: */page/
0