SEO Сообщество: Спрашивайте и помогайте

Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.

Q&A SEO

Удалить неуникальный контент или закрыть от индексации?

shaman739 shaman739  
0
  17.11.2015 12:32       2 349    
Примерно половина страниц - это копипаст. Естественно, из-за этого плохо ранжируется сайт, в том чисел и другие уникальные статьи. Если закрыть все неуникальные статьи от индексации, то улучшит это положение?или нужно полностью удалять страницы или делать рерайр?

Ответы на пост (11)
Этот раздел заморожен и является архивом. Новые ответы добавлять нельзя.
Metaarv Metaarv
133
17.11.2015 13:02
Сделайте рерайт. Закрывать от индексации - такой опции нет, можно закрывать только от цитирования ПС, удаленные страницы наплодят кучу ошибок. Только рерайт.
0
garik1331 garik1331
1434
17.11.2015 13:07
Какие еще ошибки

К тому же если на сайте несколько тысяч страниц, что по вашему их рерайтить что ли, это даже не смешно
0
shaman739 shaman739
0
17.11.2015 13:05
Почему нет. в robots.txt и мета-тегом.
0
shaman739 shaman739
0
17.11.2015 13:10
Добавить этот тег
0
shaman739 shaman739
0
17.11.2015 13:10
META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW"
0
Metaarv Metaarv
133
17.11.2015 14:42
Если по уму, то именно рерайтить, и по барабану сколько там тысяч страниц, раньше надо было думать, а не тупо копипастить. Удалить и закрыть в роботс конечно можно, но это ранжирование сайта не улучшит.

А для тех кто не понимает зачем нужны NOINDEX,NOFOLLOW, так поймите, что они не для прикрытия от индексации ПС контента, а для запрета цитирования контента и запрета передачи веса ссылками, это разные вещи.
0
shaman739 shaman739
0
17.11.2015 15:08
Так вроде бы везде описано, что этот тег нужен для скрытия и робот по этим страницам не будет лазить. Следовательно не будет данных об уникальности страницы. А это значит, что в целом уникальность по сайту вырастит. Или я не так все понимаю?
0
Metaarv Metaarv
133
17.11.2015 18:40
Да, не так понимаете. Нет тегов для скрытия, тег NOINDEX запрещает теоритически, поисковикам цитировать в поисковой выдаче все что закрыто этим тегом, но они на этот запрет практически давно забили, а индексируется все, и влияет на ранжирование...
0
probestfilm probestfilm
20
17.11.2015 14:55
Раньше надо было думать когда тырил чужой труд вот теперь и мучейся
2
shaman739 shaman739
0
17.11.2015 15:01
Дельный совет! Как я раньше не догадался до этого
0
Присоединяюсь к вопросу, и задам свой.
Когда то давно, добавил с десяток статей по принципу "КТРЛ-С = КТРЛ-В". Сейчас, естественно, всё понимаю, и качественно занимаюсь сайтом. Как поступить?
Мой алгоритм действий - удаляю статью вообще.
Через Вебмастер, удаляю URL
Как считаете, профи?
0