SEO Сообщество: Спрашивайте и помогайте

Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.

Q&A SEO

Вопрос по robots.txt

kantrapov kantrapov  
0
  10.12.2013 22:48       2 181    
В общем суть проблемы такова: Сайт попал под фильтр по тупой причине-с сайта сразу после создания его рассылались материалы (пресс-релизы) на другие сайты, в следствии чего, исходный сайт попал под фильтр.
Сайт содержит как 100% уникальные тексты(пресс-релизы), так и копипаст.
В первую очередь пришла идея закрыть копипаст от индексации.
Вопрос: Получится ли по такой схеме файла robots.txt открыть уникальные статьи, а неуникальные закрыть:
User-agent: Yandex
Disallow: *
Allow: /?p=966
Allow:/?p=917
И еще, от сео я далек, больше кодинг. Какие меры необходимо принять чтобы вытащить из под фильтра яндекса сайт? Гуглом кстати тоже плоховастенько индексируется.

Ответы на пост (4) Написать ответ
yakuza yakuza
0
10.12.2013 22:54
Запрет индексации врядли поможет, лучше постоянно (пусть и немного) добавлять новый уникальный контент и списаться с Платоном.
0
kantrapov kantrapov
0
10.12.2013 23:04
немного это например 4-5 тысяч знаков в неделю?
0
daniilbaza daniilbaza
12
11.12.2013 04:31
сделай уникальные статьи, поставь на отложенную публикацию по одной статье в три дня, ну или на крайняк неделю, забудь на пол-года, можешь еще трафик подкрутить, комменты
0
witosp witosp
327
11.12.2013 14:04
А я бы забил на нгего и сделал новый !
0