Вопрос по robots.txt

kantrapov kantrapov   10.12.2013 22:48   500  
В общем суть проблемы такова: Сайт попал под фильтр по тупой причине-с сайта сразу после создания его рассылались материалы (пресс-релизы) на другие сайты, в следствии чего, исходный сайт попал под фильтр.
Сайт содержит как 100% уникальные тексты(пресс-релизы), так и копипаст.
В первую очередь пришла идея закрыть копипаст от индексации.
Вопрос: Получится ли по такой схеме файла robots.txt открыть уникальные статьи, а неуникальные закрыть:
User-agent: Yandex
Disallow: *
Allow: /?p=966
Allow:/?p=917
И еще, от сео я далек, больше кодинг. Какие меры необходимо принять чтобы вытащить из под фильтра яндекса сайт? Гуглом кстати тоже плоховастенько индексируется.

Ответы на вопрос (4) Написать ответ
yakuza yakuza   10.12.2013 22:54
Запрет индексации врядли поможет, лучше постоянно (пусть и немного) добавлять новый уникальный контент и списаться с Платоном.
0
kantrapov kantrapov   10.12.2013 23:04
немного это например 4-5 тысяч знаков в неделю?
0
daniilbaza daniilbaza   11.12.2013 04:31
сделай уникальные статьи, поставь на отложенную публикацию по одной статье в три дня, ну или на крайняк неделю, забудь на пол-года, можешь еще трафик подкрутить, комменты
0
witosp witosp   11.12.2013 14:04
А я бы забил на нгего и сделал новый !
0

Войдите, чтобы написать ответ
Вход Регистрация

Услуги графического дизайнера! Создание под заказ логотипов, баннеров, оформление групп.