Вопрос по robots.txt
В общем суть проблемы такова: Сайт попал под фильтр по тупой причине-с сайта сразу после создания его рассылались материалы (пресс-релизы) на другие сайты, в следствии чего, исходный сайт попал под фильтр.
Сайт содержит как 100% уникальные тексты(пресс-релизы), так и копипаст.
В первую очередь пришла идея закрыть копипаст от индексации.
Вопрос: Получится ли по такой схеме файла robots.txt открыть уникальные статьи, а неуникальные закрыть:
User-agent: Yandex
Disallow: *
Allow: /?p=966
Allow:/?p=917
И еще, от сео я далек, больше кодинг. Какие меры необходимо принять чтобы вытащить из под фильтра яндекса сайт? Гуглом кстати тоже плоховастенько индексируется.
Сайт содержит как 100% уникальные тексты(пресс-релизы), так и копипаст.
В первую очередь пришла идея закрыть копипаст от индексации.
Вопрос: Получится ли по такой схеме файла robots.txt открыть уникальные статьи, а неуникальные закрыть:
User-agent: Yandex
Disallow: *
Allow: /?p=966
Allow:/?p=917
И еще, от сео я далек, больше кодинг. Какие меры необходимо принять чтобы вытащить из под фильтра яндекса сайт? Гуглом кстати тоже плоховастенько индексируется.
Ответы на вопрос (4)
Написать ответ
Быстрая регистрация для ответа
Войти

Запрет индексации врядли поможет, лучше постоянно (пусть и немного) добавлять новый уникальный контент и списаться с Платоном.
0

немного это например 4-5 тысяч знаков в неделю?
0

сделай уникальные статьи, поставь на отложенную публикацию по одной статье в три дня, ну или на крайняк неделю, забудь на пол-года, можешь еще трафик подкрутить, комменты
0

А я бы забил на нгего и сделал новый !
0