об этом в курсе, но сейчас вопрос в другом: по запросу "генеральная репетиция алых парусов в 2019 году" наш сайт был на первых строчках, и с поиска люди направлялись на адрес: .../generalnaya-repetitsiya-alyh-parusov-v-2019-godu-v-peterburge/
но неделю назад полностью поменял robots.txt, где открыл полный доступ кроме трех страниц. и вот сегодня после апа яндекса - такое вижу, что полностью трафик упал по данному запросу, еще удалены 40+ хороших статей с поиска, кроме того при введении в поиск: "генеральная репетиция алых парусов в 2019 году" - выходит наша же статья про хостел.
возможно ли такое после изменения robots.txt? так как до этого момента все было ровно с яндексом. если да, можно ли просто закрыть в роботс /?random-post, /?, /feed и надеяться на то, что все вернется обратно?
Нельзя просто брать и бездумно править роботс, сначала надо смотреть на всю структуру сайта. А роботс у вас безумный совсем. Каким то образом стала более релевантна не та страница, что была
это не объяснение. вопрос в другом, еще раз повторяюсь. я знаю, что что-то не так, но я у вас просил помочь найти данную ошибку.
дублирую: "
эти ошибки с редиректом, если можно так называть - появились до этого "безумия (как тут некоторые говорят)" с роботсом, уже после появления этих ошибок довел роботс до такого уровня.
но эти ошибки с редиректом, если можно так называть - появились до этого "безумия (как тут некоторые говорят)" с роботсом, уже после появления этих ошибок довел роботс до такого уровня. сейчас если не сложно прошу посмотрите мой роботс.
https://vpitergo.ru/tag/kogda-projdet-generalnaya-repetitsiya-alyh-parusov-v-2019-godu/
Ее вообще неплохо было бы закрыть
но неделю назад полностью поменял robots.txt, где открыл полный доступ кроме трех страниц. и вот сегодня после апа яндекса - такое вижу, что полностью трафик упал по данному запросу, еще удалены 40+ хороших статей с поиска, кроме того при введении в поиск: "генеральная репетиция алых парусов в 2019 году" - выходит наша же статья про хостел.
возможно ли такое после изменения robots.txt? так как до этого момента все было ровно с яндексом. если да, можно ли просто закрыть в роботс /?random-post, /?, /feed и надеяться на то, что все вернется обратно?
дублирую: "
эти ошибки с редиректом, если можно так называть - появились до этого "безумия (как тут некоторые говорят)" с роботсом, уже после появления этих ошибок довел роботс до такого уровня.
"
Здесь 3 лишних строки. Все эти записи работают с одним правилом:
Запрет на индексирование любых урлов, содержащих знак "?". Все остальное - лишнее.
Похожая (но не аналогичная) ситуация и с "feed".
Конечно же, надо смотреть по ситуации. Не всегда эти решения могут быть правильными. Смотря какие страницы вам надо закрыть, а какие оставить.
но эти ошибки с редиректом, если можно так называть - появились до этого "безумия (как тут некоторые говорят)" с роботсом, уже после появления этих ошибок довел роботс до такого уровня. сейчас если не сложно прошу посмотрите мой роботс.