Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.
всем привет.
есть ли способ не дать ботам гугла повторно сканировать урл?
То есть к примеру я создаю новый сайт и каждую новую статью отправляю "добавить в индекс" в серч консоли. бот обходит ее и она ропадает в выдачу. на этом все.
Страница есть в индексе и больше ее ниаогда не должны посещать боты гугла.
Возможно ли это сделать?
Я думаю если ВООБЩЕ НИКОГА не отправлять карту сайта в серч консоль, то это поможет хоть немного в реализации поставленной задачи.
Помогите, если знаете как такое осуществить, а я взамен поделюсь секретом занятия позиций на первой страрице по мультизапросам/ключам.
Поможем улучшить ваш сайт.
301 редирект - это вообще совсем другое. По факту, прежняя страница вовсе перестанет существовать, а на её месте будет новая. Но робот по прежнему будет обращаться по старому адресу, если где-либо будут ссылки на неё.
Конкретно для описанной в вопросе ситуации немного может помочь ласт-модифайд, как писал wtf322.
Но это не решит задачу с абсолютным не-посещением страницы роботом.
Полностью запретить роботам ходить на страницу может только факт отсутствия такой страницы :)
Присутствие страницы в выдаче и не-посещение страницы роботами ПС - взаимоисключающие факторы.
я умею только весь сайт перенаправляьють с помощью tds