Стоит ли закрывать страницы соцсети в robots.txt?
Есть тематическая соцсеть, в которой на данный момент 4000 пользователей и больше 30000 публикаций. А статей на сайте всего около 400.
Сейчас проанализировал я.метрику и увидел, что из поиска заходят только на статьи и очень-очень редко на страницы профилей (и то когда ищут конкретного человека). На страницы же постов вообще не заходят, не смотря на, что зачастую они содержат прилично текста и изображений. Все теги, ключи и микроразметка, все есть.
Но тем не менее роботы гугл и яндекс ежедневно перебирают по 3500-4000 страниц.
Я так понимаю они перебирают все эти многочисленные профили и посты, но из поиска никого все равно не присылают, что впринципе и понятно.
Вопрос: стоит ли закрыть в роботс вообще все страницы профилей и постов? Нафига он их зря перебирает, захлебывается.. Да и трафика ежедневно по 60-70 мегабайт на это уходит. Может эти "бессмысленные" для поисковиков страницы наоборот мешают?
Вот как раз по этой аналогии я и мыслю. Не такие же ли это лишние страницы (профили и посты), как страницы пагинации и поиска? Они все равно в поиске никак почти не фигурируют.
Битву экстрасенсов не надо тут проводить, если можете что-то толковое посоветовать - пишите, а бабу Вангу не тревожьте пожалуйста, пусть она отдыхает спокойно...