Суть вопроса такова, стоит ли в Robots.txt закрывать от индексации облако тегов, слышал много разногласий, но хотел бы услышать внятный ответ, заранее буду благодарен!
главная задача в оптимизации предоставить поисковому роботу только целевые и полезные страницы. Теги, метки, категории зачастую дублируют друг друга. В результате появляется куча идентичных страниц, а это как раз таки и плохо. Да
Поэтому главная задача сделать так, чтобы информация была доступна только по одному адресу и не возникало дублирования по другому адресу или же в метках.
Облако тегов помогает в оптимизации? Ну разве что ключи внутренние появляются на сакйте. Но ведут то они на дубли и это не есть хорошо. Да и посетителям они даром не нужны, лучше закрыть от индексации.
ну, смотря как ты используешь теги. Про то, что это дубли и их нужно закрывать от индексации, наверное, да если ты, к примеру, в качестве тегов указывает слова: фильм, кино, драма, dvdrip, а при этом существует категории фильмы, драма и тд. Но если, к примеру в качестве тегов используются фамилии актеров или режиссёров, то следует закрывать их от индексации, если сами ключевые слова на страницы облака тегов не соответствуют тегу.