Друзья, есть сайт
https://wearts.ru и, судя по метрике, Яндекс гоняет страницы типа
https://wearts.ru/pic/22621 туда-сюда, обзывая их дублями. Оно в принципе и правильно, так как страницы отличаются только изображением. Есть мнение, что однотипный тайтл в формате "Картина хадожника Имя Фамилия" этому виной. Но как можно переделать тайтл в моем случае? Что можно туда еще вставить? Дату и названия разделов каталога пойдет?
Есть подозрение, что сайт не продвигается только из-за этих дублей. Яндекс их сотнями гоняет туда-обратно. Потому что уникальных статей уже написал уйму и ключи разные использовал, но что-то эффекта практически нет.
Если хочешь поискового текстового продвижения, то придется текстами залить дополнительными от 300 символов уникального. Если нет цели с текстового поисковика, посмотри конкурентов по запросам аля обои на рабочий стол в поиске по картинкам. Я думаю что они страницу отдельных картинок сделали с <link rel="canonical" href="страница галереи" />, типо поисковик картинок найдет сами картинки /wp-content/uploads/.../1.jpg, ну а по нажатию посмотреть на странице, то выдаст галерею. И будет все без дублей и картинки будут искаться
Попробую поступить по всем советам так:
1. Переделаю тайтл в формат "Картина художника Имя Фамилия в стиле "Масло, живопись" от 23 апреля 2017", где динамика будет в "Имя фамилия", "Масло, живопись" и "23 апреля 2017", то есть фио автора, стиль и дата загрузки. В дескрипшн: "Посмотреть картину художника Иван Иванов в стиле "Масло, живопись" от 23 апреля 2017". В альт самого изображения работы вставил текст тайтла. В течение месяца посмотрю на изменения и если это не поможет, то:
2. Обращусь в ТП Яндекса, возможно они дадут комментарии, если и это не поможет, то:
3. Через каноникал укажу в качестве основной страницы страницу со всеми работами автора (не хотелось бы этого, конечно)
4. Ну а роботсом закрывать, мне кажется, совсем не вариант. Все таки хочется, чтобы ПС приняли эти страницы и сайт имел трафик на них.
В индекс попадают страницы вида https://wearts.ru/?page=150 , где число это номер страницы. То есть яндекс опять же бесконечно кидает страницы то в индекс, то выбрасывает как дубль.
Никакой пагинации на главной странице нет! (Откуда только яндекс берет эти ссылки..).
Самое интересное, что в robots.txt я давно добавил такое правило:
User-agent: *
Disallow: /?page=*
В вебмастере я проверяю url такого типа и он говорит, что ссылки закрыты от индекса и все ок. Но вопреки всему ежедневно яндекс забирает по 300-400 ссылок такого типа и 300-400 же выбрасывает как дубль.
Что можно сделать?