Как загнать в индекс поисковиков ~300 тыс. страниц?
Контент не уникальный (тексты и переводы песен из нескольких источников), домен нулевой, сайту две недели.
Гугл не слезает с сайта, выкачивает несколько страниц в минуту (всего >100 тыс.), но в индекс добавил только ~480 страниц.
Яндекс тоже заходит, но менее активно - на 100 посещений от гугла, 2-3 от яндекса, в индексе ~30 страниц.
Некоторые сайты ухищряются, делая "случайные" ошибки в тексте (замена "о" на "а", играя с суффиксами и т.п.), не хотелось бы идти по этому пути.
Можете написать подробнее об этом. Допустим, у меня 300к не уникальных страниц, большая часть из которых под фильтрами, и 1000 уникальных страниц (глубокий рерайт описаний артистов). Как страницы под фильтрами отразятся на уникальных страницах?
По идее, для подобного сайта, большая база данных является плюсом (как минимум для внутреннего поиска). Но я похоже совершил ошибку, попробовав сразу всё засунуть в индекс - я надеялся, что это принесет мне хоть какой-то релевантный трафик.
Поэтому, меня ваше утверждение очень пугает. Может, имеет смысл сменить домен и сделать плановое наполнение с нуля по 20-40 песен в день популярных на данный момент исполнителей (разбавляя уникальным контентом и наращивая ссылки)?
> чем возится с этой кашей проще загнать одну страницу в топ а потом выбирать какой рекламодетель даст больше денег за то чтобы разместить на ней рекламу, хотя у каждого свой путь
Я программист, а не сеошник и меня больше интересует конкретно этот проект, чем сео в целом.
В этом то наверное и проблема - могу сделать сайт технически не хуже чем у конкурентов, но продвинуть его не могу.
Бесплатно с такими объемами никто!