файл robots.txt есть? сайтмап сделан? Информация на сайте должна быть не скопирована откуда-либо, а написано своими руками, Картинки тоже не просто пересохраненны с других ресурсов, а доработаны. Чем больше уникальности у сайта, чем охотнее он будет индексирваться.
Как я понял, за последнее время, яша начал сравнивать уникальность страниц. У меняя была проблема, я долго мучался с этой темой, переработал текст. поменял картинок сделал переобход и вуаля) У них там новый какой-то "Стиль мать его" добавления. Не знаю почему, но сработало.
Скинь в личку сайт, посмотрим.
еще для индексации нужно заполнять title, description, alt, keywords...все метатеги, естественно с описание сайта и только о сайте, т.е. не надо писать ржакадослез, голые бабы и прочее, если у вас там этого нет, иначе будет куча отказов ну и словите фильтр какой-нибудь и тогда о индексации совсем можно забыть. Описывать сайт надо исключительно для своей целевой аудитории.
По факту на сайте тоже 40780 страниц? Или как у многих,
"- у меня роботом загружено 100500 страниц, а в индекс только 15 попало! Когда про индексируются остальные?"
Глянешь, а на сайте по факту, если даже со всеми дублями и прокладками, от силы страниц 30.
На скорость индексации может влиять уйма факторов, действий вебмастера, который ежедневно, в попытках оптимизации меняет урлы, тайтлы и прочее, до вспышек на солнце.
Какая уникальность, Яндекс это не волнует АБСОЛЮТНО. Я только вчера с этими идиотами переписывался. Просела сильно статья, начал выяснять почему - в панели надпись "неглавное зеркало". Прогнал через text.ru статью на дубли - нашел пачку дорвеев с моей статьей, блоки 1:1, вперемешку с другими блоками статей с других сайтов. Штук 80 ломаных доменов с этим гибридом, только блоки местами меняются. Все в индексе Яндекса. Написал в поддержку, че мол за дела, в оригинальные тексты было добавлено год назад, уникальность была 100%. Получаю ответ: читайте наши правила - мы индексируем все, а с авторством разбирайтесь сами, в судебном порядке, или как хотите, это не наше дело. А вы тут про уникальность бормочете. Если бы не Google то в сети одни дорвеи остались бы, Яндекс уникальность не интересует, он бабки считает, ему не до этого.
так у вас старая информация на сайте более неактуальная, а тут дорогу новым доменам с вашей грамотно переработанной статьей. А тем более вперемешку с инфой из других сайтов. Это в топ посмотрим отказы месяц два. А народ читает долго, пока поймет что это дерьмо. А ваш сайт вниз пока. И во многих темах то же самое. Скопипастили разбавили дерьмом и в топе. Так молодые сайты рожают быстрее чем в топе отказы. Итого старики уже на 3-5 странице.
да сайтмап- это самосабой- и чтоб с настройками -самообновлял страницыу .
яши на вм есть принудиловка индексации- в день можешь добавлять по 10 url долго- но практично
Я Вам скажу так, вся эта внутренняя оптимизация до одного места! Всякая там уникальность контента, структура сайта! Одно что действует из внутренней оптимизации это семантика. Все остальное выдумки. Проверено на опыте. Сколько я видел сайтов, ни тайтлов ни описания, несколько h1 на странице, склейки зеркал нет и В ТОПАХ СИДЯТ! Самая мощная внутренняя и внешняя оптимизации это денежные ресурсы! Есть деньги на продвижение сайта, значит будешь в топе!
Скинь в личку сайт, посмотрим.
"- у меня роботом загружено 100500 страниц, а в индекс только 15 попало! Когда про индексируются остальные?"
Глянешь, а на сайте по факту, если даже со всеми дублями и прокладками, от силы страниц 30.
На скорость индексации может влиять уйма факторов, действий вебмастера, который ежедневно, в попытках оптимизации меняет урлы, тайтлы и прочее, до вспышек на солнце.
яши на вм есть принудиловка индексации- в день можешь добавлять по 10 url долго- но практично