Что я могу Вам сказать, даже с моим не большим опытом работы в этой сфере я на сайте вижу что не настроен robots.txt файл в таком случае могут попадать дубли страниц в поиск, при повторном сканирования робот обнаружит что один пост расположен по разным адресам и выкинет из поиска дубли. Также у Вас в постах написано очень мало текста такие страницы также могут попадать, а на следующий АП вылетать из поиска! Хорошо держаться в поиске посты от 1500 символов. Так что работать над сайтом надо.
Замечал, что в Яндексе каждый раз выдавалось по разному количеству страниц для того же сайта. Обновлял страницу с выдачей страниц сайта и наблюдал, что число найденных страниц менялось (например подряд нажимал на F5 и каждый раз выдавалось разное количество страниц, при чем делалось это в рэндомном порядке, никакой последовательности не наблюдал). У меня для одного сайта менялось между 9000, 256 и 16. То есть такое ощущение, что выдача шла с трех разных баз. Теперь все нормально, видать прошла синхронизация баз данных и скорее всего теперь все должно быть как прежде.
Лучше бы тИЦ обновили.
Завтра ждем )