Присоединяйтесь к сообществу профессиональных веб-мастеров PR-CY, отвечайте на вопросы коллег и задавайте свои.
Всем привет. Ищу решение для огромного сайта и как сформулировать запрос для гугла не придумал.
Нужно что то, что посетит десятки тысяч страниц. Бот или программа краулер.
Дело в том, что перевод страницы осуществляется при ее посещении, хотя бы один раз. Вручную это сделать нереально. Xenu не помогает. Обход ботами поисковиков невозможен и нежелателен, так как сайт представляет собой технический черновик и соответственно закрыт от индексации.
Может кто то знает примеры программ или сервисов, которые смогут пройти по всем страницам сайта?
Поможем улучшить ваш сайт.
А если попробовать программы копирования сайта на локальный диск, например, Телепорт или что-то типа него?
Netpeak Spider запустил на медленное сканирование. Завтра надеюсь посмотрю что вышло
А как Вы в лягушке настраивали скорость сканирования? Я не нашел.
Дело в том, что для gtranslate существует ограничение : 12 запросов в секунду с 1 IP. иначе будет получен код 403 и страница не переведется