Парсинг сайтов - это очень распространённое явление даже стандартное. Многие веб-мастера делают свои сайты полностью на спарсенной информации. Главное достоинство этого дела - автоматический разбор информации на составляющие. Парсинг - это в переводе означает распознавание, разбор. Если скачать все страницы целиком, то как-то всё равно надо выделять полезную информацию. Не вручную же.
Так что копайте в сторону парсинга с юкоза - есть спецы с уже готовыми решениями.
Через wget через Linux, если она не установлена на компе, я выкачивал сайт на хостинг. Нужен доступ к хостингу через ssh вводите команду wget .... и сайт скачивается к вам на сайте. Туда входят все картинки и хтмл код страниц. Как это правильно сделать посмотрите в инете.
Так что копайте в сторону парсинга с юкоза - есть спецы с уже готовыми решениями.
Мой ответ Вам - Да "Чтоб тебе разжевали все, либо сами все сделали?"
https://metaproducts.com/products/offline-explorer-enterprise