Вы не просто хотите статью или отдельный образ, вы хотите, чтобывсе Веб-сайт. Какой самый простой способ перевернуть все это?
Сегодняшняя сессия вопросов и ответов приходит к нам благодаря SuperUser - подразделению Stack Exchange, основанной на сообществах сайтам Q & A.
Изображение доступно в качестве обоев в GoodFon.
Вопрос
У читателя SuperUser у Джо есть простой запрос:
How can I download all pages from a website?
Any platform is fine.
Каждая страница, без исключения. Джо на миссии.
Ответ
Поставщик SuperUser Axxmasterr предлагает рекомендации по применению:
https://www.httrack.com/
HTTRACK works like a champ for copying the contents of an entire site. This tool can even grab the pieces needed to make a website with active code content work offline. I am amazed at the stuff it can replicate offline.
This program will do all you require of it.
Happy hunting!
Мы можем искренне рекомендовать HTTRACK. Это зрелое приложение, которое выполняет свою работу. Что относительно архивистов на платформах, отличных от Windows? Другой участник, Jonik, предлагает еще один зрелый и мощный инструмент:
Wget is a classic command-line tool for this kind of task. It comes with most Unix/Linux systems, and you can get it for Windows too (newer 1.13.4 available here).
You’d do something like:
wget -r --no-parent https://site.com/songs/
Для получения дополнительной информации см. Руководство Wget и его примеры или посмотрите на них:
- https://linuxreviews.org/quicktips/wget/
- https://www.krazyworks.com/?p=591
Есть что добавить к объяснению? Звучит в комментариях. Хотите узнать больше ответов от других пользователей Windows? Посмотрите здесь полную дискуссионную тему.