Вам нужна не просто статья или отдельное изображение, а все интернет сайт. Какой самый простой способ все это перекачать?
Сегодняшняя сессия вопросов и ответов проходит благодаря SuperUser - подразделению Stack Exchange, группы веб-сайтов вопросов и ответов, управляемой сообществом.
Изображение доступно в качестве обоев на сайте GoodFon .
Вопрос
Читатель SuperUser Джо имеет простой запрос:
Как я могу загрузить все страницы с веб-сайта?
Подойдет любая платформа.
Каждая страница без исключения. Джо выполняет задание.
Ответ
Участник SuperUser Axxmasterr предлагает рекомендации по применению:
HTTRACK работает как чемпион по копированию содержимого всего сайта. Этот инструмент может даже захватывать элементы, необходимые для работы веб-сайта с активным содержимым кода в автономном режиме. Я поражен тем, что он может воспроизвести в автономном режиме.
Эта программа сделает все, что вам нужно.
Хорошей охоты!
Мы искренне рекомендуем HTTRACK. Это зрелое приложение, которое выполняет свою работу. А как насчет архивистов на платформах, отличных от Windows? Другой участник, Джоник, предлагает еще один зрелый и мощный инструмент:
Wget - классический инструмент командной строки для такого рода задач. Он поставляется с большинством систем Unix / Linux, и вы можете его получить для Windows тоже (новее 1.13.4 доступна здесь).
Вы бы сделали что-то вроде:
wget -r --no-parent http://site.com/songs/Подробнее см. Руководство Wget и это Примеры , или взгляните на эти:
Есть что добавить к объяснению? Отключи в комментариях. Хотите узнать больше ответов от других технически подкованных пользователей Stack Exchange? Ознакомьтесь с полной веткой обсуждения здесь .