Вам потрібна не просто стаття чи окреме зображення, а саме ціле веб-сайт. Який найпростіший спосіб це все вилучити?
Сьогоднішня сесія запитань і відповідей надійшла до нас люб’язно від SuperUser - підрозділу Stack Exchange, угруповання веб-сайтів із питань та відповідей на основі спільноти.
Зображення доступне як шпалери за адресою GoodFon .
Питання
Читач SuperUser Джо має просте запит:
Як я можу завантажити всі сторінки з веб-сайту?
Будь-яка платформа чудова.
Кожна сторінка, не виняток. Джо на місії.
Відповідь
Співавтор SuperUser Axxmasterr пропонує рекомендацію щодо застосування:
HTTRACK працює як чемпіон для копіювання вмісту цілого сайту. Цей інструмент може навіть захопити фрагменти, необхідні для того, щоб веб-сайт з активним вмістом коду працював в автономному режимі. Я вражений тим, що він може копіювати в автономному режимі.
Ця програма зробить все, що від вас вимагається.
Щасливого полювання!
Ми можемо щиро рекомендувати HTTRACK. Це зріла програма, яка робить роботу. Що можна сказати про архівістів на платформах, що не належать до Windows? Інший співавтор, Джонік, пропонує ще один зрілий і потужний інструмент:
Wget є класичним інструментом командного рядка для такого роду завдань. Він поставляється з більшістю систем Unix / Linux, і ви можете його отримати для Windows теж (новіше 1.13.4 доступні тут).
Ви зробите щось на зразок:
wget -r --no-parent http://site.com/songs/Детальніше див Wget Manual і його приклади , або погляньте на ці:
Є що додати до пояснення? Звук у коментарях. Хочете прочитати більше відповідей від інших досвідчених користувачів Stack Exchange? Ознайомтесь із повним обговоренням тут .