Nie chcesz tylko artykułu lub pojedynczego obrazu, chcesz cały stronie internetowej. Jaki jest najłatwiejszy sposób, aby to wszystko wylać?
Dzisiejsza sesja pytań i odpowiedzi jest dostępna dzięki uprzejmości SuperUser - części Stack Exchange, grupy witryn internetowych z pytaniami i odpowiedziami.
Obraz dostępny jako tapeta pod adresem GoodFon .
Pytanie
Czytnik SuperUser Joe ma proste żądanie:
Jak mogę pobrać wszystkie strony z witryny internetowej?
Każda platforma jest w porządku.
Każda strona, bez wyjątku. Joe ma misję.
Odpowiedź
Współautor SuperUser Axxmasterr oferuje rekomendację aplikacji:
HTTRACK działa jak mistrz do kopiowania zawartości całej witryny. To narzędzie może nawet pobrać elementy potrzebne do utworzenia strony internetowej z aktywną zawartością kodu, która działa w trybie offline. Jestem zdumiony tym, co może powielać offline.
Ten program zrobi wszystko, czego od niego potrzebujesz.
Udanego polowania!
Serdecznie polecamy HTTRACK. To dojrzała aplikacja, która wykonuje swoje zadanie. A co z archiwistami na platformach innych niż Windows? Inny współpracownik, Jonik, sugeruje inne dojrzałe i potężne narzędzie:
Wget to klasyczne narzędzie wiersza poleceń do tego rodzaju zadań. Jest dostarczany z większością systemów Unix / Linux i możesz go zdobyć dla Windowsa też (nowszy 1.13.4 dostępny tutaj).
Zrobiłbyś coś takiego:
wget -r --no-parent http://site.com/songs/Aby uzyskać więcej informacji, zobacz Podręcznik Wget i jej przykłady lub spójrz na te:
Masz coś do dodania do wyjaśnienia? Dźwięk w komentarzach. Chcesz przeczytać więcej odpowiedzi od innych zaawansowanych technicznie użytkowników Stack Exchange? Sprawdź cały wątek dyskusji tutaj .