Non vuoi solo un articolo o un'immagine individuale, vuoi il totale sito web. Qual è il modo più semplice per travasare tutto?
La sessione di domande e risposte di oggi ci arriva per gentile concessione di SuperUser, una suddivisione di Stack Exchange, un raggruppamento guidato dalla comunità di siti web di domande e risposte.
Immagine disponibile come sfondo su GoodFon .
La domanda
Il lettore SuperUser Joe ha una semplice richiesta:
Come posso scaricare tutte le pagine da un sito web?
Qualsiasi piattaforma va bene.
Ogni pagina, nessuna eccezione. Joe è in missione.
La risposta
Il collaboratore di SuperUser Axxmasterr offre una raccomandazione per l'applicazione:
HTTRACK funziona come un campione per la copia dei contenuti di un intero sito. Questo strumento può persino acquisire i pezzi necessari per far funzionare offline un sito Web con contenuto di codice attivo. Sono sbalordito dalle cose che può replicare offline.
Questo programma farà tutto ciò di cui hai bisogno.
Buona caccia!
Possiamo consigliare vivamente HTTRACK. È un'applicazione matura che porta a termine il lavoro. E gli archivisti su piattaforme non Windows? Un altro collaboratore, Jonik, suggerisce un altro strumento maturo e potente:
Wget è un classico strumento da riga di comando per questo tipo di attività. Viene fornito con la maggior parte dei sistemi Unix / Linux e puoi ottenerlo per Windows troppo (più recente 1.13.4 disponibile qui).
Faresti qualcosa come:
wget -r --no-parent http://site.com/songs/Per ulteriori dettagli, vedere Manuale di Wget e il suo esempi , oppure dai un'occhiata a questi:
Hai qualcosa da aggiungere alla spiegazione? Suona nei commenti. Vuoi leggere altre risposte da altri utenti esperti di tecnologia Stack Exchange? Dai un'occhiata al thread di discussione completo qui .