Du vill inte bara ha en artikel eller en enskild bild, du vill ha den hela hemsida. Vad är det enklaste sättet att sifonera allt?
Dagens Fråga & Svar-session kommer till oss med tillstånd av SuperUser - en underavdelning av Stack Exchange, en community-driven gruppering av Q & A-webbplatser.
Bild tillgänglig som bakgrundsbild på GoodFon .
Frågan
SuperUser-läsaren Joe har en enkel begäran:
Hur kan jag ladda ner alla sidor från en webbplats?
Varje plattform är bra.
Varje sida, inget undantag. Joe är på uppdrag.
Svaret
SuperUser-bidragsgivare Axxmasterr erbjuder en applikationsrekommendation:
HTTRACK fungerar som en mästare för att kopiera innehållet på en hel webbplats. Detta verktyg kan till och med ta tag i de delar som behövs för att få en webbplats med aktivt kodinnehåll att fungera offline. Jag är förvånad över de saker som den kan replikera offline.
Detta program kommer att göra allt du behöver av det.
Lycklig jakt!
Vi kan varmt rekommendera HTTRACK. Det är en mogen applikation som får jobbet gjort. Vad sägs om arkivister på andra plattformar än Windows? En annan bidragsgivare, Jonik, föreslår ett annat moget och kraftfullt verktyg:
Wget är ett klassiskt kommandoradsverktyg för denna typ av uppgift. Den levereras med de flesta Unix / Linux-system, och du kan få det för Windows också (nyare 1.13.4 tillgänglig här).
Du skulle göra något som:
wget -r - ingen förälder http://site.com/songs/För mer information, se Wget Manual och dess exempel , eller ta en titt på dessa:
Har du något att lägga till förklaringen? Ljud av i kommentarerna. Vill du läsa fler svar från andra tekniskt kunniga Stack Exchange-användare? Kolla in hela diskussionstråden här .