Anda tidak hanya menginginkan sebuah artikel atau gambar individu, Anda menginginkan seluruh situs web. Apa cara termudah untuk menyedot semuanya?
Sesi Tanya & Jawab hari ini hadir atas kebaikan SuperUser — subdivisi Stack Exchange, pengelompokan situs web Tanya Jawab berbasis komunitas.
Gambar tersedia sebagai wallpaper di GoodFon .
Pertanyaan
Pembaca SuperUser Joe memiliki permintaan sederhana:
Bagaimana cara mengunduh semua halaman dari situs web?
Platform apa pun baik-baik saja.
Setiap halaman, tidak terkecuali. Joe sedang menjalankan misi.
Jawabannya
Kontributor SuperUser Axxmasterr menawarkan rekomendasi aplikasi:
HTTRACK berfungsi seperti juara untuk menyalin konten seluruh situs. Alat ini bahkan dapat mengambil bagian yang diperlukan untuk membuat situs web dengan konten kode aktif berfungsi offline. Saya kagum dengan hal-hal yang dapat direplikasi secara offline.
Program ini akan melakukan semua yang Anda butuhkan.
Selamat berburu!
Kami sungguh-sungguh dapat merekomendasikan HTTRACK. Ini adalah lamaran dewasa yang menyelesaikan pekerjaan. Bagaimana dengan arsiparis di platform non-Windows? Kontributor lain, Jonik, menyarankan alat lain yang matang dan kuat:
Wget adalah alat baris perintah klasik untuk tugas semacam ini. Muncul dengan sebagian besar sistem Unix / Linux, dan Anda bisa mendapatkannya untuk Windows juga (lebih baru 1.13.4 Tersedia disini).
Anda akan melakukan sesuatu seperti:
wget -r --no-parent http://site.com/songs/Untuk lebih jelasnya, lihat Wget Manual dan itu contoh , atau lihat ini:
Punya sesuatu untuk ditambahkan ke penjelasannya? Suarakan di komentar. Ingin membaca lebih banyak jawaban dari pengguna Stack Exchange yang paham teknologi? Lihat utas diskusi lengkap di sini .