Vous ne voulez pas seulement un article ou une image individuelle, vous voulez le entier site Internet. Quelle est la manière la plus simple de tout siphonner?
La session de questions et réponses d’aujourd’hui nous est offerte par SuperUser, une subdivision de Stack Exchange, un regroupement de sites Web de questions-réponses géré par la communauté.
Image disponible comme fond d'écran à GoodFon .
The Question
Le lecteur SuperUser Joe a une requête simple:
Comment puis-je télécharger toutes les pages d'un site Web?
N'importe quelle plate-forme est bien.
Chaque page, sans exception. Joe est en mission.
La réponse
Axxmasterr, contributeur SuperUser, propose une recommandation d'application:
HTTRACK fonctionne comme un champion pour copier le contenu d'un site entier. Cet outil peut même récupérer les éléments nécessaires pour qu'un site Web avec un contenu de code actif fonctionne hors ligne. Je suis étonné de tout ce qu'il peut répliquer hors ligne.
Ce programme fera tout ce dont vous avez besoin.
Bonne chasse!
Nous pouvons vivement recommander HTTRACK. C’est une application mature qui fait le travail. Qu'en est-il des archivistes sur des plates-formes non Windows? Un autre contributeur, Jonik, propose un autre outil mature et puissant:
Wget est un outil de ligne de commande classique pour ce type de tâche. Il est livré avec la plupart des systèmes Unix / Linux, et vous pouvez l'obtenir Pour les fenêtres aussi (plus récent 1.13.4 disponible ici).
Vous feriez quelque chose comme:
wget -r --no-parent http://site.com/songs/Pour plus de détails, consultez Manuel Wget et son exemples , ou jetez un œil à ceux-ci:
Avez-vous quelque chose à ajouter à l'explication? Sonnez dans les commentaires. Vous voulez lire plus de réponses d'autres utilisateurs de Stack Exchange férus de technologie? Consultez le fil de discussion complet ici .