Você não quer apenas um artigo ou uma imagem individual, você quer o todo local na rede Internet. Qual é a maneira mais fácil de sugar tudo?
A sessão de perguntas e respostas de hoje chega até nós como cortesia do SuperUser - uma subdivisão do Stack Exchange, um grupo de sites de perguntas e respostas voltado para a comunidade
Imagem disponível como papel de parede em GoodFon .
A questão
O leitor SuperUser Joe tem uma solicitação simples:
Como posso baixar todas as páginas de um site?
Qualquer plataforma está bem.
Cada página, sem exceção. Joe está em uma missão.
A resposta
O contribuidor do SuperUser Axxmasterr oferece uma recomendação de aplicativo:
HTTRACK funciona como um campeão de cópia do conteúdo de um site inteiro. Essa ferramenta pode até mesmo pegar as peças necessárias para fazer um site com conteúdo de código ativo funcionar offline. Estou surpreso com as coisas que ele pode replicar offline.
Este programa fará tudo o que você precisar dele.
Caçada feliz!
Podemos recomendar de coração o HTTRACK. É um aplicativo maduro que realiza o trabalho. E os arquivistas em plataformas não Windows? Outro colaborador, Jonik, sugere outra ferramenta madura e poderosa:
Wget é uma ferramenta de linha de comando clássica para esse tipo de tarefa. Ele vem com a maioria dos sistemas Unix / Linux, e você pode obtê-lo para Windows também (mais recente 1.13.4 disponivel aqui).
Você faria algo como:
wget -r --no-parent http://site.com/songs/Para mais detalhes, veja Wget Manual e os seus exemplos ou dê uma olhada em:
Tem algo a acrescentar à explicação? Soe fora nos comentários. Quer ler mais respostas de outros usuários do Stack Exchange com experiência em tecnologia? Confira o tópico de discussão completo aqui .