記事や個別の画像だけでなく、 全体 ウェブサイト。すべてを吸い上げる最も簡単な方法は何ですか?
今日の質疑応答セッションは、コミュニティ主導のQ&AWebサイトのグループであるStackExchangeの下位区分であるSuperUserの好意で行われます。
で壁紙として利用可能な画像 GoodFon 。
質問
スーパーユーザーリーダーのJoeには、簡単なリクエストがあります。
Webサイトからすべてのページをダウンロードするにはどうすればよいですか?
どのプラットフォームでも問題ありません。
すべてのページ、例外はありません。ジョーは使命を帯びています。
答え
スーパーユーザーの寄稿者であるAxxmasterrは、アプリケーションの推奨事項を提供しています。
HTTRACKは、サイト全体のコンテンツをコピーするためのチャンピオンのように機能します。このツールは、アクティブなコードコンテンツを含むWebサイトをオフラインで機能させるために必要な要素を取得することもできます。私はそれがオフラインで複製できるものに驚いています。
このプログラムはあなたがそれを必要とするすべてをします。
ハッピーハンティング!
HTTRACKを心からお勧めします。それは仕事を成し遂げる成熟したアプリケーションです。 Windows以外のプラットフォームのアーキビストはどうですか?別の寄稿者であるJonikは、別の成熟した強力なツールを提案しています。
Wget は、この種のタスクのための古典的なコマンドラインツールです。ほとんどのUnix / Linuxシステムに付属しており、入手できます。 Windows用 あまりにも(新しい 1。13。4 ここで入手可能)。
次のようなことをします:
wget -r --no-parent http://site.com/songs/
説明に追加するものがありますか?コメントで音を立ててください。他の技術に精通したStackExchangeユーザーからの回答をもっと読みたいですか? ここで完全なディスカッションスレッドをチェックしてください 。