2009-07-28 13:32:02 +0000 2009-07-28 13:32:02 +0000
362
362

ウェブサイト全体をダウンロードするにはどうしたらいいですか?

ウェブサイトの全ページをダウンロードするにはどうしたらいいですか?

どのプラットフォームでも構いません。

回答 (20)

347
347
347
2009-07-28 13:55:39 +0000
282
282
282
2009-07-28 14:05:25 +0000
8
8
8
2009-09-16 22:12:13 +0000

Firefoxの拡張機能である ScrapBook を見てみましょう。これには 詳細キャプチャモード .

8
8
8
2009-09-16 21:56:24 +0000

インターネットダウンロードマネージャ](http://www.internetdownloadmanager.com/)は、多くのオプションを備えたサイトグラバーユーティリティを持っています - これは、あなたが望む方法で、あなたが望む任意のウェブサイトを完全にダウンロードすることができます。ダウンロードするページ/ファイルのサイズの制限を設定することができます。訪問するブランチサイトの数を設定できます。あなたは、スクリプト/ポップアップ/複製の動作方法を変更することができます

4.あなたは、ドメインを指定することができ、そのドメインの下でのみ、必要な設定を満たすすべてのページ/ファイルがダウンロードされます

5.リンクをブラウズするためのオフラインリンクに変換することができます

6.あなたはあなたのために上記の設定を選択することができますテンプレートを持っている

ソフトウェアは無料ではありません - それはあなたのニーズに合っているかどうかを参照してください、評価版を使用しています。

7
7
7
2009-09-17 11:42:49 +0000
  • itsucks ** - それはプログラムの名前です!
5
5
5
2009-09-17 02:08:03 +0000

オフラインエクスプローラー](http://www.metaproducts.com/mp/offline_explorer.htm)が好きです。 シェアウェアですが、とても良くて使いやすいです。

5
5
5
2009-07-28 14:03:11 +0000

私はブラウザが使用するオンラインバッファリングに対処します…

一般的にほとんどのブラウザは、静的な画像やコンテンツを何度も何度もダウンロードする必要がないように、ウェブサイトからダウンロードしたファイルを少しの間保持するためにブラウジングキャッシュを使用しています。これは、ある状況下で物事をかなり高速化することができます。一般的に言えば、ほとんどのブラウザのキャッシュは一定のサイズに制限されており、その制限に達すると、キャッシュ内の最も古いファイルが削除されます。これにより、ネットワーク上の誰かがそれらのサイトにアクセスするたびに、それらのサイトにアクセスする手間を省くことができます。これは、外部サイトへの重複したリクエストのISPへの量を大幅に削減することができます。

4
4
4
2010-02-26 01:26:42 +0000
4
4
4
2009-07-28 23:23:28 +0000
3
3
3
2009-10-14 11:41:36 +0000

お試し BackStreet Browser .

無料で使える強力なオフラインブラウザです。高速でマルチスレッドなウェブサイトのダウンロードと閲覧プログラムです。複数のサーバーへの同時リクエストを行うことで、BackStreet Browserは、HTML、グラフィック、Javaアプレット、サウンド、その他のユーザー定義可能なファイルを含むサイト全体またはサイトの一部を素早くダウンロードし、すべてのファイルをネイティブ形式または圧縮ZIPファイルとしてハードドライブに保存し、オフラインで閲覧することができます。

3
3
3
2013-03-21 17:14:16 +0000
3
3
3
2009-09-16 22:17:23 +0000
3
3
3
2015-09-18 01:41:23 +0000

LinuxとOS X用。ウェブサイト全体をWARCファイルにアーカイブするための grab-site を書きました。これらのWARCファイルは 閲覧 したり、抽出したりすることができます。また、ジャンクURLを無視するための広範な デフォルトのセット が付属しています。

クロールを監視するためのウェブダッシュボードや、特定のサイズ以上の動画コンテンツやレスポンスをスキップするための追加オプションがあります。

1
1
1
2017-11-03 18:13:37 +0000

Power wget

wget はすでに言及されていますが、このリソースとコマンドラインはとてもシームレスだったので、言及に値すると思いました:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/ このコードは explainshell で説明されています [ このコードを見てください

0
0
0
2019-10-14 14:14:05 +0000

ページを保存 WE

Webページの内容のほとんど/すべてをダウンロードして、直接.htmlファイルに保存するChromeとFirefoxの両方のための優れた拡張機能です。 Google Chrome Extension Firefox Extension

私はそれを試してみた画像ギャラリーのページで、それはサムネイルを保存するが、フル画像ではないことに気づきました。または、サムネイルのフル画像を開くためのJavaScriptではないかもしれません。

しかし、それはwget、PDFなどよりも良い仕事をしました。ほとんどの人々のニーズのための素晴らしいシンプルなソリューション。

0
0
0
2019-11-11 16:33:26 +0000

あなたは、そのURL

0
0
0
2015-09-27 08:49:33 +0000

この機能は、老舗の* FreeDownloadManager.org **にも搭載されています

Free Download Managerには、2つの形式で搭載されています。サイトエクスプローラーとサイトスパイダー](http://www.freedownloadmanager.org/features.htm):

サイトエクスプローラー サイトエクスプローラーでは、Webサイトのフォルダ構造を見ることができ、必要なファイルやフォルダを簡単にダウンロードすることができます。

サイト全体をダウンロードしようとする前に、どのフォルダを含めたり除外したりするかを確認するのに便利だと思います。

-1
-1
-1
2015-09-21 16:02:12 +0000

HTTrackerをダウンロードすると、次の非常に簡単な手順でウェブサイトをダウンロードすることができます。

-3
-3
-3
2015-12-02 13:59:03 +0000

Firefoxはネイティブでできます(少なくともFF42ではできます)。ページを保存」

を使うだけ

-4
-4
-4
2015-05-16 18:05:51 +0000

私はgoogle chromeがデスクトップデバイス上でこれを行うことができると信じて、ちょうどブラウザのメニューに移動し、Webページを保存]をクリックします。

また、ポケットのようなサービスは、実際にウェブサイトを保存しないことがあり、このようにリンク腐敗の影響を受けやすいことに注意してください。

関連する質問

18
15
6
12
4