2013-06-07 02:35:43 +0000 2013-06-07 02:35:43 +0000
8
8

HTTPフォルダの場所からローカルフォルダにすべてのファイルをコピーします。

私は学生で、教授のウェブサイトからたくさんのものをプルダウンする必要があります。

私はWindowsボックスで作業しており、Windows XP、Windows 7、Windows Server 2008 R2にアクセスしています。昔(2~3年前)、ウェブページをミラーリングするユーティリティをいくつか試してみましたが、様々な理由でうまくいかなかったり、欲しいものが手に入らなかったりしました。

例えば、これらのフォルダ。

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolderABCXYZ

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder123456

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder4321

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder2345

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolderABCXYZ2

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder1234563

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder43214

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder23455

本質的には、後で使うために手動でダウンロードしようとするのは本当に面倒なことです。

(http://www.httrack.com/) [ このユーティリティ ]0x3& を試してみましたが、これはやり過ぎか、単純にファイルをハードドライブにダウンロードするだけのものではなかったので、十分すぎるほどの効果があるか、単純ではありませんでした。

理想的には、フォルダを再帰的にスキャンして、指定されたフォルダ内のフォルダ構造を再作成し、リモートサーバからローカルマシン上の対応するフォルダにファイルをコピーしたいと思っています。

回答 (3)

9
9
9
2013-06-07 03:05:59 +0000

Webサイトから再帰的にファイルをダウンロードする最も簡単なユーティリティはWGETです。 http://gnuwin32.sourceforge.net/packages/wget.htm

5
5
5
2013-06-07 06:08:35 +0000

HTTrack ](http://www.httrack.com/)を使ってみてください。

インターネットからローカルディレクトリにWorld Wide Webサイトをダウンロードし、すべてのディレクトリを再帰的に構築し、HTMLや画像などのファイルをサーバからコンピュータに取得することができます。HTTrackは、元のサイトの相対的なリンク構造を整理します。ブラウザで “ミラーリングされた "ウェブサイトのページを開くだけで、まるでオンラインでそれを見ているかのように、リンクからリンクへとサイトをブラウズすることができます。HTTrackはまた、既存のミラーリングされたサイトを更新し、中断されたダウンロードを再開することができます。HTTrackは完全に構成可能であり、統合されたヘルプシステムを持っています。

5
5
5
2014-07-21 03:20:11 +0000

Firefox アドオン。DownThemAll!](https://addons.mozilla.org/en-US/firefox/addon/downthemall/)

Chrome拡張機能。GetThemAll](https://chrome.google.com/webstore/detail/getthemall-downloader/nbkekaeindpfpcoldfckljplboolgkfm?hl=en)

Chrome拡張機能: [ GetThemAll!