- ベストアンサー
ホームページをローカルに丸ごと保存するソフト
ホームページの情報をとっておきたくて、いろいろホームページをキャプチャするソフトを試用してみました。 ですが、どうしてもうまくキャプチャできません。 波乗野郎 WebMGet PageDown GetHTMLW のフリー/シェアのソフトで試してみましたがどれもダメです。 原因を調べてみたところ、ページ内でJavaScriptを使って画面を出力しているからだということがわかりました。 フリー/シェア/商用問わず、このようなWebページもちゃんとキャプチャできるソフトをご存じでしたら教えてください。 よろしくお願いします。
- みんなの回答 (6)
- 専門家の回答
お礼
usapy07さん、tukisakuraさん、大変貴重な助言いただきありがとうございます。 ここでまとめてお礼&報告をさせていただきます。 結論としては、問題は含んでいますが、やってできなさそうだと言うことはわかりました。 【方法1】 usapy07さんがNo.4でおっしゃっているように、全ページをmhtファイルで保存する。 ※メリット※ この方法が一番手軽で簡単ですね。 IEのテンポラリをいじくる必要がないぶん、手間は軽減できます。まあ、100ページぐらいならばぎりぎり許容範囲と言うところでしょうか。 【方法2】 WebSiteExplorer http://www.forest.impress.co.jp/lib/inet/websupt/webpilot/websiteexp.html というソフトを見つけました。 このソフトでサイトのファイルをフォルダ構造ごと丸ごとダウンロードしました。(全部で80MB程度) 中身を見ると、ページ内で使っているJavaScriptのソースファイル(JSファイル)もちゃんとダウンロードされています。 ですので、ローカルにBlackJumboDog等でWebサーバを建ててあげれば、まったく同じ画面が見れると言うことになります。 わざわざWebサーバを構築してまでやる必要があるかというとはなはだ疑問ですが(^^;、リクツではそうなります(まだそこまではやっていないですが) ※メリット※ Webサーバの構築の手間、ダウンロードに時間がかかるなどの問題はありますが、一度環境を構築してしまえば、次回からは作業が楽になります。 どちらの方法にしても「今一歩」感がぬぐえませんが、私の知識ではこれが精一杯ッス(^^; まあ、せっかくダウンロードしたことだし、時間と気合いがあるときにWebサーバ建ててみます。
補足
なるほど。 IEのテンポラリを利用するというのは確実な方法ですね。 とはいえ、この方法だとページ数が多くなると非常に時間がかかってしまいます。 実際に保存したいのは、南関東4競馬の過去のレース成績ページ(http://www.nankankeiba.com/cgi-bin/pay/pay.cgi)以下のページなのですが、ざっと数えただけでも100ページ以上になってしまいます。 JavaScriptを使っている以上、JavaScriptを解釈できる何者かが間に介在しないとページを正しく構成できないわけで、そう簡単にはできないことはわかっているものの、なんとかならないかな~。 回答募集継続中ですが、usapy07様、大変参考なりました。 usapy07様のアイディアをもとに、自分でもいろいろ試してみます。