• ベストアンサー

ホームページをローカルに丸ごと保存するソフト

ホームページの情報をとっておきたくて、いろいろホームページをキャプチャするソフトを試用してみました。 ですが、どうしてもうまくキャプチャできません。 波乗野郎 WebMGet PageDown GetHTMLW のフリー/シェアのソフトで試してみましたがどれもダメです。 原因を調べてみたところ、ページ内でJavaScriptを使って画面を出力しているからだということがわかりました。 フリー/シェア/商用問わず、このようなWebページもちゃんとキャプチャできるソフトをご存じでしたら教えてください。 よろしくお願いします。

質問者が選んだベストアンサー

  • ベストアンサー
  • usapy07
  • ベストアンサー率46% (931/1985)
回答No.4

おや?? http://www.nankankeiba.com/prg/prg20040621180301.html 試しに表示させてみましたが、 普通に ファイル→名前をつけて保存→Web アーカイブ、単一のファイル .mht で保存できますね。

その他の回答 (5)

  • usapy07
  • ベストアンサー率46% (931/1985)
回答No.6

補足: 具体的には ホームページをダウンロードするソフトに こんな機能の付いてるソフトなら可能な気がします。 窓の杜 - 【NEWS】ファイルの自動リネームソフト「ごっちゃまぜ」v0.1.0が公開 http://www.forest.impress.co.jp/article/2000/08/18/gotchamaze.html

  • usapy07
  • ベストアンサー率46% (931/1985)
回答No.5

これは階層構造が多層なのに付いてる名前が 全て「nankankeiba_com  出走表 」と なってしまうためにホームページを丸ごと ダウンロードするソフトでは上書きしまくって 結局何も保存できないというパターンなのでは? という感じがします。 ということは、、、 webページを保存する時に自動で連番を振って ファイルネームを付けてくれるタイプの ソフトであれば対応出来そうな気もしますが、 残念ながら私はそのようなソフトを知りません。 お力になれなくてゴメンナサイ。

  • usapy07
  • ベストアンサー率46% (931/1985)
回答No.3

>ざっと数えただけでも100ページ以上 多いですねぇ。 私が保存したのは22枚でした。 それでも途中で面倒くさくなって発狂寸前でした。 1日20枚程度にして1週間くらいかけて のんびり保存されてはいかがでしょう? Temporary Internet Files の中を探すときに、それらしい名前が ついていてくれれば見つけ易いのですが、 そうとも限りません。 Temporary Internet Files の中を探す前に一度 インターネット一時ファイルの削除をして 目的のページだけをIEで表示させると 多少負担が軽減されます。 私はまず、最終アクセス日時の順に並べ替えて 探します。 それでも見つからないときは、 インターネットアドレス順に並べ替えます。 ----------------- >自分でもいろいろ試してみます。 他に良い方法が見つかったら、 補足欄とかに書いて 是非私にも教えてください。 よろしくお願いします。

  • usapy07
  • ベストアンサー率46% (931/1985)
回答No.2

JavaScript、、、厄介ですよね、、。 私も保存するときには苦労しています。 私のやり方は超ローテクですが、 1.JavaScriptで出力されるページを一度IEで表示させる。 2.一旦IEを閉じる。 win2000なら、 C:\Documents and Settings\Administrator\Local Settings\Temporary Internet Files win98なら、 C:\WINDOWS\Temporary Internet Files にある、html と jpg をコピーして開く。 コピーしたときに jpgは 「~[1].jpg」 とかになってたら「~.jpg」にリネームすれば表示出来る。 開くのに成功したら「名前を付けて保存」で mht に、、、。 面倒ですが1枚1枚こうやって保存しています。

sen0120jp
質問者

お礼

usapy07さん、tukisakuraさん、大変貴重な助言いただきありがとうございます。 ここでまとめてお礼&報告をさせていただきます。 結論としては、問題は含んでいますが、やってできなさそうだと言うことはわかりました。 【方法1】 usapy07さんがNo.4でおっしゃっているように、全ページをmhtファイルで保存する。 ※メリット※ この方法が一番手軽で簡単ですね。 IEのテンポラリをいじくる必要がないぶん、手間は軽減できます。まあ、100ページぐらいならばぎりぎり許容範囲と言うところでしょうか。 【方法2】 WebSiteExplorer http://www.forest.impress.co.jp/lib/inet/websupt/webpilot/websiteexp.html というソフトを見つけました。 このソフトでサイトのファイルをフォルダ構造ごと丸ごとダウンロードしました。(全部で80MB程度) 中身を見ると、ページ内で使っているJavaScriptのソースファイル(JSファイル)もちゃんとダウンロードされています。 ですので、ローカルにBlackJumboDog等でWebサーバを建ててあげれば、まったく同じ画面が見れると言うことになります。 わざわざWebサーバを構築してまでやる必要があるかというとはなはだ疑問ですが(^^;、リクツではそうなります(まだそこまではやっていないですが) ※メリット※ Webサーバの構築の手間、ダウンロードに時間がかかるなどの問題はありますが、一度環境を構築してしまえば、次回からは作業が楽になります。 どちらの方法にしても「今一歩」感がぬぐえませんが、私の知識ではこれが精一杯ッス(^^; まあ、せっかくダウンロードしたことだし、時間と気合いがあるときにWebサーバ建ててみます。

sen0120jp
質問者

補足

なるほど。 IEのテンポラリを利用するというのは確実な方法ですね。 とはいえ、この方法だとページ数が多くなると非常に時間がかかってしまいます。 実際に保存したいのは、南関東4競馬の過去のレース成績ページ(http://www.nankankeiba.com/cgi-bin/pay/pay.cgi)以下のページなのですが、ざっと数えただけでも100ページ以上になってしまいます。 JavaScriptを使っている以上、JavaScriptを解釈できる何者かが間に介在しないとページを正しく構成できないわけで、そう簡単にはできないことはわかっているものの、なんとかならないかな~。 回答募集継続中ですが、usapy07様、大変参考なりました。 usapy07様のアイディアをもとに、自分でもいろいろ試してみます。

回答No.1

意図が違ってたら申し訳ないです。 キャプチャーというと画面コピー(画面保存)と考えていいのでしょうか?? 表示されたWebページ(HP)を画面取りしたいということでしようか?? もしくは…ホームページスペースに保存されたwebページのバックアップが欲しいという事でしょうか!! 1.キャプチャー(画面取り)されるのであれば、アクセサリにあるペイントでも出来ます。キャプチャーしたいWebページを開き、CTL+PrintScreenで画面コピーし、ペイントを起動させて貼り付け、保存でキャプチャー出来ます。(**.bmp,**.jpg,**.gif等) 2.バックアップを取りたい場合でしたら、転送ソフトを利用する方法があります。 いろいろな転送ソフトがありますが、FFFTPをご紹介します。(無料です) http://ftp.hm/ffftp/

sen0120jp
質問者

補足

> 表示されたWebページ(HP)を画面取りしたいということでしようか?? > もしくは…ホームページスペースに保存されたwebページのバックアップが欲しいという事でしょうか!! 最悪、画像のキャプチャでもいいですが、できればホームページスペースに保存されたWebページのバックアップ(HTML、JPG、CGI等の状態で)がほしいです。 > いろいろな転送ソフトがありますが、FFFTPをご紹介します。(無料です) そのサイトは、FTP(anonymous FTP)には対応してないようです。 それに、この方法だと、JavaScriptの画面が再現できないですよね?

関連するQ&A