- 締切済み
ホームページ巡回ソフト
ホームページ巡回ソフトを探しているのですが 以下のような機能を持ち合わせているものはありますでしょうか。 ・あらかじめ巡回するURLをテキストファイルに記述しておいて それに従って巡回して別ファイルに保存する。(html or txt) ・できればテキストファイルからではなく、連番部分を定義して その定義から自分でURLを生成しながら巡回する。 (http://www.test0001.com→http://www.test0002.com→・・・といった感じ) ・画像、リンク先保存、ローカルで見るためのリンクURL置換えなどは一切必要ない。(持っていなくてもいいし、OFFにできるものでもいい) 指定したページのテキスト情報のみを高速にダウンロードする。 ・URL一つ一つに1ファイルでもいいし、1つのファイルに追記方式でテキストを次々と追加していく形でもOK ・フリー、もしくは試用期間付きのシェアウェア (ただし機能制限中でも今回の機能が実現できる) ・巡回するページはJavaやフラッシュが使われているものではない。 心当たりがあれば教えていただけると助かります。 以上、よろしくお願いいたします。
- みんなの回答 (2)
- 専門家の回答
みんなの回答
自分ならfirefoxで urlリストのテキストをbookmarkに変換するものを作成し取込み フォルダをタブで開く で全オープン おわり かな。 というか巡回用のフォルダを作ってブックマークを移して行くだけで巡回するときはフォルダをタブで開けば良いだけだからリスト作る方が手間
- koko_u_
- ベストアンサー率18% (459/2509)
簡単なところで wget -r -nc -i file とか?(まぁ連番は予めスクリプトで生成するとして。) (以下どうでもいいこと) 昔はダイアルアップ回線だったから Web サイトの巡回ソフトもそれなりに需要があったけど最近はめっきりですね。 いまだに使うのは、何かのマニュアルが Webサイトにしかなくて、しかも PDF 形式でズラズラ載せてあるようなケースくらいかなぁ。
お礼
回答ありがとうございます。 コマンドベースでもWebページダウンロードはできるんですね。 早速http://members.at.infoseek.co.jp/futora/wget153/から ダウンロードして使ってみました。 wget http://www.yahoo.co.jpやwget http://www.google.com であればうまく保存できるのですが私が保存したいのは 情報がデータベース化されたホームページで http://www.database.com/infoid?search=12345 http://www.database.com/infoid?search=12346 といったようなURLアドレスになり、こういったものをダウンロード しようとするとinfoid?search=12345: Invalid argument と表示されてダウンロードが正常に行われません。 今回のような多少特殊なアドレスの場合、どのようにすればよいか 分かりますでしょうか。よろしくお願いいたします。
お礼
ダウンロードしたいページは何百万とあるので一度にオープンするのは 厳しいのかなと思っています。HDD容量はたくさんあるのですが、 メモリはそれほど積んでいないので... できればテキストやツールで直接ファイルへと落とせるツール、コマンドを探しています。 ファイルもURLファイルではなくテキストファイルとなるなら1ファイル あたりのサイズが減るので非常にいいと思っています。