- ベストアンサー
WEBページ上のデータをデータペース化したい!
WEBページに掲載されている表のデータを取りこんで、エクセルなどでデータベース化したいのです。取りこみたいページ数が千ページ程あるのですが、(全ページとも表のフォームは同じです。)どなたか良いソフト、あるいは方法等お分かりでしたらご教授下さい。宜しくお願いします!
- みんなの回答 (4)
- 専門家の回答
質問者が選んだベストアンサー
WSHをでプログラムを書けばいいかな
その他の回答 (3)
- marimo_cx
- ベストアンサー率25% (873/3452)
プログラム書ける人だとしょろっと出来てしまうので、どうでしょう、 そのような物はちょっと心当たりありません、ゴメンナサイ。 # 汎用化が困難なので、フリーで作れないし……
お礼
いえいえこちらこそ無理難題でゴメンナサイ。自分で勉強!しかないですね。 ありがとうございます。
- mnabe
- ベストアンサー率33% (427/1283)
補足から... その様なソフトは、ないと思います。 ダウンロード結果を、HTML化するソフトは大量にありますが、Excel形式にしてくれるソフトはないと思います。 ご自分で作られるか、HTMLを使用するのがベストだと思います。
お礼
本当に皆様、回答くださってありがとうございます。なんとか勉強してみます。 お騒がせいたしました。
- marimo_cx
- ベストアンサー率25% (873/3452)
Excelって、html読み込めませんでしたっけ? それで余計な部分だけ削除するだけで良いと思いますよ? 1000ページという数はすごいですが、ガシガシやればいつ かは終わります。VBSで解決する方法もあるでしょうが。 ただ、1000ページもあってExcelで出来ますかね? 私ならPerlでcsvに変換してDBにぼこぼこ入れていくでしょ う。他にもやり方はありそうですが、最終形式に依存しそ うです。
お礼
さっそくのご回答、ありがとうございました。よく、WEBページを自動的にダウンロードするソフトがありますよね。それで取りこんだページをエクセルのマクロなどを使って自動的に取りこむ方法などないでしょうか?いろいろ挑戦しているのですが、なかなかうまくいかないのです。
お礼
あ、なんか私の欲しかったものに近いかも!(参考サイト拝見しました。) もう少しWSHについて勉強してみます。ありがとうございます!