- 締切済み
googleで検索したサイトのURLの機械的に収集して保存する方法
googleで検索する時に、検索結果として出てくるサイトのURLをプログラミングなどで、機械的に収集する方法を教えてほしいのですが、ご存知の方はいらっしゃるでしょうか? Linuxのシェルプログラミングでw3mを用いて、やろうとしたのですが、できませんでした。 あと、google web APIsを使った方法があるとわかったのですが、一日に1000回という制限があるらしく、他の方法があればと思い、質問させていただきました。 何かご存知の方、よろしくおねがいします。
- みんなの回答 (1)
- 専門家の回答
みんなの回答
- pipipi523
- ベストアンサー率40% (148/365)
回答No.1
Linuxならperlで処理すれば可能だと思います ↓perl httpで検索して出てきたURL http://x68000.q-e-d.net/~68user/net/ この辺りを見ながら作ってみてはどうでしょう