- ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:2万件のデータを最も高速に検索する方法)
2万件のデータを最も高速に検索する方法
このQ&Aのポイント
- 2万件の飲食店データを店名や住所で検索するWebサイトの構築を考えています。最も高速に検索する方法とは何でしょうか?
- データをテキストファイルにしてPHPやPerlのCGIで検索する方法や、データベース(PostgreSQL)からPHPやPerlのCGIで検索する方法などが考えられます。
- WEBサーバーの環境はLINUXでApacheを使用し、PerlやPHP、PostgreSQLも使用可能です。各方法の理由も教えてください。
- みんなの回答 (1)
- 専門家の回答
質問者が選んだベストアンサー
テキストファイルをサーチするより、データベース化した方が検索は格段に速いですよね。 アプリケーションの動作もPerlなどのCGIよりPHPの方が高速です。 よって、おすすめは3の「データベース(PostgreSQL)からPHPを記述して検索する」です。 2万件程度ならデータ量としては大したことありません。 10万件ほどのレコードを持つデータベースを検索するシステムをPHPとPostgreSQLで作ったことがありますが、検索時間はほとんどかかりません。全く問題ないと思いますよ。
お礼
非常にすばやい&的確な回答をありがとうございます。 希望の光が見えてきました。