• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文:2万件のデータを最も高速に検索する方法)

2万件のデータを最も高速に検索する方法

このQ&Aのポイント
  • 2万件の飲食店データを店名や住所で検索するWebサイトの構築を考えています。最も高速に検索する方法とは何でしょうか?
  • データをテキストファイルにしてPHPやPerlのCGIで検索する方法や、データベース(PostgreSQL)からPHPやPerlのCGIで検索する方法などが考えられます。
  • WEBサーバーの環境はLINUXでApacheを使用し、PerlやPHP、PostgreSQLも使用可能です。各方法の理由も教えてください。

質問者が選んだベストアンサー

  • ベストアンサー
  • maro
  • ベストアンサー率47% (95/199)
回答No.1

テキストファイルをサーチするより、データベース化した方が検索は格段に速いですよね。 アプリケーションの動作もPerlなどのCGIよりPHPの方が高速です。 よって、おすすめは3の「データベース(PostgreSQL)からPHPを記述して検索する」です。 2万件程度ならデータ量としては大したことありません。 10万件ほどのレコードを持つデータベースを検索するシステムをPHPとPostgreSQLで作ったことがありますが、検索時間はほとんどかかりません。全く問題ないと思いますよ。

niitan
質問者

お礼

非常にすばやい&的確な回答をありがとうございます。 希望の光が見えてきました。

関連するQ&A