• ベストアンサー
※ ChatGPTを利用し、要約された質問です(原文: 大量のレコードの中からデータ抽出する際にその抽出スピードを高速化させる方法は?)

大量データの高速な抽出方法とは?

このQ&Aのポイント
  • 大量のデータを高速に抽出する方法について、一般的なDB構造上の工夫や別のData Baseの利用方法について説明します。
  • データの抽出スピードを最適化するためには、DBの構造やインデックスの最適化が重要です。
  • また、データの分割や冗長化の削減などの方法も効果的です。

質問者が選んだベストアンサー

  • ベストアンサー
  • mld_sakura
  • ベストアンサー率20% (264/1282)
回答No.1

おっしゃるとおり、DBを分けてインデックスを貼る程度しかないと思いますが、数万から数十万にAccessがパフォーマンスを出せるとは思いません。 一般的にDBを見直す必要があるでしょう。 (例えば、OracleやMySQL、PostgreSQLなど)