• ベストアンサー

デジタルテスターの精度の意味

デジタルテスターの「±2.3%rdg±6dgt」こういう精度の表示って、どういう意味なのでしょうか??

質問者が選んだベストアンサー

  • ベストアンサー
回答No.1

rdgは、readingの略で、読み値、表示値の誤差です。「±2.3%rdg±6dgt」のテスターでは、読み取り誤差がフルスケール(最大測定レンジ)に対して、±2.3%の誤差があります。(100±100×0.023) dgtは、digitの略で、分解能、表示している最小桁の誤差です。デジタルテスターの内部には、A/Dコンバータがあり、クロックでカウントする際、何かの拍子に、カウントがずれることがあります。±6dgtのテスターでは、表示されている最小桁には、±6だけデジット誤差が加算されます。 例 100.0Vのとき、±2%rdg±6dgtでは、 リーディング誤差は、98.0V ~102.0V デジット誤差を加算すると、97.4V~102.6Vの誤差があることになります。

参考URL:
http://www.hozan.co.jp/support/faq_sokutei.htm
noname#43437
質問者

お礼

なるほど! よく理解できました。丁寧な解説ありがとうございます!

その他の回答 (1)

  • foobar
  • ベストアンサー率44% (1423/3185)
回答No.2

「±2.3%rdg±6dgt」の場合には、 読み取った(reading)(表示されている数値)の2.3%+最小表示桁の6 (例えば 100.0Vと表示されたら、表示値の2.3%(2.3V)+0.6 で2.9Vが許容誤差になるかと。) フルスケールの**%で誤差を規定しているときには **%fsとか**% f.s. というふうに表示されていると思います。