精度とビット分解能の違いについて



ハードウェア: Multifunction DAQ (MIO)>>M Series

問題:
ADC が搭載されているデータ集録ボードを使用しております。仕様書に記載がある分解能を元に下記の式でコード幅を求めました。

コード幅 = レンジ / ゲイン * (2^分解能)

上記の式で求められたコード幅がこのボードに搭載されている ADC が測定できる最小変化だと思いますが、実際の収録を行うと検出できる電圧の最小変化がコード幅許容誤差の範囲外です。何か原因があるのでしょうか?



解決策:
コード幅だけが DAQ ボードの絶対精度に影響を与える指標ではありません。コード幅はアナログデジタル変換器( ADC )がどの程度正確にアナログ信号をデジタル信号に変換して PC に渡すことが可能であるかを示す指標になります。
しかしながらアナログの電気信号が ADC に渡される前に幾つかの電気的な処理が必要になります。

これらの電気的な処理が DAQ ボードの中で行われております。下図の様な DAQ ボードのハードウェアモデルは M シリーズマニュアルをご確認ください。

現実世界の振る舞いとして、ADC を含んだこれらすべての電気回路は DAQ ボードのシステムの精度としてゲインエラー・オフセットエラー・システムノイズ・温度ドリフトとして信号に現れてきます。したがって実際にボードを使用する上での絶対確度はデバイスをご使用いただく環境に依存します。

下記の式はデバイス使用時に予期できるノイズを求めることが可能です。

絶対確度 = ±((入力電圧 * 読み取り% ) + オフセット システムノイズ(量子化など) + 温度ドリフト

この式で必要なパラメータは各デバイスのデータシートもしくはマニュアルに表で記載があります。またデバイスによってはデータシートに様々な環境での絶対確度の値が記しているものもあります。

より詳細な情報に関しては下記のリンクをご参照ください。



関連リンク:

KnowledgeBase 2OQ524Q8: 相対確度と絶対確度の違い
KnowledgeBase 2X4HGEBG: How Do I Calculate Absolute Accuracy or System Accuracy?
Developer Zone Tutorial: Data Acquisition Fundamentals
Developer Zone Tutorial: Understanding Instrument Specifications -- How to Make Sense Out of the Jargon



添付:


M_series.GIF - M_series.GIF



報告日時: 09/14/2005
最終更新日: 10/25/2010
ドキュメントID: 3PD0S4DI