정확도와 해상도의 비트간의 차이점



하드웨어: Multifunction DAQ (MIO)>>M Series

문제점:

ADC가 들어있는 DAQ 카드를 가지고 있습니다. 이 DAQ의 코드폭을 다음 공식을 사용하여 계산했습니다.

코드폭 = 측정 범위 / Gain*(2^Resolution in Bits)

이 코드폭이 현재 가지고 있는 ADC가 측정 가능한 가장 작은 변화를 결정합니다. 그래서 이 코드폭에 의해 측정 불가능한 허용 오차만 발생할 것으로 예상했습니다. 하지만 실제로 측정해보면 코드폭 오차를 넘는 오차가 발생하는데 왜그런 것입니까?



솔루션:

코드폭은  DAQ 카드의 절대 정확도에 영향을 미치는 유일한 변수는 아닙니다. 코드폭은 PC로 전달되기 전에 ADC가 얼마나 정밀히 아날로그 신호를 디지털로 변환할 수 있는지를 의미합니다.

하지만 ADC에서 신호를 받기 전에 몇 가지 옵션들이 정의되어야 합니다.

아래에 보이는 M 시리즈 DAQ 유저 매뉴얼에 있는 하드웨어 모델을 보면 어떻게 동작이 되는지 볼 수 있습니다.



ADC를 포함하여 모든 위의 구성 요소들이 이득 에러, 오프셋 에러, 시스템 노이즈, 신호의 온도 드리프트 같은 현상으로 실제 측정에 영향을 줄 것입니다. 그렇기 때문에 장치의 절대 정확도 결과는 카드를 사용하는 환경에 따라 달라질 것입니다.

예상되는 노이즈를 계산하기 위한 공식은 아래와 같습니다 :

절대 정확도 = ±((입력 전압* % of reading) + 오프셋시스템 노이즈 + 온도 드리프트

이 공식은 제품의 제품 사양 및 데이터 시트에서 볼 수 있는 참조 가능한 많은 입력이 필요합니다. 일부 데이터 시트는 다양한 동작 환경에 대한 절대 정확도가 미리 계산되어 있는 경우도 있습니다.


정확도에 관해 더 많은 정보를 알고 싶다면 아래 관련 링크들을 참고하시기 바랍니다.



관련 링크: KnowledgeBase 2X4HGEBG: How Do I Calculate Absolute Accuracy or System Accuracy?
White Paper: Understanding Instrument Specifications -- How to Make Sense Out of the Jargon

첨부:


M_series.GIF - M_series.GIF



리포트 날짜: 09/14/2005
마지막 업데이트: 01/11/2015
문서 번호: 3PD0S4DI