From Friday, April 19th (11:00 PM CDT) through Saturday, April 20th (2:00 PM CDT), 2024, ni.com will undergo system upgrades that may result in temporary service interruption.

We appreciate your patience as we improve our online experience.



LabVIEW에서 소프트웨어 타이밍을 사용할 때 얼마만큼의 정확도를 얻을 수 있나요?



주요한 소프트웨어: LabVIEW Development Systems
주요한 소프트웨어 버전: N/A
문제가 해결된 소프트웨어 버전: N/A
부차적인 소프트웨어:

문제점: 저는 소프트웨어 타이밍 방법으로 데이터를 수집하고 있습니다. 일반적인 방법적 루프와 LabVIEW(또는 LabWindow CVI)의 타이머 함수를 사용하여 시간을 제어합니다. 루프의 타임은 제한은 1 ms로 고정되었지만 이보다 향상된 분해능을 얻을 수 있나요?

솔루션: LabVIEW 또는 LabWindows/CVI 타이머의 성능은 OS의 타이머에 의존합니다. 즉, 타이머의 해상도 역시 OS에 의존합니다. 아래는 가장 많이 사용되는 OS의 해상도 입니다.


예를 들어 윈도우즈 9x/NT OS의 경우 소프트웨어 타이머를 의존하는 작업은 +/- 1 ms 의 오차가 발생할 수 있습니다.

LabVIEW/LabWindows의 타이머 함수로 루프를 제어하고자 한다면 아래 내용을 참고해 주십시오. 윈도우즈 시스템에서는 여러개의 창이 동시에 수행되므로 CPU에 과다한 부하가 가해지면 현재 프로그램의 루프 타임이 가변할 수 있습니다.

그렇기 때문에 데이터를 수집할 때는 하드웨어 타이밍 방법을 권장합니다. 예를 들어, 하나의 채널을 매 1ms마다 스캔하고자 하며, 소프트웨어 타이밍 함수를 사용하는 대신, 하드웨어 보드의 Scan Rate를 1000 Samples/second로 설정할 수 있습니다. 이렇게 하면 1ms 당 한 개의 데이터를 입력 받습니다.

또는 LabVIEW Real-Time OS와 Real-Time 하드웨어의 사용을 권장합니다.

관련 링크:

첨부:





리포트 날짜: 08/11/1998
마지막 업데이트: 04/04/2003
문서 번호: 1CAEE34V