关于电流指针表计误差的计算问题
问题描述:
关于电流指针表计误差的计算问题
比如,校验电流表,其最大量程是100A,额定量程是80A,输入20.4A,其指针显示是20A,那它的误差是怎么计算?
一种是:(20.4-20)/20=2%;一种是:(20.4-20)/100=0.4%;还有种可能性不大:(20.4-20)/80=0.5%
我认为是第一种,但是我同事认为是第二种,请各位来探讨探讨那种计算方法正确
答
绝对误差=实际值-测量值
相对误差=(实际值-测量值)/实际值*100%
相对误差反映了测量的准确度.
引用误差=(实际值-测量值)/量程*100%
引用误差用来表达仪表的准确度,凡指针式仪表给出的准确度等级都是指引用误差
例如某电流表给出的准确度等级为0.5级,即它的引用误差为0.5%,它的物理意义是指在它的量程范围内的任何点,它测量的绝对误差不超过其量程的0.5%
因此,当被测量越接近其满量程,相对误差越小,测量准确度越高,反之测量准确度就越低.
这也就是我们平时在使用万用表时,当被测量较小时,要换档的原因.
一般,为了能达到合理的测量准确度,建议被测量应在量程的80%以上.
衡量测量的准确度时用“相对误差”
衡量仪表的准确度时用“引用误差”