相对误差为什么这么算?测量一根标称值为10.2的棍子长度,得到的实际值是10.0.则相对误差为0.2/10.0*100%=2%.我不明白的是分母为什么是10.0,而不是10.相对误差的公式是测量误差除以测量真值,难道标称值不是真值而得到的实际值是真值吗?请懂的人指点我,非常感激!另外,请那些啥都不懂就知道乱复制粘贴的人自重,别找骂.

问题描述:

相对误差为什么这么算?
测量一根标称值为10.2的棍子长度,得到的实际值是10.0.则相对误差为0.2/10.0*100%=2%.我不明白的是分母为什么是10.0,而不是10.相对误差的公式是测量误差除以测量真值,难道标称值不是真值而得到的实际值是真值吗?请懂的人指点我,非常感激!另外,请那些啥都不懂就知道乱复制粘贴的人自重,别找骂.

这在计量学里是:标称值=示值 测量值=真值
相当:一个标称值为10.000V的电压源 它输出的电压我们认为它就是10.000,也就是说我们不用量也就知道了-它的电压为10.000
当用较高标准来量时为10.002时,这个才是它真实的输出电压