万用表的精度误差是怎么计算的

万用表的精度误差是怎么计算的
    万用表精度就是指在特定的使用环境下,出现的*大允许误差。换句话说,精度就是用来表明数字多用表的测量值与被测信号的实际值的接近程度。
对于数字多用表来说,精度通常使用读数的百分数表示。例如,1%的读数精度的含义是:数字多用表的显示是100.0V时,实际的电压可能会在99.0V~101.0V之间。
    还有一些在详细说明书中可能会有特定数值加到基本精度中。它的含义就是,对屏幕显示的*右端进行变换要加的字数。在前面的例子中,精度可能会标为±(1%+2)。因此,如果表的读数是100.0V,实际的电压会在100.0+(100×1%+0.2)到100.0-(100×1%+0.2),就是98.8V~101.2V之间。

声明:本站部分文章内容及图片转载于互联 、内容不代表本站观点,如有内容涉及侵权,请您立即联系本站处理,非常感谢!

(0)
上一篇 2018年7月21日
下一篇 2018年7月21日

相关推荐