基准电压的误差会引起ADC的输出值的误差是怎样计算的?

2020-01-04 18:48发布

我现在使用的ADC是18位的ADI公司的AD7690,它有误差INL最大值是+-2LSB,基准源是ADI公司的ADR435B,ADR435B理论输出误差是+-2mV。
现在将输入范围设定为+-5V,那么AD7690的分辨率是38.15uV为1LSB。
这样的情况下,基准源会使AD7690的输出值的偏差会是多少个LSB呢?如何计算呢?

友情提示: 此问题已得到解决,问题已经关闭,关闭后问题禁止继续编辑,回答。
该问题目前已经被作者或者管理员关闭, 无法添加新回复
3条回答
albert_w
1楼-- · 2020-01-04 18:58
这个不能用LSB来衡量吧,应该是当前读数的百分比. 读数最大的时候,可能误差2mv
query88
2楼-- · 2020-01-04 20:43
本帖最后由 query88 于 2012-5-30 11:04 编辑

比如:AD7690的输入差分电压差值是1V,那么如果基准电压是5.000V的话,【2的18次方是262143】ADC值=(1/5.000)*262143=52428.6;如果 基准电压是4.998V的话ADC值=(1/4.998)*262143=52449.58,误差值就是20.98; 如果 基准电压是5.002V的话ADC值=(1/5.002)*262143=52407.63,误差值就是-20.96,

对不对啊?请高手指点啊
llww30402048
3楼-- · 2020-01-04 21:04
 精彩回答 2  元偷偷看……

一周热门 更多>