Morgen!
Ich habe ien Problem mit meinem ADC. (MAX11206)
Ich lese zu Testzwecken verschiedene Spannungen ein.
1 | Vref = 3.3V
|
2 | 20 Bit unipolare Messung gegen GND (1048576 Werte)
|
3 |
|
4 | Rechnung: Spannung = ((3.3V * ADC-Wert) / 1048576)
|
Ich habe sogar schon die Referenz gepuffert - der Eingang hat eh nen
Impedanzwandler.
1 | U[mV] (eingestellt) | U[mV] (ausgegeben) | Diff. U [mV] | Delta U [mV]
|
2 | ----------------------------------------------------------------------
|
3 | 63 | 42 | 21 |
|
4 | 125 | 83 | 42 | 21
|
5 | 250 | 167 | 83 | 41
|
6 | 500 | 333 | 167 | 84
|
7 | 750 | 500 | 250 | 83
|
8 | 1000 | 667 | 333 | 83
|
9 | 1500 | 1000 | 500 | 167
|
10 | 2000 | 1334 | 666 | 166
|
11 | 3000 | 2002 | 998 | 332
|
So...guckt man sich den Fehler an, um den der ADC stets daneben liegt,
so ist dieser stets konstant. Eine Verdoppelung der Eingangsspannung
bewirkt eine Verdoppelung des Fehlers.
Aber: WIESO????? Wokann ich den Fehler suchen?
Der ADC hat ein paar Register für Offset / Gain Calibration, aber diese
benutze ich nicht. Wenn ich diese Register auslese, dann sind die Bits
für die Korrektur auch nicht gesetzt - sonst hätte ich verstehen können,
dass der ADC vielleicht immer einn Offset abzieht. Aber selbst wenn dem
so wäre, dann müsste zusätzlich noch irgendwas im PGA-Register sein, um
den Fehler weiter zu verstärken - aber auch dieses Register steht auf
'0'.
Hat einer einen Tip für mich zur Fehlersuche?