Hallo Community, ich habe eine Frage zur Auswertung eines Signals am Ausgang eines AD-Wandlers. Die benutzte Wandler-Karte ist NI-PCI-6221. Die maximale Präzision ist laut Datenblatt 3,1mV im benutzten Spannungsbereich. Ich habe ein Signal der über 200ms mit dieser Karte aufgenommen wurde (siehe Anhang). Jetzt möchte ich gern die Amplitude des Signals +/- Fehler angeben. Dazu bilde ich einen Mittelwert des Signals über 40000 Punkte (200ms @200kHz Abtastrate) und gebe die Standartabweichung an -->30mV+/-0,19. Wie rechne ich aber die Präzision des Wandlers ein? Wahrscheinlich ist das ganz einfach, aber ich stehe momentan völlig auf dem Schlauch. Vielen Dank schon mal Grüße Max
Kurze Korrektur: der Mittelwert ist natürlich nicht 30mV sondern 28,4mV. Die Daten aus der Einschwingzeit wurden nicht berücksichtigt.
Hm, hab mal kurz die Spezifikationen überflogen - wo steht denn was von 3,1 mV? Das wären schon mehr als 10% der erfassten 28,4 mV. Ich kenne die Standardabweichung als Maß für die Streuung von Messergebnissen um den Mittelwert oder auch um den Sollwert. Wenn es nur auf die Stabilität (!) oder Reproduzierbarkeit der 28,4 mV ankommt, sind die +/-0,19 mV vielleicht ein schönes Ergebnis. Wenn es auf die absolute Genauigkeit (!) der 28,4 mV ankommt, sind eben zusätzlich +/-3,1 mV Unsicherheit anzugeben. 1) stimmt dieser riesige Fehler? 2) lässt er sich auf kleinere Werte abgleichen?
16-Bit bei ±10V ergeben (theoretisch) eine Quantisierung in ca. 305µV-Schritten. Was auch immer NI mit den Angaben von "Maximale/Minimale Präzision im Spannungsbereich" meint, sei dahingestellt. Mit solchen Angaben kann man meiner Meinung nach absolut nichts anfangen! Ein INL- und DNL-Error des ADCs und evtl. noch Gain und/oder Offset-Drift wäre da aussagekräftiger. Außerdem hat die Karte wohl noch einen PGA mit vier Verstärkungsfaktoren, über die aber in der Übersicht nichts weiter verlautet wird. Damit grenzt man mit Verstärkungen >1 den möglichen Eingangsspannungsbereich ein, und erhält dadurch eine höhere Auflösung - zu Lasten des SNRs (S_ignal-to-N_oise-R_atio). Eine ENOB-Angabe (E_ffective N_umber O_f B_its) hat NI ebenfalls nicht gemacht. Mit 3100µV als "Maximale Präzision im Spannungsbereich" muß man sich nur mal vor Augen führen, daß dies immerhin 10 Digits der Quantisierungsstufe entspricht - ein in meinen Augen 'grotten-schlechter' Wert. Aber solange NI nicht genau preisgibt was sie damit im Detail meinen, kann dies auch ein durchaus akzeptabler Wert sein. :lol:
Hallo, zu beachten ist, dass die Karte einen per Software konfigurierbarer Verstärker hat. Wird dieser auf +- 0,2 Volt Spannungsbereich geschaltet - ist die Auflösung besser. Also im DAQ-Assistent den kleinsten Spannungbereich auswählen. siehe auch: http://sine.ni.com/ds/app/doc/p/id/ds-15/lang/de
@Max: Okay - aber es wird ganz sicher nur die Auflösung besser, nicht aber die Genauigkeit!
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.