Hallo liebe Spezialisten! Vorgeschichte: Ich habe vor mir ein Multimeter zu bauen. Ich sehe vor meinem geistigen Auge schon die entsetzten Blicke. :) Aber keine Sorge, ich gehöre nicht zu der Kategorie von Hobbybastlern die ein 6-1/2 stelliges DMM mit einem Arduino, zum Preis einer Packung Äpfel, bauen möchte. Ich selbst bin Industrieelektroniker und mache hauptsächlich SPS-Programmierung. Es geht mir mehr um den Erkenntnisgewinn und den Spaß an der Freude. Nachdem ich mich auch ausgiebig mit der Serviceanleitung meines Philips PM2527 befasst habe war mein Interesse geweckt. (Auch optisch ein schönes Gerät, das Auge misst mit) Nachdem ich mich nun schon ausgiebig mit ADC's, Kalibrierung, Genauigkeit aus anderen Quellen beschäftigt habe sind mir durchaus schon ein paar einleuchtende Erkenntnisse untergekommen. Mir ist der Unterschied zwischen Auflösung und Genauigkeit bewusst. Ebenso habe ich mich mit Datenblättern und App-Notes von ADC's befasst und kenne auch die Unterschiedlichen Fehlerarten welche die Genauigkeit der Wandlung beeinflussen. Allerdings gibt es auch Punkte die noch nicht zufriedenstellend geklärt sind. Deshalb zu meiner Frage. Die Frage/Das Problem: Mein Verständnisproblem liegt in der insgesamten Genauigkeit des ADCs. Wie wird zum Beispiel die Genauigkeit von z.B. DC Spannungsmessbereichen bei DMM's bestimmt? Klar ist das alle Fehler vom analogen Front-End mit Verstärker, Abschwächer bis zum digitalen Wert einfließen so weit so gut. Wenn ich jetzt nur den ADC betrachte gibt es ja Offset-Fehler, Gain-Fehler, DNL- und INL-Fehler und den Quantisierungsfehler zusätzlich dazu kommt der Fehler der durch die Referenz (inkl Rauschen) erzeugt wird. 1. Angenommen ich habe einen Kalibrator dann kann ich doch eigentlich alle Fehler die statisch sind rauskalibrieren. Sprich Gain-, Offset- und Referenzfehler. Das würde bedeuten das einzige was meine Genauigkeit begrenzt ist das Rauschen der Eingänge, der Referenz, der INL und DNL und der Quantisierungsfehler? (Mal abgesehen von einer Linearisierung per Kurvenzug und dynamischen Drift wie Alterung und Temperatur und vorausgesetzt man hat eine entsprechend genaue Kalibriermöglichkeit). Sehe ich das Richtig? Das würde bedeuten das der absolute Spannungswert einer Referenz eher untergeordnet ist. Wichtiger wäre das Rauschen und die Stabilität der Referenzspannungsquelle. 2. Ebenso wäre es doch auch wenn man das Komplette System von der Messbuchse bis zum ADC betrachtet. Statische Fehler können eigentlich immer mit einer Kalibrierung ausgeglichen werden. Das heißt die Genauigkeit ist nur so gut wie die Gesamtzahl der nichtlinearen Fehler im Aufbau und die Genauigkeit der verwendeten Kalibrierquelle. 3. Wie stellen Hersteller wie Agilent oder Keithley die Genauigkeiten fest. Sind das Werte die anhand der Schaltung errechnet werden und nach Entwicklung eines Prototyps validiert werden? Ich glaube das reicht für den Anfang. Ich wünsche euch schon mal ein schönes Wochenende.
:
Verschoben durch Moderator
Manuel F. schrieb: > 1. Angenommen ich habe einen Kalibrator dann kann > ich doch eigentlich alle Fehler die statisch sind > rauskalibrieren. Theoretisch ja. > Das würde bedeuten das der absolute Spannungswert > einer Referenz eher untergeordnet ist. In gewissen Grenzen -- ja. > Wichtiger wäre das Rauschen Rauschen spielt i.d.R. aufgrund der integrierenden Arbeitsweise des A/D-Wandlers kaum eine Rolle. > und die Stabilität der Referenzspannungsquelle. Richtig. > 2. Ebenso wäre es doch auch wenn man das Komplette > System von der Messbuchse bis zum ADC betrachtet. > Statische Fehler können eigentlich immer mit einer > Kalibrierung ausgeglichen werden. Richtig. Deswegen sind in der Praxis die Drifteinflüsse bzw. die Querempfindlichkeiten der begrenzende Faktor: Abhängigkeit von der Höhe der Betriebsspannung, von der Umgebungstemperatur, von der Kühlung. Alterung der Referenz, der verstärkungsbestimmenden Widerstände, elektromagnetische Einstreuungen, mit viel Pech parasitäre Photo-Effekte an pn-Übergängen, Temperatur- spannungen, mechanische Spannungen. > Das heißt die Genauigkeit ist nur so gut wie die > Gesamtzahl der nichtlinearen Fehler im Aufbau und > die Genauigkeit der verwendeten Kalibrierquelle. Jein -- siehe oben. Als Wandler werden i.d.R. Prinzipien mit inhärenter Linearität bevorzugt, d.h. integrierende Wandler mit der Zeit oder der Frequenz als Zwischengröße. Normalerweise ist die Stabilität das Problem -- je länger der Zeitraum, desto schlimmer. > 3. Wie stellen Hersteller wie Agilent oder Keithley > die Genauigkeiten fest. Weiss ich nicht verbindlich. > Sind das Werte die anhand der Schaltung errechnet > werden und nach Entwicklung eines Prototyps validiert > werden? Mindestens. Fehlerrechnung beim Entwurf ist natürlich Pflicht, qualitätssichernde Tests vor und während der Produktion sicherlich auch. Bei Bedarf bekommt man auch zu jedem einzelnen Gerät einen Kalibrierschein. > Ich glaube das reicht für den Anfang. Ich wünsche euch > schon mal ein schönes Wochenende. Ebenso.
Manuel F. schrieb: > Die Frage/Das Problem: Mist, zu spät gesehen: Falsches Unterforum. "Bitte hier keine Fragen posten!"
Egon D. schrieb: > "Bitte hier keine Fragen posten!" Ein Moderator wird das sicher gerne verschieben. Zur Frage. Die von dir erwähnten Fehler sind nicht notwendigerweise statisch. Zum Beispiel, je höher die Auflösung und Genauigkeit des Geräts werden soll, desto wichtiger wird das Driftverhalten (Kurz- und Langzeit) und die Kompensation der Drift der Bauelemente und -gruppen. Solange die stabil sind kann man den Rest "rauskalibrieren" (justieren). Wenn du ein Multimeter bauen möchtest, dann kann ich nur raten hab Spaß und bau mehrere. Fang mit was Einfachem an. Da sind die Teile preiswert und du bekommst ein Gefühl dafür. Leider bekommt man keine wirklich guten analogen Messwerke mehr (billiges Zeug gibt es noch). Denn eigentlich macht der Selbstbau eines einfachen FET-Multimeters auch Spaß. Daher würde ich sagen fang mit was Digitalem an. Das du mit einem Selbstbau preislich kein kommerzielles Gerät schlagen kannst ist dir vermutlich klar. Die Zeiten sind lange vorbei. Leseempfehlungen: Hier ist was man so in der Spitzenklasse treibt https://www.ohwr.org/project/opt-adc-10k-32b-1cha/wikis/home Open Source, deine Steuergelder bei der Arbeit, für wenn du mal am CERN Large Hadron Collider lästigen Nuklearteilchen beim Spielen zusehen musst :) Schon eher Selbstbau-Mittelklasse Beitrag "Projekt DVM 4,5 Digit aus Standardbauteilen mit automatischer Bereichsumschaltung" Trotz seines Alters kann man aus dem 7135 einiges rausholen. Er ist auch sehr einfach mit einem Mikrocontroller steuer- und auslesbar. Die Schaltungen im Datenblatt übertreiben beim Mikrocontroller-Anschluss. Statt dessen einfach Anzahl der Takte zählen solange BUSY High ist, 10001 abziehen -> Messwert. Den Takt kann man vom Mikrocontroller erzeugen lassen. Das macht das Taktzählen noch einfacher. Wem der ICL7135 zu alt ist, man findet aktuelle Multimeter-ICs in unbekannter Qualität auf Aliexpress. Alledings zuerst mal googeln ob man ein Datenblatt dazu findet. Es gibt auch Bausätze. Die die ich kenne sind Müll. Zeug wie https://www.aliexpress.com/item/32908620132.html (4x so teuer wie das Fertiggerät) oder (analog) https://de.aliexpress.com/item/32910142494.html https://www.renesas.com/www/doc/application-note/an028.pdf Hier treffen sich die Verrückten https://lists.febo.com/mailman/listinfo/volt-nuts_lists.febo.com
Am hilfreichsten wuerde es wohl sein, mit einem "Einbereich"-Digitalvoltmeter mit einem 24 bit ADC zu beginnen. Das hat zwar z.B. nur einen Bereich von 0 bis 16.777215 V aber eine Aufloesung (nicht Genauigkeit) von 1 uV. Dort kannst du dann umfassend die Probleme kennenlernen die praezise Messtechnik bereiten kann. Solch ein Geraet vermittelt aber bei Messungen und der Fehlersuche in anderen Geraete viel Spass, die durch die hohe Aufloesung moeglich wird.
Erst einmal danke für die ausführlichen Antworten. Die Links scheinen sehr interessant zu sein. Danke für die Hinweise. Ich werde mir das die nächsten zwei Tage Mal in Ruhe zu Gemüte führen. Egon D. schrieb: > Mist, zu spät gesehen: Falsches Unterforum. > "Bitte hier keine Fragen posten!" Oh Entschuldigung das habe ich wohl überlesen. Michael Gugelhupf schrieb: > Das du mit einem Selbstbau preislich kein kommerzielles Gerät schlagen > kannst ist dir vermutlich klar. Die Zeiten sind lange vorbei. Das ist mir vollkommen klar. Ich denke ich bin messtechnisch gut aufgestellt. Von daher besteht da auch keine Notwendigkeit. Michael Gugelhupf schrieb: > deine Steuergelder bei der Arbeit, für wenn du mal am CERN Large Hadron > Collider lästigen Nuklearteilchen beim Spielen zusehen musst Für so eine ausgepuffte technische Spielerei wie dem LHC knappse ich gerne was von meinem sauer verdienten Geld ab. :) Ich unterstütze auch kicad gelegentlich finanziell welches ja vom CERN mitentwickelt wird. Larry schrieb: > Dort kannst du dann umfassend die Probleme kennenlernen die praezise > Messtechnik bereiten kann. Das stimmt wohl ich habe schon des öfteren Teardown Berichte und Videos gesehen. Es ist gigantisch was da für Aufwand betreiben hat um das letzte bisschen Genauigkeit herauszuholen. Alleine schon wenn Platine eingefräst werden um mechanische Spannung und damit einen Piezoeffekt auf Bauteile zu minimieren. Alleine in meinem Philips Tisch DMM wurde viel Aufwand mit Digital IC's betrieben für die Messbereichsumachaltung und Anzeige der Messwerte. Das wäre dann die zweite Stufe meines Projekts. Heute ist das ja alles mit Microcontrollern lösbar. Und auf Grund der Möglichkeit kann man sich da mit Sicherheit kaputt spielen. Ich denke es werden später bestimmt noch ein paar Fragen auftauchen mit denen ich mich wieder vertrauensvoll an das Forum wenden werde. Bis dahin wünsche ich euch erstmal alles Gute. Genug Lesestoff habe ich ja jetzt erstmal.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.