Forum: Mikrocontroller und Digitale Elektronik Fehlertoleranzsummierung


von QS (Gast)


Lesenswert?

Hallo,

ich habe mal eine Frage bzgl. Fehlertoleranzsummierung.

Wenn ich zwei Maße habe, die jeweils einer Toleranz unterliegen, ist das 
aus beiden Bauteilen zusammengesetzte Werkstück dann mit der Summe der 
Fehlertoleranzen behaftet, oder geht die Summe nur unterhalb der Wurzel 
ein?

Klar ist, dass in einer Worst-Case Betrachtung natürlich die Summe 
zweier Toleranzen aufaddiert werden müssten, gleichzeitig erachte ich 
dieses Verfahren aber als problematisch, weil die Hersteller ja (von 
Zapfsäulenoutput abgesehen) durchaus bemüht sind, ihre Produkte auf das 
Nennmaß aus zu legen und somit das tatsächliche Eintreffen eines 
Worst-Case mit der Anzahl der Komponenten unwahrscheinlicher wird.

Addiere ich also zwei gleichartige Längenmaße, dann mag wohl für jeden 
einzelnen ein Ausschlag in Richtung einer der Toleranzgrenzen erfolgen, 
jedoch ist die Wahrscheinlichkeit, dass das Gesamtprodukt mit der 
doppelten positiven Fehlertoleranz behaftet ist, ja nur bei 1/4, 
gleiches auch für die negative Fehlertoleranz und schlussendlich die 
Wahrscheinlichkeit eines maßhaltigen Endproduktes bei 1/2, da sich die 
Fehler eben jeweils weg nivellieren können.

Ich stelle diese Frage deshalb, weil unsere QS-Abteilung genau einen 
Fall kennt, und das ist der Worst-Case, ungeachtet dessen, dass dieser 
Fall meiner Ansicht nach desto unwahrscheinlicher wird, je mehr Bauteile 
beteiligt sind.

von Klaus W. (mfgkw)


Lesenswert?

Der worst case-Fall heißt ja nicht so, weil er der wahrscheinlichste 
Fall wäre.

Irgendwie kann ich mit der Frage jetzt nicht viel anfangen.
Bei vielen erzeugten Teilen werden auch ein paar unwahrscheinliche dabei 
sein. Will man die ausschließen, hilft die Argumentation nicht, daß es 
ja meistens gut geht.

Wenn du andererseits damit zufrieden bist, daß es möglicherweise nicht 
so schlimm kommt, sollte man vielleicht nicht von QM reden.

von QS (Gast)


Lesenswert?

Das Problem ist, dass die QM sich wie die ungekrönten Könige benehmen, 
aber Stichwörter wie Auftretenswahrscheinlichkeit nicht zu kennen 
scheinen.

von QS (Gast)


Lesenswert?

Achso, und damit der Bezug zur Wahrscheinlichkeit vielleicht etwas 
klarer wird, das konkrete Problem:

Es geht darum, wie Testgrenzen aus zu legen sind.


Die Prüfgeräte besitzen eine gewisse Toleranz.
Vor der eigentlichen Messung wird kalibriert.
Nun werden viele hundert Prüflinge geprüft und die Ergebnisse 
dokumentiert.

Es ergibt sich ein Häufigkeitsdiagramm.
Ganz links sind wenige, ganz rechts sind wenige, in der Mitte sind die 
große Mehrzahl der Prüflinge.

Was macht nun unsere QS?
Sie sagt: Die Messergebnisse unterliegen der Worst-Case-Betrachtung, 
d.h. die gesamte Verteilung wird nach links verschoben, und zwar nicht 
um die einfache Messtoleranz, nein um die doppelte, denn es könnte ja 
obendrein sein, dass sich in unserem Labor gerade die positive 
Ungenauigkeit gezeigt hat, hingegen im Referenzlabor des später 
prüfenden Instituts sich die negative Messtoleranz offenbart...

von QS (Gast)


Lesenswert?

Somit ist die Folge:

Die Messverteilung über viele Hundert Prüflinge wird nicht vertraut und 
Gerätetoleranzen werden zweimal gegen einen verwendet.
Ich erachte das einfach als grundlegend falsch.

von Achim H. (anymouse)


Lesenswert?

Geht es darum, einen vorgegebenen Wert möglichst genau zu treffen, oder 
aber darum, bestimmte Mindest- oder Maximalgrenzen einzuhalten?

von Noch einer (Gast)


Lesenswert?

Und was hat eure Firma dem Kunden zugesagt? Alle Teile liegen innerhalb 
der Toleranzen oder 99,99% liegen innerhalb?

von Werner M. (Gast)


Lesenswert?

Mir scheint, dass das ganze Thema weder speziell mit Mikrocontrollern 
noch mit Digitalelektronik etwas zu tun hat, sondern eher theoretischer 
Natur ist.

QS schrieb:
> gleichzeitig erachte ich dieses Verfahren aber als problematisch, weil
> die Hersteller ja ... durchaus bemüht sind, ihre Produkte auf das
> Nennmaß aus zu legen

Warum sollte ein Hersteller darum bemüht sein? Wenn er seine 
Fertigungstoleranzen gut im Griff hat, kann er zur Maximierung seines 
Profits durchaus bestrebt sein, mit seinem Werkstück am Rand des 
Toleranzfensters zu liegen.

von Klaus P. (Gast)


Lesenswert?

QS schrieb:
> ich habe mal eine Frage bzgl. Fehlertoleranzsummierung.
>
> Wenn ich zwei Maße habe, die jeweils einer Toleranz unterliegen, ist das
> aus beiden Bauteilen zusammengesetzte Werkstück dann mit der Summe der
> Fehlertoleranzen behaftet, oder geht die Summe nur unterhalb der Wurzel
> ein?

Das konkrete Bauteil ist gar nicht mit Fehlertoleranzen behaftet. Es ist 
so wie es gefertigt wurde.

Im Prinzip gebe ich der Sicht der QS recht. Wenn nicht klar definiert 
ist, dass die angegebenen Maße statistisch zu betrachten sind, gelten 
sie erst einmal absolut. D.h. kein einziges Werkstück darf außer 
Toleranz sein. Und der eigene Kalibrierfehler muss auch berücksichtigt 
werden.

Den möglichen Kalibrierfehler des externen Labors auch noch mit 
einzubeziehen, ist aber schon ungewöhnlich. Das müssen die eigentlich 
selbst berücksichtigen (ich weiß, wird häufig genug nicht gemacht).

Verschiedene Unternehmen sind daher dazu übergegangen, bestimmte Maße 
oder Merkmale als "SPC-Merkmale" zu kennzeichnen. Dafür werden cpk-Werte 
festgelegt, die die Auftrittswahrscheinlichkeit berücksichtigen. 
Allerdings gelten bestimmten Funktionsmaßen sogar beide Spezifikationen: 
Toleranz als Absolutwert, zusätzlich noch die cpk-Forderung.

von Noch einer (Gast)


Lesenswert?

> kann ... bestrebt sein

In der Massenproduktion ist das der Normalfall. PKWs werden absichtlich 
so konstruiert, dass nach 18 Jahren alles gleichzeitig kaputt geht.

Eigentlich total abstrus. Absolut jedes Teil muss die Toleranzen 
einhalten, darf aber nicht teurer als unbedingt nötig sein. Und dann 
arbeiten 20 Ingenieure an der Frage, ob sich in der QS 1/10 Cent 
einsparen lässt, wenn dadurch die Produktion 1/20 Cent teurer wird.

Von außen betrachtet total absurd - warum arbeiten die nicht an der 
Frage: wie halten Autos möglichst lange?

von Peter (Gast)


Lesenswert?

Noch einer schrieb:
> Von außen betrachtet total absurd - warum arbeiten die nicht an der
> Frage: wie halten Autos möglichst lange?

Ganz einfach: Weil es dann sehr lange dauert, bis der Kunde ein neues 
Auto kauft - Firma pleite.

Wenn ein Hersteller es doller treibt als alle anderen kaufen die Kunden 
vielleicht nächstesmal woanders - Firma pleite.

Wenn alle Hersteller gleichmäßig Produkte immer kürzerer Lebensdauer 
bauen passiert das nicht - alle Firmen haben satt Umsatz.  Viel mehr, 
als wenn alle langlebige Produkte bauen.

Das ist Marktwirtschaft.

von Wolfgang (Gast)


Lesenswert?

QS schrieb:
> ich habe mal eine Frage bzgl. Fehlertoleranzsummierung.

Fehlertoleranzsummierung war früher (tm).

Viel günstiger für die Ausbeute eines Fertigungsprozesses ist es, wenn 
die Einzelteile in der Fertigung vermessen werden und gezielt so gepaart 
werden, dass sich für das Endprodukt die Abweichungen gegenseitig 
subtrahieren.

von ths (Gast)


Lesenswert?

Kommt ein bisschen auf das Produkt an. Herzschrittmacher oder 
Industrieelektronik? Im letzten Fall geht man davon aus, dass die 
angegebenen Fehlergrenzen rechteckverteilt sind, manche Daten 
entsprechen     einer Normalverteilung mit 95% Vertrauensniveau. Im 
Falle von Industrieelektronik falsche oder irrsinnig hohe Anforderungen 
zu stellen,  kann sehr teuer werden. Die QS sollte das einsehen können.

von Klaus P. (Gast)


Lesenswert?

ths schrieb:
> Die QS sollte das einsehen können.

Die QS sollte das nur dann einsehen, wenn es von der Entwicklung richtig 
vorgegeben wurde. Häufig genug schreiben Entwickler Toleranzen in 
Zeichnungen, Prüf- oder Schaltpläne, die "halt schon immer so" 
festgelegt waren. Die QS soll sich dann "mal nicht so anstellen - weiß 
doch jeder, dass dieses Maß nicht so wichtig ist" - und dann aber schön 
den Kopf hinhalten, wenn doch etwas passiert.

von Noch einer (Gast)


Lesenswert?

Umgekehrt - die BWLer geben vor, was QS und Entwicklung machen.

Von einer Stichprobe das doppelte der maximalen Abweichung zu nehmen mag 
ja für Techniker unsinnig sein. Wenn damit Produktion + QS am billigsten 
sind, dann entscheiden die BWLer - so wird es gemacht.

von W.A. (Gast)


Lesenswert?

Noch einer schrieb:
> Von einer Stichprobe das doppelte der maximalen Abweichung zu nehmen mag
> ja für Techniker unsinnig sein.

Die maximale Abweichung innerhalb einer Stichprobe sagt erstmal relativ 
wenig. Man muss auch wissen, wie die Verteilung aussieht. Schließlich 
ist die Stichprobe, wie der Name schon sagt, nur eine Stichprobe.

Wenn man allerdings etwas weiter denkt und berücksichtigt, dass es 
Geräte gibt, die nur noch Mist machen, wenn ein Teil außerhalb des 
Toleranzfensters liegt, ist das gar nicht mehr so unsinnig, ein bisschen 
Reserve zu haben.

von QS (Gast)


Lesenswert?

Das Problem ist einfach, dass hier eine ganze Reihe an stochastischer 
Größen in das eigentliche Messergebniss reinspielen, dabei aber das 
"echte" Ergebnis gar nicht bekannt ist.

Um mal ein greifbares Beispiel zu geben:
Man kann schlichtweg nicht genau sagen, wie hoch der Pegel einer 
Antennenabstrahlung tatsächlich ist.
Da sind Ungenauigkeiten der Messgeräte drin und des Messraumes. Daher 
kann man schlichtweg nicht genau nachmessen, sondern muss über die 
Verteilung gehen.
Messe ich heute zehn mal den gleichen Prüfling, dann erhalte zwar im 
großen und ganzen ähnliche, aber keineswegs identische Ergebnisse.

Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.