Hallo, ich habe mal eine Frage bzgl. Fehlertoleranzsummierung. Wenn ich zwei Maße habe, die jeweils einer Toleranz unterliegen, ist das aus beiden Bauteilen zusammengesetzte Werkstück dann mit der Summe der Fehlertoleranzen behaftet, oder geht die Summe nur unterhalb der Wurzel ein? Klar ist, dass in einer Worst-Case Betrachtung natürlich die Summe zweier Toleranzen aufaddiert werden müssten, gleichzeitig erachte ich dieses Verfahren aber als problematisch, weil die Hersteller ja (von Zapfsäulenoutput abgesehen) durchaus bemüht sind, ihre Produkte auf das Nennmaß aus zu legen und somit das tatsächliche Eintreffen eines Worst-Case mit der Anzahl der Komponenten unwahrscheinlicher wird. Addiere ich also zwei gleichartige Längenmaße, dann mag wohl für jeden einzelnen ein Ausschlag in Richtung einer der Toleranzgrenzen erfolgen, jedoch ist die Wahrscheinlichkeit, dass das Gesamtprodukt mit der doppelten positiven Fehlertoleranz behaftet ist, ja nur bei 1/4, gleiches auch für die negative Fehlertoleranz und schlussendlich die Wahrscheinlichkeit eines maßhaltigen Endproduktes bei 1/2, da sich die Fehler eben jeweils weg nivellieren können. Ich stelle diese Frage deshalb, weil unsere QS-Abteilung genau einen Fall kennt, und das ist der Worst-Case, ungeachtet dessen, dass dieser Fall meiner Ansicht nach desto unwahrscheinlicher wird, je mehr Bauteile beteiligt sind.
Der worst case-Fall heißt ja nicht so, weil er der wahrscheinlichste Fall wäre. Irgendwie kann ich mit der Frage jetzt nicht viel anfangen. Bei vielen erzeugten Teilen werden auch ein paar unwahrscheinliche dabei sein. Will man die ausschließen, hilft die Argumentation nicht, daß es ja meistens gut geht. Wenn du andererseits damit zufrieden bist, daß es möglicherweise nicht so schlimm kommt, sollte man vielleicht nicht von QM reden.
Das Problem ist, dass die QM sich wie die ungekrönten Könige benehmen, aber Stichwörter wie Auftretenswahrscheinlichkeit nicht zu kennen scheinen.
Achso, und damit der Bezug zur Wahrscheinlichkeit vielleicht etwas klarer wird, das konkrete Problem: Es geht darum, wie Testgrenzen aus zu legen sind. Die Prüfgeräte besitzen eine gewisse Toleranz. Vor der eigentlichen Messung wird kalibriert. Nun werden viele hundert Prüflinge geprüft und die Ergebnisse dokumentiert. Es ergibt sich ein Häufigkeitsdiagramm. Ganz links sind wenige, ganz rechts sind wenige, in der Mitte sind die große Mehrzahl der Prüflinge. Was macht nun unsere QS? Sie sagt: Die Messergebnisse unterliegen der Worst-Case-Betrachtung, d.h. die gesamte Verteilung wird nach links verschoben, und zwar nicht um die einfache Messtoleranz, nein um die doppelte, denn es könnte ja obendrein sein, dass sich in unserem Labor gerade die positive Ungenauigkeit gezeigt hat, hingegen im Referenzlabor des später prüfenden Instituts sich die negative Messtoleranz offenbart...
Somit ist die Folge: Die Messverteilung über viele Hundert Prüflinge wird nicht vertraut und Gerätetoleranzen werden zweimal gegen einen verwendet. Ich erachte das einfach als grundlegend falsch.
Geht es darum, einen vorgegebenen Wert möglichst genau zu treffen, oder aber darum, bestimmte Mindest- oder Maximalgrenzen einzuhalten?
Und was hat eure Firma dem Kunden zugesagt? Alle Teile liegen innerhalb der Toleranzen oder 99,99% liegen innerhalb?
Mir scheint, dass das ganze Thema weder speziell mit Mikrocontrollern noch mit Digitalelektronik etwas zu tun hat, sondern eher theoretischer Natur ist. QS schrieb: > gleichzeitig erachte ich dieses Verfahren aber als problematisch, weil > die Hersteller ja ... durchaus bemüht sind, ihre Produkte auf das > Nennmaß aus zu legen Warum sollte ein Hersteller darum bemüht sein? Wenn er seine Fertigungstoleranzen gut im Griff hat, kann er zur Maximierung seines Profits durchaus bestrebt sein, mit seinem Werkstück am Rand des Toleranzfensters zu liegen.
QS schrieb: > ich habe mal eine Frage bzgl. Fehlertoleranzsummierung. > > Wenn ich zwei Maße habe, die jeweils einer Toleranz unterliegen, ist das > aus beiden Bauteilen zusammengesetzte Werkstück dann mit der Summe der > Fehlertoleranzen behaftet, oder geht die Summe nur unterhalb der Wurzel > ein? Das konkrete Bauteil ist gar nicht mit Fehlertoleranzen behaftet. Es ist so wie es gefertigt wurde. Im Prinzip gebe ich der Sicht der QS recht. Wenn nicht klar definiert ist, dass die angegebenen Maße statistisch zu betrachten sind, gelten sie erst einmal absolut. D.h. kein einziges Werkstück darf außer Toleranz sein. Und der eigene Kalibrierfehler muss auch berücksichtigt werden. Den möglichen Kalibrierfehler des externen Labors auch noch mit einzubeziehen, ist aber schon ungewöhnlich. Das müssen die eigentlich selbst berücksichtigen (ich weiß, wird häufig genug nicht gemacht). Verschiedene Unternehmen sind daher dazu übergegangen, bestimmte Maße oder Merkmale als "SPC-Merkmale" zu kennzeichnen. Dafür werden cpk-Werte festgelegt, die die Auftrittswahrscheinlichkeit berücksichtigen. Allerdings gelten bestimmten Funktionsmaßen sogar beide Spezifikationen: Toleranz als Absolutwert, zusätzlich noch die cpk-Forderung.
> kann ... bestrebt sein
In der Massenproduktion ist das der Normalfall. PKWs werden absichtlich
so konstruiert, dass nach 18 Jahren alles gleichzeitig kaputt geht.
Eigentlich total abstrus. Absolut jedes Teil muss die Toleranzen
einhalten, darf aber nicht teurer als unbedingt nötig sein. Und dann
arbeiten 20 Ingenieure an der Frage, ob sich in der QS 1/10 Cent
einsparen lässt, wenn dadurch die Produktion 1/20 Cent teurer wird.
Von außen betrachtet total absurd - warum arbeiten die nicht an der
Frage: wie halten Autos möglichst lange?
Noch einer schrieb: > Von außen betrachtet total absurd - warum arbeiten die nicht an der > Frage: wie halten Autos möglichst lange? Ganz einfach: Weil es dann sehr lange dauert, bis der Kunde ein neues Auto kauft - Firma pleite. Wenn ein Hersteller es doller treibt als alle anderen kaufen die Kunden vielleicht nächstesmal woanders - Firma pleite. Wenn alle Hersteller gleichmäßig Produkte immer kürzerer Lebensdauer bauen passiert das nicht - alle Firmen haben satt Umsatz. Viel mehr, als wenn alle langlebige Produkte bauen. Das ist Marktwirtschaft.
QS schrieb: > ich habe mal eine Frage bzgl. Fehlertoleranzsummierung. Fehlertoleranzsummierung war früher (tm). Viel günstiger für die Ausbeute eines Fertigungsprozesses ist es, wenn die Einzelteile in der Fertigung vermessen werden und gezielt so gepaart werden, dass sich für das Endprodukt die Abweichungen gegenseitig subtrahieren.
Kommt ein bisschen auf das Produkt an. Herzschrittmacher oder Industrieelektronik? Im letzten Fall geht man davon aus, dass die angegebenen Fehlergrenzen rechteckverteilt sind, manche Daten entsprechen einer Normalverteilung mit 95% Vertrauensniveau. Im Falle von Industrieelektronik falsche oder irrsinnig hohe Anforderungen zu stellen, kann sehr teuer werden. Die QS sollte das einsehen können.
ths schrieb: > Die QS sollte das einsehen können. Die QS sollte das nur dann einsehen, wenn es von der Entwicklung richtig vorgegeben wurde. Häufig genug schreiben Entwickler Toleranzen in Zeichnungen, Prüf- oder Schaltpläne, die "halt schon immer so" festgelegt waren. Die QS soll sich dann "mal nicht so anstellen - weiß doch jeder, dass dieses Maß nicht so wichtig ist" - und dann aber schön den Kopf hinhalten, wenn doch etwas passiert.
Umgekehrt - die BWLer geben vor, was QS und Entwicklung machen. Von einer Stichprobe das doppelte der maximalen Abweichung zu nehmen mag ja für Techniker unsinnig sein. Wenn damit Produktion + QS am billigsten sind, dann entscheiden die BWLer - so wird es gemacht.
Noch einer schrieb: > Von einer Stichprobe das doppelte der maximalen Abweichung zu nehmen mag > ja für Techniker unsinnig sein. Die maximale Abweichung innerhalb einer Stichprobe sagt erstmal relativ wenig. Man muss auch wissen, wie die Verteilung aussieht. Schließlich ist die Stichprobe, wie der Name schon sagt, nur eine Stichprobe. Wenn man allerdings etwas weiter denkt und berücksichtigt, dass es Geräte gibt, die nur noch Mist machen, wenn ein Teil außerhalb des Toleranzfensters liegt, ist das gar nicht mehr so unsinnig, ein bisschen Reserve zu haben.
Das Problem ist einfach, dass hier eine ganze Reihe an stochastischer Größen in das eigentliche Messergebniss reinspielen, dabei aber das "echte" Ergebnis gar nicht bekannt ist. Um mal ein greifbares Beispiel zu geben: Man kann schlichtweg nicht genau sagen, wie hoch der Pegel einer Antennenabstrahlung tatsächlich ist. Da sind Ungenauigkeiten der Messgeräte drin und des Messraumes. Daher kann man schlichtweg nicht genau nachmessen, sondern muss über die Verteilung gehen. Messe ich heute zehn mal den gleichen Prüfling, dann erhalte zwar im großen und ganzen ähnliche, aber keineswegs identische Ergebnisse.
Bitte melde dich an um einen Beitrag zu schreiben. Anmeldung ist kostenlos und dauert nur eine Minute.
Bestehender Account
Schon ein Account bei Google/GoogleMail? Keine Anmeldung erforderlich!
Mit Google-Account einloggen
Mit Google-Account einloggen
Noch kein Account? Hier anmelden.