Messunsicherheiten bei der Attributprüfung

Jody Muelaner |

Ich habe viel darüber geschrieben, wie man Messunsicherheiten auswertet. Meine Artikel reichten von grundlegenden Einführungen in die Messtechnik und das Messunsicherheitsbudget hin zu weiterführenden Themen wie Sensitivitätskoeffizienten und Monte-Carlo-Simulation. Bis heute waren alle Beispiele, die ich verwendet habe, auf die Variablenprüfung bezogen. Bei dieser werden Messgeräte verwendet, die über eine Skala, ein Zifferblatt oder ein digitales Display ein numerisches Messergebnis liefern. Attribut-Messgeräte sind eine andere Art von Instrument, das ein binäres Pass/Fail-Messergebnis liefert. Beispiele für Attribut-Messgeräte sind Go/No-Go-Lehren, Gleitlehren und viele visuelle Prüfverfahren.

Wenn Sie meine bisherigen Anweisungen zur Unsicherheitsmessung direkt auf ein Attributinstrument anwenden wollten, wäre es wahrscheinlich, dass Sie hierbei auf diverse Schwierigkeiten stoßen würden und möglicherweise sogar zu dem Schluss kämen, dass dies vollkommen unmöglich ist. Die Schwierigkeit ergibt sich aus der Bewertung der Wiederholgenauigkeit und Reproduzierbarkeit dieser Messungen. Da sie kein numerisches Ergebnis liefern, ist es nicht möglich, eine Standardabweichung direkt aus wiederholten Messungen eines einzelnen Teils zu berechnen. Aus demselben Grund funktionieren auch die gängigen Gauge R&R ANOVA-Methoden nicht. Wie Sie in diesem Artikel erfahren werden, ist es jedoch möglich, die Wiederholgenauigkeit auf Basis einer Reihe von wiederholten Messungen zu berechnen.

Attributmessgeräte sind in der Fertigungsqualitätskontrolle sehr weit verbreitet. Es ist daher wichtig, die Genauigkeit und Leistungsfähigkeit dieser Messungen zu verstehen. Wie ich bereits erwähnt habe, ist die Messunsicherheitsevaluation die präziseste Methode, um die “Genauigkeit” einer Messung zu bewerten.

Eine kurze Zusammenfassung zum Thema Unsicherheiten

Die Unsicherheitsbewertung umfasst die Berücksichtigung aller Größen oder Faktoren, die ein Messergebnis beeinflussen. Es wird die Unsicherheit jedes einzelnen Einflusses bewertet. Anhand eines mathematischen Modells wird untersucht, wie sich diese Einflüsse zu einem endgültigen Messergebnis addieren. Es gibt eine Reihe von Wegen, diese Berechnungen durchzuführen, aber die einfachste und intuitivste ist im Allgemeinen die Verwendung eines Messunsicherheitsbudgets.

Ein Unsicherheitsbudget ist eine Tabelle, die jede Einflussgröße in einer dedizierten Zeile auflistet.

Es gibt entsprechende Spalten für:

  • die Bezeichnungen der einzelnen Einflussgrößen.
  • den Zahlenwert der Unsicherheit für jeden Einfluss, z.B. eine Standardabweichung, ein Bereich oder eine halbe Breite.
  • die Wahrscheinlichkeitsverteilung, die jede Unsicherheit beschreibt.
  • Divisoren, die alle Werte in Standardabweichungen umrechnen.
  • Sensitivitätskoeffizienten, die die Wirkung des Einflusses auf das endgültige Messergebnis darstellen.
  • die Standardunsicherheit für jeden Einfluss. Dies ist die Unsicherheit der Messung, die sich aus dem berücksichtigten Einfluss ergibt.

Die meisten Unsicherheitsbudgets werden einige Standardeinflüsse einschließen. Dazu gehören Kalibrierunsicherheit, Wiederholgenauigkeit und Umgebungsfaktoren. Die Unsicherheit jeder Quelle kann mit Hilfe von Typ-A- oder Typ-B-Methoden bewertet werden. Typ-A steht lediglich für die statistische Auswertung von wiederholten Messungen, während Typ-B für jede andere Methode steht. Die Wiederholgenauigkeit wird fast immer als Typ-A-Unsicherheit bewertet. Für eine einfache Wiederholgenauigkeitsstudie einer variablen Lehre bedeutet dies lediglich, das gleiche Teil mehrmals zu messen und die Standardabweichung der Ergebnisse zu berechnen. Die Kalibrierunsicherheit wird in der Regel als Typ-B-Unsicherheit bewertet, indem der Unsicherheitswert aus einem Kalibrierschein entnommen wird.

Die Bewertung der Unsicherheit für Attribut-Messgeräte erfolgt nach dem gleichen Verfahren wie bei variablen Messgeräten. Der wesentliche Unterschied besteht darin, dass die statistische Auswertung von wiederholten Messungen, um numerische Werte für die Wiederholgenauigkeit und auch die Verzerrung zu erhalten, wesentlich komplexer ist.

Prüfung der Genauigkeit eines Attribut-Messgerätes

Das Grundprinzip einer Wiederholgenauigkeitsprüfung für ein Attributmessgerät lässt sich am besten anhand eines Beispiels mit einer vereinfachten statistischen Analyse verstehen. Dies kann als reiner Präzisionstest betrachtet werden, da der Test nicht so weit geht, alle Unsicherheitsquellen im Messgerät zu bewerten. Denken Sie daran, dass ein Attribut-Messgerät ein binäres Pass/Fail-Messergebnis liefert. Ein gegebenes Attribut-Messgerät hat daher einen einzigen Schwellenwert – Teile mit Ergebnissen auf der einen Seite dieses Schwellenwerts werden validiert („Pass“), während Teile mit Ergebnissen auf der anderen Seite des Schwellenwerts nicht validiert werden („Fail“). Die genaue Bestimmung von Pass und Fail ist abhängig von der Art des Messgerätes.

Es ist üblich, dass die Messgeräte paarweise angeordnet werden, um zu messen, ob ein Merkmal innerhalb einer Toleranz liegt. So kann beispielsweise bei der Überprüfung des Durchmessers eines Lochs ein Go/No-Go-Messdorn verwendet werden. Dieser hat an einem Ende einen etwas kleineren Stopfen, der sich in ein Loch einpasst („Go“), das größer als die untere Spezifikationsgrenze ist. Am anderen Ende hat es einen größeren Stopfen, der sich nicht einpasst (“No-go”), wenn das Loch kleiner als die obere Spezifikationsgrenze ist. Wenn also ein Loch innerhalb der Toleranz liegt, passt das „Go“-Ende in das Loch und das No-Go-Ende nicht. Jedes Ende eines Go/No-Go-Messgerätes muss als separates Messgerät betrachtet werden, das eine eigene Unsicherheitsbewertung erfordert.

In diesem Beispiel betrachten wir die Kalibrierung eines „Go“-Messdorns, der entwickelt wurde, um eine Bohrung mit einem nominalen Durchmesser von 12 mm und einer H8-Toleranz zu prüfen. Das bedeutet, dass der Bohrungsdurchmesser zwischen 12,000mm und 12,027mm liegen muss, um innerhalb der Toleranz zu sein. Das „Go“-Ende eines Go/No-Go-Messgerätes sollte daher in jedes Loch passen, das einen Durchmesser von mehr als 12,000 mm hat. Dies ist der Schwellenwert, der getestet werden muss.

Der erste Schritt der Prüfung besteht darin, eine Anzahl von kalibrierten Löchern zu erhalten, die nahe am Schwellenwert liegen. So könnten wir eine Reihe von bearbeiteten Löchern mit einer hochpräzisen Koordinatenmessmaschine (CMM) inspizieren und elf Löcher im Durchmesserbereich von 11,995 mm bis 12,005 mm mit Inkrementen von 0,001 mm auswählen. Wir würden dann die Prüfkörper, die die Löcher enthalten, beliebig sortieren und sie einem Prüfer zur Einzelmessung übergeben. Der Prüfer würde die Lehre in jedes Loch einsetzen und angeben, ob sich die Lehre in das Loch einführen lässt oder nicht („Pass“ oder „Fail“). Wir würden dieses Ergebnis neben dem kalibrierten Wert des Lochs aufzeichnen. Dieser Vorgang wird für jedes Prüfteil mehrmals wiederholt, typischerweise 25 Mal. Ja, ich weiß, das ist eine ziemlich mühsame Übung.

Die endgültigen Daten in Form einer Tabelle oder eines Strichlisten-Diagramms dokumentieren, wie oft jede Lochgröße mit der jeweiligen Lehre ein „Pass“ oder „Fail“ ergeben hat. Wenn es eine vernachlässigbare Unsicherheit im Zusammenhang mit der Wiederholgenauigkeit des Messgeräts gibt, dann würden wir erwarten, dass alle Löcher, die kleiner als 12 mm sind, ein „Fail“ und alle Löcher, die größer als 12 mm sind, ein „Pass“ ergeben. Wir werden dieses Ergebnis auch dann erhalten, wenn die Inkremente unserer Prüfkörper zu groß waren. In einem solchen Fall könnten wir entweder den Test mit verbesserten Prüfkörpern wiederholen oder von einer Worst-Case-Unsicherheit ausgehen.

Wenn wir für die kalibrierten Prüfkörper passende Inkremente gewählt haben und es eine signifikante Wiederholgenauigkeits-Unsicherheit gibt, dann werden wir ein Ergebnis wie das folgende sehen:

Ergebnisse der Genauigkeitsprüfung

Aus diesen Ergebnissen geht hervor, dass, wenn der Durchmesser des Lochs sehr nahe am Übergangswert liegt, das Messinstrument kein wiederholbares Ergebnis liefert. Die einfachste statistische Analyse dieser Ergebnisse wäre, sich den Wertebereich der „Pass“-Quote zwischen 0 Prozent und 100 Prozent anzuschauen. In diesem Fall würde dies eine Genauigkeit von +/- 0,004 mm ergeben.

Bestimmung der Standardabweichung für ein Attribut-Messgerät

Betrachtet man die oben gezeigten Testergebnisse, so ist es nicht offensichtlich, dass aus diesen

Daten eine Standardabweichung berechnet werden kann. Es ist jedoch möglich, die

Standardabweichung durch die Anwendung einer Wahrscheinlichkeitsverteilung auf die

Beobachtungen zu schätzen. Wenn wir die Ergebnisse grafisch darstellen, dann sehen wir eine “S”-Kurve, die eng mit dem Verlauf der kumulativen

Normalwahrscheinlichkeitsdichtefunktion (PDF) korreliert.

Prüfergebnisse, zusammen mit einer angepassten kumulativen Normalverteilung dargestellt

Wenn wir den Mittelwert und die Standardabweichung für die Normalverteilung finden können, die zu unseren Daten passt, dann können wir die Wiederholbarkeit und die Verzerrung des Messgeräts bestimmen. Dies kann unter Verwendung von Excel erfolgen.

Excel-Tabellen-Setup zur Anpassung einer Normalverteilung („cumulative PDF“) an die Testergebnisse. Das Diagramm hat die kalibrierten Werte aus Spalte B auf seiner x-Achse. Die Testergebnisse, die in Spalte E in einen Prozentsatz der Pass-Quote umgerechnet werden, und die angepasste Verteilung in Spalte F werden diesen kalibrierten Werte grafisch gegenübergestellt. Die angepasste Verteilung verweist auf die kalibrierten Werte in Spalte B sowie auf Schätzungen für den Mittelwert (C16) und die Standardabweichung (C17).

Im obigen Beispiel verwendet die angepasste Verteilung die Excel-Funktion NORM.DIST mit der „Cumulative PDF“-Option (das letzte Argument ist auf True gesetzt). Die Formeln in Spalte F beziehen sich auf die entsprechenden kalibrierten Werte in Spalte B. Die Formeln in Spalte F beziehen sich auch auf die Schätzwerte für den Mittelwert (C16) und die Standardabweichung (C17). Beachten Sie die Verwendung der Dollarzeichen für die Schätzwerte. Dadurch können die Formeln nach unten in weitere Zeilen gezogen werden, unter Aufrechterhaltung der jeweiligen Wertbezüge.

Beachten Sie jedoch, dass die angepasste Verteilung im obigen Beispiel nicht sehr eng mit den Testergebnissen übereinstimmt. Dies liegt daran, dass für den Mittelwert und die Standardabweichung anfängliche Schätzungen verwendet wurden. Eine Möglichkeit, die Anpassung zu verbessern, besteht darin, diese Werte manuell zu ändern und zu beobachten, wie die Anpassung verbessert werden kann. Wenn Sie ein Gefühl dafür bekommen wollen, können Sie die obige Tabelle duplizieren und es versuchen. Es wird sich jedoch als ziemlich schwierig erweisen.

Eine effizientere Möglichkeit, die Verteilung an die Testdaten anzupassen, besteht darin, die Summe der quadrierten Differenzen oder Residuen zu minimieren. Dazu fügen Sie eine weitere Spalte hinzu und geben eine einfache Formel ein, um die Differenz zwischen der angepassten Verteilung und den Prüfergebnissen zu berechnen. In diesem Beispiel enthält die Zelle G3 die Formel =F3-E3 und diese Formel wird dann in die Spalte G kopiert. In Zeile 14 wird dann die Summe der Quadrate dieser Residuen mit der Formel =SUMSQ(G3:G13) berechnet. Die Verteilung kann dann durch Optimierung der Werte von Mittelwert und Standardabweichung angepasst werden, so dass die Summe der quadrierten Residuen minimiert wird. Diese Art der Optimierung kann automatisch mit dem Solver durchgeführt werden, der sich auf der Registerkarte DATA befindet. Beachten Sie, dass der Solver ein Add-In ist, das in Excel enthalten, aber standardmäßig nicht eingeschaltet ist. Wenn Sie die Option nicht sehen, müssen Sie sie einschalten.

Beispiel-Tabelle mit hinzugefügter Spalte zur Berechnung von Residuen und der Summe ihrer Quadrate. Die Schaltfläche zum Starten des Solvers ist ebenfalls sichtbar.

Nach Betätigen des Solver-Buttons erscheint eine Dialogbox zur Eingabe der Solver-Parameter. Ziel ist es, die Summe der quadrierten Residuen in G14 zu minimieren. Dies soll durch die Änderung variabler Zellen in C16:C17 (Mittelwert und Standardabweichung) erfolgen. Andere Optionen können auf Standard gelassen werden unter Verwendung eines nichtlinearen GRG-Solvers und ohne spezifische Einschränkungen.

Geben Sie das Ziel und die zu ändernden Variablenzellen an

Wenn Sie auf Solve klicken, sollten Sie sehen, wie der Wert der Summe der Quadrate reduziert und die Anpassung auf dem Diagramm sichtbar verbessert wird. Es öffnet sich eine Dialogbox, in der Sie gefragt werden, ob Sie die Lösung des Solvers beibehalten möchten. Klicken Sie auf OK. Im Beispiel hat sich die geschätzte Standardabweichung deutlich verändert. Dies scheint nun ein guter Schätzwert für die Wiederholbarkeit des Messgerätes zu sein. Die Differenz zwischen dem geschätzten Mittelwert und dem Nennmittelwert ist um einige Größenordnungen kleiner als die Standardabweichung. Daher ist es sicher, die Verzerrung als nicht-signifikant zu betrachten, ohne komplexere Signifikanztests durchzuführen. Dies ist ein Bereich, auf den ich später noch näher eingehen werde.

Annahme der Solver-Lösung

Wenn Sie keine gute Lösung erzielt haben, gibt es dafür einige mögliche Gründe:

  1. Eine gängige Möglichkeit ist, dass die kalibrierten Werte den Bereich der Wahrscheinlichkeitsverteilung nicht mit ausreichender Auflösung abdecken. In der Regel ist es möglich, dies anhand der Darstellung der Testergebnisse zu erkennen. Wenn dies darauf zurückzuführen ist, dass die Wiederholbarkeitsunsicherheit sehr gering ist, kann es angebracht sein, eine Worst-Case-Schätzung, wie oben beschrieben, zu verwenden, anstatt eine Wahrscheinlichkeitsverteilung anzupassen. Andernfalls müssen zusätzliche kalibrierte Proben entnommen und weitere Tests mit diesen durchgeführt werden.
  1. Eine weitere häufige Ursache für das Versagen des Solvers ist, dass die anfänglichen Startwerte nicht ausreichend nahe an der optimalen Lösung liegen. Beginnen Sie immer mit einer manuellen Schätzung, deren Mittelwert Sie aus dem mittleren Bereich der Testergebnisse entnehmen, sowie mit einer Standardabweichung der richtigen Größenordnung. Die Verwendung des Diagramms als visuelle Überprüfung der Funktionalität ist hier sinnvoll.
  2. Eine weitere Möglichkeit ist, dass die Unsicherheit nicht einer Normalverteilung folgt. Wenn Sie immer noch darum kämpfen, eine gute Anpassung zu erhalten, ist es den Versuch wert, einige andere Verteilungen anzupassen.

Ich werde einige der Feinheiten von Attributprüfung und Unsicherheitsbewertung in einem zukünftigen Beitrag behandeln. Zu diesen fortgeschritteneren Themen gehören die Anpassung zusätzlicher Wahrscheinlichkeitsverteilungen, die Verfeinerung der Auflösung kalibrierter Testproben und die Signifikanzprüfung der von der Analyse erfassten Verzerrung.