Glossar

Begriff Erklärung
Alpha-Risiko (α-Risiko) Das Alpha-Risiko oder Fehler 1.Art wird bei Hypothesentests festgelegt und ist das akzeptierbare Risiko, dass ein vermuteter Effekt falsch ist. Das Alpha-Risiko ist kein fester Wert und wird von den Konsequenten einer Fehlentscheidung geprägt. Ein häufig benutzter Wert ist ein Alpha-Risiko von 5%.
ANCOVA Die ANCOVA ist eine Varianzanalyse (ANOVA), bei der zusätzlich Covariablen mit in die statistische Auswertung einfließen. Covariablen sind physikalische Größen, die in Experimenten nicht gezielt verändert, aber gemessen werden können (z. B. Störgrößen).
Attributive Daten Attributive Daten sind Daten, die in verschiedene Kategorien eingeteilt werden können. Attributive Daten können z. B. binär sein (Produkt in Ordnung / Produkt nicht in Ordnung oder gut / schlecht), ordinal (gut / mittel / schlecht) oder nominal (ohne eine innere Ordnung z. B. Schulfächer) sein.
Auflösung Die Auflösung ist ein Begriff aus der Messsystemanalyse und gibt an, wie detailliert die Messwerte von einem Messgerät abgelesen werden können.
Ausreißer Entspricht ein Messwert nicht den Erwartungen, so spricht man von einem Ausreißer.
Außer Kontrolle Ein Prozess ist dann außer Kontrolle, wenn er nicht-natürliche Streuungen zeigt. Dies bedeutet, dass mindestens ein Messwert außerhalb der 3-Sigma-Grenze liegt. Das Gegenteil ist ein Prozess, der in Kontrolle ist.
Beschreibende Statistik Die beschreibende (oder deskriptive) Statistik berechnet bestimmte Kennzahlen aus den ermittelten Messdaten. Dazu gehören Mittelwerte, Standardabweichung, Spannweite usw.
Beta-Risiko (β-Risiko) Das Beta-Risiko oder Fehler 2. Art ist das Risiko einen wahren Effekt nicht zu erkennen, obwohl er existiert.
Box-Plot Der Box-Plot (oft auch Box-Whisker-Plot) ist ein Diagramm, in dem die Quartile von Datensätzen übersichtlich dargestellt werden können. Es ermöglicht auch die Erkennung von Ausreißern.
Clusteranalyse Die Clusteranalyse (CA) gehört zu den multivariaten Analysemethoden und ermöglicht es, Datensätze unbekannten Gruppen zuzuordnen. Mit ihrer Hilfe können Strukturen in den Daten erkannt werden.
Datenarten Es gibt mehrere Arten von Daten. Stetige Daten, die mittels Messgeräte ermittelt werden (z. B. Druck, Temperatur, Zeit, Spannung, Stromstärke, Gewicht, Masse, Ausbeute, etc.), gezählte Daten, die nur natürliche Zahlen ausweisen können sowie kategoriale Daten (gut / schlecht). Die Zuordnung der Daten in eine der 3 Arten hilft bei der Auswahl geeigneter Diagramme und der Werkzeuge zur Datenanalyse.
Diskriminanzanalyse Die Diskriminanzanalyse (DKA) gehört wie die PCA zu den multivariaten Analysemethoden. Sie ermöglicht es, Daten bestimmten vordefinierten Gruppen zuzuordnen.
Fähiger Prozess Ein Prozess ist fähig, wenn alle gefertigten Teile innerhalb der Spezifikationsgrenzen liegen. Das Gegenteil ist ein Prozess, der nicht fähig ist.
Fehler Ein Fehler ist eine Abweichung von der Spezifikation eines bestimmten Qualitätsmerkmales: Riss, Kratzer, Verfärbung, etc. Jede Einheit kann mehrere Fehler aufweisen aber nicht jeder Fehler führt zu einer fehlerhaften Einheit.
fehlerhafte Einheit Eine fehlerhafte Einheit liegt dann vor, wenn der Gesamtzustand des Produktes nicht akzeptabel ist. Daten von fehlerhaften Einheiten liegen oft binär vor: bestanden / nicht bestanden oder fehlerhaft / fehlerfrei.
Genauigkeit Die Genauigkeit wird oft auch als Richtigkeit bezeichnet und ist ein Begriff aus der Messsystemanalyse. Die Genauigkeit bezeichnet die Abweichung des Messergebnisses vom wahren Wert.
Grundgesamtheit Die Grundgesamtheit ist die Menge aller Einheiten mit einem bestimmten Merkmal. Die Grundgesamtheit ist im Allgemeinen eine sehr große Menge. Da es in den meisten Fällen unmöglich ist, Messungen an der Grundgesamtheit durchzuführen, wählt man eine Stichprobe aus.
Hauptkomponentenanalyse Die Hauptkomponentenanalyse (engl.: principal component analysis, PCA) gehört zu den multivariaten Analysen. Mit ihrer Hilfe ist es möglich die Anzahl an Output-Variablen zu verringern, ohne dass ein wesentlicher Informationsverlust entsteht. Umfangreiche Datensätze können strukturiert, vereinfacht und visualisiert werden.
Histogramm Ein Histogramm stellt einen Datensatz bereichsweise in Form eines Balkendiagramms dar. Mit einem Histogramm kann die Verteilung der Daten schnell und übersichtlich dargestellt werden.
Hypothesentest Ein Hypothesentest ist ein statistisches Verfahren, das ein Problem aus der Praxis in die Sprache der Mathematik übersetzt. Anhand von Stichprobendaten kann ermittelt werden, durch welche Praxisaussagen die Daten am besten erklärt werden können.
In Kontrolle Ein Prozess ist dann in Kontrolle, wenn er nur natürliche Streuungen zeigt. Dies bedeutet, dass alle Messwerte innerhalb der 3-Sigma-Grenzen liegen. Das Gegenteil ist ein Prozess, der außer Kontrolle ist.
Jitter Das englische Wort jitter kann ins Deutsche mit Flackern übersetzt werden. Es bedeutet, dass in einer Grafik übereinander liegende Punkte auseinandergezogen werden, um diese anzuzeigen.
Kategoriale Daten Kategoriale Daten ist ein alternativer Begriff für attributive Daten. Geläufig ist auch der Begriff qualitative Daten.
Kausalität Für Korrelationen gibt es oft Gründe, die durch eine Ursache-Wirkungs-Beziehung dargestellt werden können. In diesem Fall besteht eine Kausalität.
Korrelation Besteht zwischen zwei Merkmalen eine Beziehung, so nennt man dies eine Korrelation. Die Beziehung muss nicht kausal sein.
Likert-Skala Die Likert-Skala ist eine sog. Rang-Skala, die es gestattet persönliche Bewertungen abzubilden und Zahlenwerte zuzuordnen, z. B. bei Schulnoten (sehr gut / gut / befriedigend / usw.). Die Likert-Skala stammt ursprünglich aus der Markt- und Sozialforschung (z. B.: trifft zu / trifft eher zu / trifft eher nicht zu / trifft nicht zu)
Median Der Median ist ein Begriff aus der beschreibenden Statistik und ist der mittlere Wert einer Datenreihe oder einer Verteilung. Der Median befindet sich in der Mitte der sortierten Daten.
Mittelwert Der Mittelwert ist ein Begriff aus der beschreibenden Statistik und fasst alle Werte einer Datenreihe zusammen. Dieser Wert wird auch als der arithmetische Mittelwert bezeichnet.
Modus Der Modus ist ein Begriff aus der beschreibenden Statistik und ist der häufigste Wert einer Datenreihe oder einer Verteilung.
Natürliche Streuung Natürliche Streuung ist auf den Einfluss aller Störgrößen zurückzuführen, die permanent und ständig zufällig wirken. In Summe ergibt sich in vielen Fällen eine Normalverteilung der Messdaten.
Nicht fähiger Prozess Ein Prozess ist nicht fähig, wenn mindestens ein gefertigtes Teil außerhalb der Spezifikationsgrenzen liegt. Das Gegenteil ist ein Prozess, der fähig ist. Ein Prozess, der nicht fähig ist, produziert Abfall (Ausschuss).
Nicht-natürliche Streuung Nicht-natürliche Streuung ist auf den Einfluss besonderer Effekte zurückzuführen. Können diese Effekte sicher erkannt werden, ergibt sich automatisch eine Verbesserung des Produktionsprozesses.
Pareto-Diagramm Das Pareto-Diagramm bildet Sachverhalte nach dem Pareto-Prinzip ab, der sog. 80 – 20 – Regel.
Präzision Die Präzision ist ein Begriff aus der Messsystemanalyse und gibt die Gesamtvariation des Messsystems wider. Sie ist ein Maß für die Streuung des Messsystems.
Prozesslandkarte Eine Prozesslandkarte (oft auch als englisch process-map bezeichnet) ist ein grafisch visualisiertes Abbild des Prozesses. Eine Prozesslandkarte ist die Grundlage zum Verständnis von Prozessen. Eine Prozesslandkarte enthält alle Inputs und Outputs sämtlicher Prozessschritte, teilt alle Schritte in wertschöpfend und nicht-wertschöpfend ein, definiert alle Stör- und Regelgrößen und markiert kritische und manuelle Prozessschritte.
Punkte-Diagramm Ein Punkte-Diagramm stellt einen Datensatz bereichsweise in Form von Datenpunkten dar. Mit einem Punkte-Diagramm kann die Verteilung der Daten schnell und übersichtlich dargestellt werden.
p-Wert Der p-Wert ist eine Kennzahl einer statistischen Analyse. Durch einen Vergleich mit dem Alpha-Risiko können Sachverhalte mit einer bestimmten Wahrscheinlichkeit belegt oder widerlegt werden.
Qualität Qualität ist, wenn der Kunde wiederkommt, nicht das Produkt.
Qualität ist das, was nicht in der Spezifikation steht.
Qualität ist die Erfüllung der Kundenanforderungen, ob bekannt oder nicht bekannt.
Regelkarten Der Begriff Regelkarte stammt aus der sog. Statistischen Prozesskontrolle (SPC). Regelkarten stellen Output-Variablen von Prozessen in geeigneter Form grafisch dar und erlauben ein Eingreifen in die Prozessführung, bevor der Prozess Ausschuss erzeugt. Eine Regelkarte ist ein spezielles Zeit-Serien-Diagramm, in dem die Messgrößen in der zeitlichen Reihenfolge der Messung eingetragen sind.
Regressionsanalyse Eine Regressionsanalyse beschreibt einen quantitativen Zusammenhang zwischen Variablen, z. B. den Inputs und den Outputs bei Prozessen.
Residuenanalyse Die Beurteilung und die grafische Analyse der Residuen werden als Residuenanalyse bezeichnet. Mit dieser Analyse lassen sich wertvolle Informationen über die Güte von statistischen Modellen ermitteln. Ohne eine Residuenanalyse sollte man einer statistischen Datenanalyse nicht blind trauen.
Residuum Das Residuum ist die Differenz zwischen einem vorhergesagten Wert und einem beobachteten Wert. Das Residuum repräsentiert die nicht erklärbare Reststreuung.
Schließende Statistik Die schließende (oder induktive) Statistik enthält Schätzmethoden, um von den Ergebnissen der Stichprobe auf die Grundgesamtheit zu schließen.
Sigma-Level Das Sigma-Level (oder Sigma-Niveau) ist ein Maß für die Güte eines Prozesses. Der Wert gibt an, wie viele Standardabweichungen zwischen dem Mittelwert und den Spezifikationsgrenzen gelegt werden können. Mit dem Sigma-Level können verschiedene Prozesse miteinander verglichen werden.
Spezifikation Die Spezifikation beschreibt Grenzwerte für eine Akzeptanz eines Produktes oder eines Prozesses. Die Spezifikation wird aus der Sicht des Kunden angegeben.
Standardabweichung Die Standardabweichung ist ein anschauliches Maß für die Streuung der Messdaten um den Mittelwert.
Stichprobe Eine Stichprobe ist ein Teil der Grundgesamtheit. Eine Stichprobe muss repräsentativ sein und hat eine wohlüberlegte Anzahl an Elementen (Stichprobengröße).
Streubreite Die Streubreite ist ein Maß für die Streuung der Messdaten und wird als Differenz zwischen dem größten und dem kleinsten Wert ermittelt.
Streu-Diagramm Ein Streu-Diagramm (englisch scatterplot) ist ein Diagramm mit 2 Achsen, in dem verbundene Wertepaare (z. B. Input und Output) grafisch dargestellt werden können. Das Streu-Diagramm dient zur Visualisierung von Datensätzen und zur Erkennung von Mustern und Gesetzmäßigkeiten.
Varianzanalyse (ANOVA) Die Varianzanalyse (engl.: analysis of variance) kann über eine Zerlegung der Streuung Gesetzmäßigkeiten in Datensätzen ermitteln. Mit diesen Gesetzmäßigkeiten können Prozesse verbessert werden.
Vertrauensbereich Beim Schließen der ermittelten Werte einer Stichprobe auf die Grundgesamtheit begeht man naturgemäß einen „Fehler“. Dieser „Fehler“ kann in Form von Abweichungen als Intervall angegeben werden. Dieses Intervall heißt Vertrauensbereich oder Konfidenzintervall.
Wahrscheinlichkeitsnetz Das Wahrscheinlichkeitsnetz ist ein wirksames grafisches Werkzeug, um schnell zu zeigen, ob ein Datensatz der Normalverteilung folgt oder nicht.
Wechselwirkung Eine Wechselwirkung besteht, wenn der Effekt eines Faktors von den Einstellungen eines anderen Faktors abhängig ist. Wechselwirkungen treten in der Praxis häufig auf und führen in der Regel zu großer Verwirrung, wenn die Wechselwirkung unbekannt ist.