Häufig gestellte Fragen (FAQ)

Was ist Six-Sigma?

Es gibt verständliche und unverständliche Definitionen zu Six-Sigma. Eine verständliche und praktikable Beschreibung ist die der datengesteuerten Problemlösung: Datenklarheit, problemorientiert, statistische Methoden etc. Der Kern von Six-Sigma besteht darin, die unvermeidbare Streuung von Prozessen in den Griff zu bekommen, die Ursachen der Streuung zu ermitteln, durch geeignete Maßnahmen zu minimieren, um dadurch Produktionsprozesse mit weniger Ausschuss zu etablieren.

Dirk Jödicke begann seine Six-Sigma-Ausbildung 2006. Die Methoden wurden mit großem Erfolg in mehreren Forschungsprojekten eingesetzt. Dies führte rasch zur Behebung von Problemen, die jahrelang als unlösbar betrachtet wurden.

Wer benötigt Six-Sigma und wozu?

Six-Sigma benötigt jeder Betrieb, der seine Prozesse optimieren möchte, um Einsparungspotentiale zu generieren. Entwicklungsprozesse lassen sich mit Methoden von Six-Sigma deutlich verkürzen

Welche Ausbildungsstufen gibt es bei Six-Sigma?

Je nach gewünschter Komplexität gibt es verschiedene Ausbildungsniveaus: die erste Stufe ist der sog. White-belt, danach folgen Green-belt, Black-belt und Master-black-belt, der sämtliche Six-Sigma-Werkzeuge beherrschen muss und in der Lage ist, diese Methoden zu schulen und zu trainieren.

Dirk Jödicke  ist Black-belt seit 2011 und Master-Black-belt seit 2017.

Was ist Lean-Six-Sigma?

Lean-Six-Sigma vereinigt die Methoden von Six-Sigma mit dem Lean-Management. Lean bedeutet schlank und steht für eine schlanke Produktion. Lean beinhaltet u.a. folgende Werkzeuge: Wertstromanalyse, Taktzeitdiagramme, Spaghetti-Diagramme, Rüstzeitoptimierung, Total Productive Maintenance, Kanban etc.

Was ist Design-for-Six-Sigma (DFSS)?

Design-for-Six-Sigma (DFSS) beinhaltet spezielle Methodiken, um in der Entwicklungsphase von Produkten und Prozessen Fehler und Fehlleistungen von vornherein zu unterbinden.

Was ist statistische Versuchsplanung?

Die statistische Versuchsplanung ist ein Verfahren zur Planung von Versuchen, das damit rechnet, dass alle Versuchsergebnisse von Zufallsfehlern überlagert sind. Die Zufallsfehler werden mit statistischen Methoden nicht erst bei der Auswertung, sondern bereits bei der Versuchsplanung berücksichtigt.

Dirk Jödicke  hat sich als Chemiker insbesondere mit Anwendungen der statistischen Versuchsplanung in den Bereichen der Polymerentwicklung intensiv beschäftigt.

Was ist DoE?

DoE steht für Design of experiment und ist der englische Begriff für Statistische Versuchsplanung.

Benötigt man viele Experimente für DoE?

Die statistische Versuchsplanung ist so konzipiert, dass mit minimalem Versuchsaufwand maximale Informationen gewonnen werden.

Wie werden Versuchsdaten eines DoE ausgewertet?

Die statistische Analyse der Versuchsdaten wird mit dem Verfahren der Varianzanalyse (ANOVA) und der Regressionsanalyse mit Unterstützung von Statistik-Software durchgeführt.

Dirk Jödicke  arbeitet in Schulungen zu Six-Sigma und zur Statistischen Versuchsplanung mit der anwenderfreundlichen Software Minitab.

Was bedeutet ANOVA?

ANOVA ist die Abkürzung für Varianzanalyse, ein statistisches Verfahren, um die beobachteten Streuungen, wahren Effekten oder dem Zufall zuzuschreiben.

Was ist eine ANCOVA?

Die ANCOVA ist ein Verfahren der Varianzanalyse, bei dem zusätzliche Covariablen mit ausgewertet werden können. Dies ergibt wertvolle Hinweise z. B. zu Störgrößen.

Störgrößen spielen im täglichen Geschehen in Forschung und Produktion eine oft unterschätzte Rolle. Dirk Jödicke  legt deshalb auf die Beachtung der Störgrößen bereits in der frühen Entwicklungsphase einen großen Wert.

Was sind Störgrößen?

Störgrößen sind Größen, die in einem Versuch nicht gezielt variiert werden können. Störgrößen wirken immer und überall auf alle Ergebnisse und führen zu einer Zufallsstreuung. Ist die Zufallsstreuung groß, so können die Effekte nicht mehr analysiert und zugeordnet werden. Störgrößen sind z. B. Schwankungen des Luftdruckes, der Temperatur, Einflüsse der „Mitwelt“, Streuungen der Messgeräte etc.

Was sind Regelgrößen?

Regelgrößen sind Größen, die in einem Versuch gezielt variiert werden können, z. B. Konzentrationen bei chemischen Reaktionen, Druck, Temperatur, Katalysator etc.

Was bedeutet Randomisierung?

Randomisierung bedeutet, dass die Versuchsplanpunkte der statistischen Versuchsplanung nach einer zufälligen Reihenfolge abgearbeitet werden. Dies verhindert, dass sich Trends den wahren Effekten überlagern.

Warum ist es wichtig, am optimalen Punkt zu arbeiten / zu produzieren?

Am optimalen Punkt ist die Streuung des Produktes am geringsten. Zusätzlich wirkt sich der Einfluss aller Störgrößen nur minimal auf das Produkt aus. Die Ausbeute ist am optimalen Punkt maximal, der Ausschuss minimal.

Wie kann man einen optimalen Punkt in einem Prozess finden?

Ein optimaler Punkt kann entweder zielgerichtet mit der statistischen Versuchsplanung oder per Zufall (sehr unwahrscheinlich) gefunden werden.

Das Auffinden der optimalen Punkte spielt deshalb in den Inhalten der Trainings von Dirk Jödicke  eine sehr wichtige Rolle und wird anhand vieler Praxisbeispiele dargelegt.

Woher weiß ich, ob ich am optimalen Punkt produziere?

Dies weiß man, wenn man den Prozess mit seinen Einflussparametern genau kennt. Mit den Werkzeugen Prozesslandkarte, Ursache-Wirkungsmatrix und der statistischen Versuchsplanung kann der optimale Punkt zielgerichtet ermittelt werden.

Viele Prozesse arbeiten nicht am optimalen Punkt, ohne dass die Verantwortlichen dies wissen. Die Folge ist eine erhöhte Ausschussrate.

Ist der optimale Punkt gefunden, so bedeutet dies auch, dass eine Verbesserung nicht mehr möglich ist. Dies bietet ein großes Potential an Einsparungen.

Was ist eine Messsystemanalyse (MSA)?

Die Messsystemanalyse geht über die Kalibrierung eines Messmittels deutlich hinaus. Sie fragt, ob das Messmittel für eine konkrete Fragestellung bei einem konkreten Einsatzbereich in der Lage ist, die Messung in vorab definierter Genauigkeit und Präzision durchführen kann. Insbesondere wird die Streuung des Messmittels durch Wiederholbarkeit und Reproduzierbarkeit ermittelt.

Warum ist eine Messsystemanalyse (MSA) wichtig?

In Verbesserungsprozessen muss man dem Messmittel wirklich vertrauen können. Dazu sind Maßnahmen erforderlich, die über eine einfache Kalibrierung des Messmittels hinausgehen. Ohne eine Angabe der Streuung des Messgerätes, der Wiederholbarkeit und der Reproduzierbarkeit bleiben Zweifel an der Richtigkeit der Messwerte. Mit zweifelhaften Messwerten bleibt es dem Zufall überlassen, ob der Prozess verbessert wird oder nicht.

Die verschiedenen Typen und Anwendungsbereiche der Messsystemanalyse werden im Six-Sigma-Trainingsprogramm von Dirk Jödicke  an konkreten Praxisbeispielen geschult und trainiert.

Wie kann die Streuung eines Messsystems ermittelt werden?

Die Streuung eines Messsystems kann nur durch eine Messsystemanalyse (MSA) ermittelt werden. Die MSA Typ 1 ermittelt die Genauigkeit und Wiederholbarkeit, die MSA Typ 2 ergibt zusätzlich Werte für die Reproduzierbarkeit.

Warum erhalte ich widersprüchliche Messdaten?

Daten können oft auf den ersten Blick widersprüchlich sein. Wenn man den Daten vertraut, so liegen oft Wechselwirkungen verschiedener Einflussparameter vor. Ohne die Kenntnisse von Wechselwirkungen bleiben die Daten widersprüchlich und eine Schlussfolgerung für Verbesserungsprozesse kann richtig oder falsch sein.

Kann ich meinen Daten wirklich vertrauen?

Eine Messsystemanalyse hilft den eigenen Daten zu vertrauen. Ohne eine Angabe der Streuung des Messsystems sollte man stets eine gesunde Skepsis zu den Daten haben.

Was ist Streuung?

Streuung ist ein natürlicher Vorgang und begleitet alle Produktions- und Entwicklungsprozesse; zur Minimierung der Streuung in Prozessen ist es u.a. wichtig, natürliche Streuung von nicht natürlicher Streuung zu unterscheiden; dies gibt den Technikern wertvolle Hinweise zur Behebung von Problemfällen.

Die Behandlung der Streuung von Prozessen, Ursachenfindung und Minimierung von Streuung sind Kern der Six-Sigma-Ausbildung von Dirk Jödicke.

Wie kann ich die Streuung in meinem Prozess ermitteln?

Die tatsächliche Prozessstreuung darf nicht mit der beobachteten Prozessstreuung gleichgesetzt werden. Dies geht nur, wenn die Streuung des Messgerätes klein ist. Ohne Kenntnis der Streuung des Messgerätes kann keine zuverlässige Aussage der tatsächlichen Prozessstreuung gegeben werden.

Wie kann ich die Streuung in meinem Prozess verringern?

Ist die tatsächliche Prozessstreuung bekannt, so kann diese in Kurzzeitstreuung und Langzeitstreuung zerlegt werden. Während die Kurzzeitstreuung in der Regel auf den Einfluss von Störgrößen zurückzuführen ist (natürliche Streuung), können für die Langzeitstreuung oft besondere Einflüsse gefunden werden. Diese Einflüsse können dann gezielt behoben werden. Danach sinkt die Gesamtstreuung des Prozesses.

So bleibt die Six-Sigma-Ausbildung von Dirk Jödicke  keine theoretische Veranstaltung. Der Bezug zur Praxis ist entscheidend. Dies setzt voraus, dass konkrete Verbesserungsprojekte mit den Schulungsteilnehmern durchgeführt werden, um das Expertenwissen der Prozessverantwortlichen zu nutzen.

Ist meine Stichprobe groß genug?

Viele Messungen werden mit einer zu geringen Stichprobe durchgeführt und anschließend ohne statistische Methoden ausgewertet. Die Schlüsse, die daraus gezogen werden, sind leider oft falsch. Einfache statistische Methoden können die Stichprobengröße berechnen, bevor die Datenerhebung stattfindet.

Was sind historische Daten?

Historische Daten sind Daten, die in einem Unternehmen oder Institution bereits vorhanden sind und für eine Problemlösung herangezogen werden können. Dies setzt voraus, dass historische Daten in hohem Maße vertrauenswürdig sind. In der Praxis existieren viele historische Daten, die jedoch oft nicht erschöpfend analysiert worden sind.

Was sind binäre Daten?

Binäre Daten haben nur 2 qualitative Ausprägungen: erkrankt / nicht erkrankt, Fehler ja / Fehler nein, in Ordnung / nicht in Ordnung. Zur Auswertung von binären Daten wird die binäre logistische Regression benutzt.

Was sind ordinale Daten?

Ordinale Daten haben mehr als 2 qualitative Ausprägungen, z. B. gut – mittel – schlecht. Die Ausprägungen von ordinalen Daten lassen sich stets in eine sinnvolle Reihenfolge bringen.

Was sind nominale Daten?

Nominale Daten weisen stets mehr als 2 qualitative Ausprägungen auf, die – im Gegensatz zu ordinalen Daten – keine innere Reihenfolge besitzen, z. B. Schulfächer (Englisch, Mathematik, Kunst, Musik, …) oder Maschinen (A, B, C, …).

Wie können attributive Daten statistisch ausgewertet werden?

Attributive Daten können über Balkendiagramme visualisiert werden. Die statistische Auswertung ist nur über eine logistische Regression unter Zuhilfenahme geeigneter statistischer Software möglich.

Was ist die logistische Regression?

Die logistische Regression ist ein mathematisches Verfahren, das qualitative Messgrößen (Fehler ja / Fehler nein) mit quantitativen Eingangsgrößen verbindet. Auf diese Weise können qualitative Messgrößen in Wahrscheinlichkeiten umgewandelt werden. Mit diesen Kenntnissen lassen sich dann die konkreten Einflussfaktoren ermitteln, die die Fehlerrate beeinflussen.

Die logistische Regression ist ein mächtiges Werkzeug in der Analyse binärer Daten (ja / nein). Beispiel aus der eigenen Berufspraxis aus der Flachglas-Industrie von Dirk Jödicke  sind ein wichtiger Bestandteil des Six-Sigma-Trainings.

Was ist ein Ausreißer?

Ein Ausreißer ist ein Messwert, der nicht in eine erwartete Messreihe passt oder den Erwartungen entspricht.

Wie kann man Ausreißer sicher erkennen?

Ausreißer können durch eine geschickte Visualisierung der Daten erkannt werden. Hierfür geeignet sind vor allem Streu-Diagramme, Einzelwert-Diagramme und der Box-Whisker-Plot. Ausreißer können auch mit statistischen Tests untersucht werden (Ausreißer-Test nach Grubbs oder Dixon).

Wie geht man mit Ausreißern um?

Ausreißer können eine fehlerhafte Einstellung der Messapparatur, ein Messfehler, ein Schreibfehler oder sogar eine Erfindung sein. In jedem Fall muss einem vermuteten Ausreißer nachgeforscht werden. Das Weglassen von Ausreißern ohne eine stichhaltige Überprüfung ist nicht anzuraten. Wenn die Ursache für einen Ausreißer bekannt ist, so kann entscheiden werden, diesen aus dem Datensatz zu entfernen.

Warum benötigt man einen Vertrauensbereich?

Der Vertrauensbereich eines Mittelwertes gibt an, wie gut man den aus der Stichprobe ermittelten Mittelwert kennt. Eine fehlende Angabe des Vertrauensbereiches täuscht eine hohe Genauigkeit und Präzision vor. Dies ist fehlerhaft, irreführend und führt in der Praxis oft zu falschen Schlussfolgerungen.

Was ist ein Konfidenzintervall und wodurch kann es beeinflusst werden?

Das Konfidenzintervall ist ein Synonym für den Vertrauensbereich. Der Vertrauensbereich wird durch die Stichprobengröße, der Streuung der Messdaten und der geforderten Sicherheit (meist 95 %) beeinflusst.