Häufig gestellte Fragen (FAQ)
Es gibt verständliche und unverständliche Definitionen zu Six-Sigma. Eine verständliche und praktikable Beschreibung ist die der datengesteuerten Problemlösung: Datenklarheit, problemorientiert, statistische Methoden etc. Der Kern von Six-Sigma besteht darin, die unvermeidbare Streuung von Prozessen in den Griff zu bekommen, die Ursachen der Streuung zu ermitteln, durch geeignete Maßnahmen zu minimieren, um dadurch Produktionsprozesse mit weniger Ausschuss zu etablieren.
Dirk Jödicke begann seine Six-Sigma-Ausbildung 2006. Die Methoden wurden mit großem Erfolg in mehreren Forschungsprojekten eingesetzt. Dies führte rasch zur Behebung von Problemen, die jahrelang als unlösbar betrachtet wurden.
Six-Sigma benötigt jeder Betrieb, der seine Prozesse optimieren möchte, um Einsparungspotentiale zu generieren. Entwicklungsprozesse lassen sich mit Methoden von Six-Sigma deutlich verkürzen
Je nach gewünschter Komplexität gibt es verschiedene Ausbildungsniveaus: die erste Stufe ist der sog. White-belt, danach folgen Green-belt, Black-belt und Master-black-belt, der sämtliche Six-Sigma-Werkzeuge beherrschen muss und in der Lage ist, diese Methoden zu schulen und zu trainieren.
Dirk Jödicke ist Black-belt seit 2011 und Master-Black-belt seit 2017.
Lean-Six-Sigma vereinigt die Methoden von Six-Sigma mit dem Lean-Management. Lean bedeutet schlank und steht für eine schlanke Produktion. Lean beinhaltet u.a. folgende Werkzeuge: Wertstromanalyse, Taktzeitdiagramme, Spaghetti-Diagramme, Rüstzeitoptimierung, Total Productive Maintenance, Kanban etc.
Design-for-Six-Sigma (DFSS) beinhaltet spezielle Methodiken, um in der Entwicklungsphase von Produkten und Prozessen Fehler und Fehlleistungen von vornherein zu unterbinden.
Die statistische Versuchsplanung ist ein Verfahren zur Planung von Versuchen, das damit rechnet, dass alle Versuchsergebnisse von Zufallsfehlern überlagert sind. Die Zufallsfehler werden mit statistischen Methoden nicht erst bei der Auswertung, sondern bereits bei der Versuchsplanung berücksichtigt.
Dirk Jödicke hat sich als Chemiker insbesondere mit Anwendungen der statistischen Versuchsplanung in den Bereichen der Polymerentwicklung intensiv beschäftigt.
DoE steht für Design of experiment und ist der englische Begriff für Statistische Versuchsplanung.
Die statistische Versuchsplanung ist so konzipiert, dass mit minimalem Versuchsaufwand maximale Informationen gewonnen werden.
Die statistische Analyse der Versuchsdaten wird mit dem Verfahren der Varianzanalyse (ANOVA) und der Regressionsanalyse mit Unterstützung von Statistik-Software durchgeführt.
Dirk Jödicke arbeitet in Schulungen zu Six-Sigma und zur Statistischen Versuchsplanung mit der anwenderfreundlichen Software Minitab.
ANOVA ist die Abkürzung für Varianzanalyse, ein statistisches Verfahren, um die beobachteten Streuungen, wahren Effekten oder dem Zufall zuzuschreiben.
Die ANCOVA ist ein Verfahren der Varianzanalyse, bei dem zusätzliche Covariablen mit ausgewertet werden können. Dies ergibt wertvolle Hinweise z. B. zu Störgrößen.
Störgrößen spielen im täglichen Geschehen in Forschung und Produktion eine oft unterschätzte Rolle. Dirk Jödicke legt deshalb auf die Beachtung der Störgrößen bereits in der frühen Entwicklungsphase einen großen Wert.
Störgrößen sind Größen, die in einem Versuch nicht gezielt variiert werden können. Störgrößen wirken immer und überall auf alle Ergebnisse und führen zu einer Zufallsstreuung. Ist die Zufallsstreuung groß, so können die Effekte nicht mehr analysiert und zugeordnet werden. Störgrößen sind z. B. Schwankungen des Luftdruckes, der Temperatur, Einflüsse der „Mitwelt“, Streuungen der Messgeräte etc.
Regelgrößen sind Größen, die in einem Versuch gezielt variiert werden können, z. B. Konzentrationen bei chemischen Reaktionen, Druck, Temperatur, Katalysator etc.
Randomisierung bedeutet, dass die Versuchsplanpunkte der statistischen Versuchsplanung nach einer zufälligen Reihenfolge abgearbeitet werden. Dies verhindert, dass sich Trends den wahren Effekten überlagern.
Am optimalen Punkt ist die Streuung des Produktes am geringsten. Zusätzlich wirkt sich der Einfluss aller Störgrößen nur minimal auf das Produkt aus. Die Ausbeute ist am optimalen Punkt maximal, der Ausschuss minimal.
Ein optimaler Punkt kann entweder zielgerichtet mit der statistischen Versuchsplanung oder per Zufall (sehr unwahrscheinlich) gefunden werden.
Das Auffinden der optimalen Punkte spielt deshalb in den Inhalten der Trainings von Dirk Jödicke eine sehr wichtige Rolle und wird anhand vieler Praxisbeispiele dargelegt.
Dies weiß man, wenn man den Prozess mit seinen Einflussparametern genau kennt. Mit den Werkzeugen Prozesslandkarte, Ursache-Wirkungsmatrix und der statistischen Versuchsplanung kann der optimale Punkt zielgerichtet ermittelt werden.
Viele Prozesse arbeiten nicht am optimalen Punkt, ohne dass die Verantwortlichen dies wissen. Die Folge ist eine erhöhte Ausschussrate.
Ist der optimale Punkt gefunden, so bedeutet dies auch, dass eine Verbesserung nicht mehr möglich ist. Dies bietet ein großes Potential an Einsparungen.
Die Messsystemanalyse geht über die Kalibrierung eines Messmittels deutlich hinaus. Sie fragt, ob das Messmittel für eine konkrete Fragestellung bei einem konkreten Einsatzbereich in der Lage ist, die Messung in vorab definierter Genauigkeit und Präzision durchführen kann. Insbesondere wird die Streuung des Messmittels durch Wiederholbarkeit und Reproduzierbarkeit ermittelt.
In Verbesserungsprozessen muss man dem Messmittel wirklich vertrauen können. Dazu sind Maßnahmen erforderlich, die über eine einfache Kalibrierung des Messmittels hinausgehen. Ohne eine Angabe der Streuung des Messgerätes, der Wiederholbarkeit und der Reproduzierbarkeit bleiben Zweifel an der Richtigkeit der Messwerte. Mit zweifelhaften Messwerten bleibt es dem Zufall überlassen, ob der Prozess verbessert wird oder nicht.
Die verschiedenen Typen und Anwendungsbereiche der Messsystemanalyse werden im Six-Sigma-Trainingsprogramm von Dirk Jödicke an konkreten Praxisbeispielen geschult und trainiert.
Die Streuung eines Messsystems kann nur durch eine Messsystemanalyse (MSA) ermittelt werden. Die MSA Typ 1 ermittelt die Genauigkeit und Wiederholbarkeit, die MSA Typ 2 ergibt zusätzlich Werte für die Reproduzierbarkeit.
Daten können oft auf den ersten Blick widersprüchlich sein. Wenn man den Daten vertraut, so liegen oft Wechselwirkungen verschiedener Einflussparameter vor. Ohne die Kenntnisse von Wechselwirkungen bleiben die Daten widersprüchlich und eine Schlussfolgerung für Verbesserungsprozesse kann richtig oder falsch sein.
Eine Messsystemanalyse hilft den eigenen Daten zu vertrauen. Ohne eine Angabe der Streuung des Messsystems sollte man stets eine gesunde Skepsis zu den Daten haben.
Streuung ist ein natürlicher Vorgang und begleitet alle Produktions- und Entwicklungsprozesse; zur Minimierung der Streuung in Prozessen ist es u.a. wichtig, natürliche Streuung von nicht natürlicher Streuung zu unterscheiden; dies gibt den Technikern wertvolle Hinweise zur Behebung von Problemfällen.
Die Behandlung der Streuung von Prozessen, Ursachenfindung und Minimierung von Streuung sind Kern der Six-Sigma-Ausbildung von Dirk Jödicke.
Die tatsächliche Prozessstreuung darf nicht mit der beobachteten Prozessstreuung gleichgesetzt werden. Dies geht nur, wenn die Streuung des Messgerätes klein ist. Ohne Kenntnis der Streuung des Messgerätes kann keine zuverlässige Aussage der tatsächlichen Prozessstreuung gegeben werden.
Ist die tatsächliche Prozessstreuung bekannt, so kann diese in Kurzzeitstreuung und Langzeitstreuung zerlegt werden. Während die Kurzzeitstreuung in der Regel auf den Einfluss von Störgrößen zurückzuführen ist (natürliche Streuung), können für die Langzeitstreuung oft besondere Einflüsse gefunden werden. Diese Einflüsse können dann gezielt behoben werden. Danach sinkt die Gesamtstreuung des Prozesses.
So bleibt die Six-Sigma-Ausbildung von Dirk Jödicke keine theoretische Veranstaltung. Der Bezug zur Praxis ist entscheidend. Dies setzt voraus, dass konkrete Verbesserungsprojekte mit den Schulungsteilnehmern durchgeführt werden, um das Expertenwissen der Prozessverantwortlichen zu nutzen.
Viele Messungen werden mit einer zu geringen Stichprobe durchgeführt und anschließend ohne statistische Methoden ausgewertet. Die Schlüsse, die daraus gezogen werden, sind leider oft falsch. Einfache statistische Methoden können die Stichprobengröße berechnen, bevor die Datenerhebung stattfindet.
Historische Daten sind Daten, die in einem Unternehmen oder Institution bereits vorhanden sind und für eine Problemlösung herangezogen werden können. Dies setzt voraus, dass historische Daten in hohem Maße vertrauenswürdig sind. In der Praxis existieren viele historische Daten, die jedoch oft nicht erschöpfend analysiert worden sind.
Binäre Daten haben nur 2 qualitative Ausprägungen: erkrankt / nicht erkrankt, Fehler ja / Fehler nein, in Ordnung / nicht in Ordnung. Zur Auswertung von binären Daten wird die binäre logistische Regression benutzt.
Ordinale Daten haben mehr als 2 qualitative Ausprägungen, z. B. gut – mittel – schlecht. Die Ausprägungen von ordinalen Daten lassen sich stets in eine sinnvolle Reihenfolge bringen.
Nominale Daten weisen stets mehr als 2 qualitative Ausprägungen auf, die – im Gegensatz zu ordinalen Daten – keine innere Reihenfolge besitzen, z. B. Schulfächer (Englisch, Mathematik, Kunst, Musik, …) oder Maschinen (A, B, C, …).
Attributive Daten können über Balkendiagramme visualisiert werden. Die statistische Auswertung ist nur über eine logistische Regression unter Zuhilfenahme geeigneter statistischer Software möglich.
Die logistische Regression ist ein mathematisches Verfahren, das qualitative Messgrößen (Fehler ja / Fehler nein) mit quantitativen Eingangsgrößen verbindet. Auf diese Weise können qualitative Messgrößen in Wahrscheinlichkeiten umgewandelt werden. Mit diesen Kenntnissen lassen sich dann die konkreten Einflussfaktoren ermitteln, die die Fehlerrate beeinflussen.
Die logistische Regression ist ein mächtiges Werkzeug in der Analyse binärer Daten (ja / nein). Beispiel aus der eigenen Berufspraxis aus der Flachglas-Industrie von Dirk Jödicke sind ein wichtiger Bestandteil des Six-Sigma-Trainings.
Ein Ausreißer ist ein Messwert, der nicht in eine erwartete Messreihe passt oder den Erwartungen entspricht.
Ausreißer können durch eine geschickte Visualisierung der Daten erkannt werden. Hierfür geeignet sind vor allem Streu-Diagramme, Einzelwert-Diagramme und der Box-Whisker-Plot. Ausreißer können auch mit statistischen Tests untersucht werden (Ausreißer-Test nach Grubbs oder Dixon).
Ausreißer können eine fehlerhafte Einstellung der Messapparatur, ein Messfehler, ein Schreibfehler oder sogar eine Erfindung sein. In jedem Fall muss einem vermuteten Ausreißer nachgeforscht werden. Das Weglassen von Ausreißern ohne eine stichhaltige Überprüfung ist nicht anzuraten. Wenn die Ursache für einen Ausreißer bekannt ist, so kann entscheiden werden, diesen aus dem Datensatz zu entfernen.
Der Vertrauensbereich eines Mittelwertes gibt an, wie gut man den aus der Stichprobe ermittelten Mittelwert kennt. Eine fehlende Angabe des Vertrauensbereiches täuscht eine hohe Genauigkeit und Präzision vor. Dies ist fehlerhaft, irreführend und führt in der Praxis oft zu falschen Schlussfolgerungen.
Das Konfidenzintervall ist ein Synonym für den Vertrauensbereich. Der Vertrauensbereich wird durch die Stichprobengröße, der Streuung der Messdaten und der geforderten Sicherheit (meist 95 %) beeinflusst.