Praxisbeispiel: Flachglas-Produktionsoptimierung mit SIX SIGMA

Im vergangenen Blogbeitrag wurde eines der vielen Erfolgsprojekte bei der Arbeit mit SIX SIGMA thematisiert. Noch spannender als „fremde“ Erfolgsgeschichten sind jedoch eigene Projekte, die von der ersten Analyse bis zur langfristigen Prognose begleitet werden. Als erfahrener SIX SIGMA-Coach durfte ich in der jüngeren Vergangenheit eine Prozessoptimierung in der Flachglas-Herstellung betreuen, die als Praxisbeispiel hier im Blog vorgestellt wird.

Exkurs in die Flachglasproduktion

Flachglas wird hauptsächlich im sogenannten Floatglas-Verfahren hergestellt. Dabei wird eine Mischung aus Quarzsand, Soda, Kalk und weiteren Rohstoffen bei etwa 1.500 °C bis 1.700 °C geschmolzen. Die dabei entstehende zähflüssige Glasmasse wird auf ein Bad aus flüssigem Zinn geleitet – dort verteilt sie sich gleichmäßig und bildet – im Idealfall – eine glatte Oberfläche. Nach anschließender kontrollierter Abkühlung entsteht ein endloses ebenes Glasband, das danach auf Abmessungen von 6 m x 3,21 m geschnitten wird. Diese Glastafeln werden danach weiterverarbeitet bzw. veredelt.

So weit, so gut – und das Problem?

Im Falle des betreuten Kunden kam es immer wieder zur Bildung unregelmäßiger Bläschen auf den Flachglasscheiben – die Fehlerrate vor der SIX SIGMA-Prozessoptimierung betrug etwa 10 Lufteinschüsse auf 600 Meter Länge. Die Lufteinschlüsse mussten am „kalten Ende“ des Produktionsprozesses detektiert werden. Eine große Glasscheibe mit den Maßen 6 m x 3,21 m musste als Abfall deklariert werden, sobald ein Lufteinschluss im Glas erkannt wurde. 10 Lufteinschlüsse auf einer Länge von 600 m klingt wenig. Tatsächlich bedeutet dies jedoch, dass 10 Glastafeln mit jeweils 18 m² erneut eingeschmolzen werden mussten, also 180 m².

Zufällige Lufteinschlüsse – oder doch nicht?

Nach Ansicht aller Projektbeteiligten traten die Lufteinschlüsse randomisiert über eine Glastafel auf. Um dieser Annahme auf den Grund zu gehen, wurden die Glasscheiben mit den Maßen 6 m x 3,21 m in fünf Segmente/Felder unterteilt. Zur Detektion der Lufteinschlüsse während des Produktionsprozesses kamen Kamerasysteme zum Einsatz.

Bekanntes Wissen vor Beginn der systematischen Versuche mit SIX SIGMA

Bei reduzierter Durchlaufgeschwindigkeit ist die Anzahl der eingeschlossenen Luftbläschen sehr gering, während sie bei höherer Durchlaufgeschwindigkeit schnell zunimmt. Eine niedrige Durchlaufgeschwindigkeit ist jedoch aus ökonomischen und energietechnischen Gründen nicht erstrebenswert.

Als Ziel des SIX SIGMA-Projekts galt die Findung von Prozessparametern mit einem Minimum an Lufteinschlüssen, wobei gleichzeitig eine hohe Durchlaufgeschwindigkeit realisiert werden musste.

Werkzeuge: Prozess-Landkarte, Versuchsplan, Stichprobengröße und Datenvisualisierung

Zu Beginn jeder Prozessoptimierung muss der Prozess dahingehend analysiert werden, dass alle Stör- und Regelgrößen systematisch erfasst und den einzelnen Prozessschritten zugeordnet werden. Hierzu sind die Werkzeuge Prozess-Landkarte und Ursache-Wirkungs-Matrix unerlässlich und sehr wirkungsvoll. Als Ergebnis kristallisierte sich heraus, dass vier Faktoren/Einflussgrößen mit je zwei Stufen zu variieren sind, wobei einer dieser vier Faktoren als ein schwer einstellbarer Faktor klassifiziert wurde. Um aus diesen Informationen einen Versuchsplan zu generieren, wurde das Split-Plot-Design, ein spezieller Versuchsplan innerhalb der DoE-Methodik, gewählt. Folglich gab es insgesamt 16 Versuchsdurchläufe. Der Versuchsplan war quasi vollfaktoriell, alle 2-Faktor-Wechselwirkungen waren ermittelbar.

Für jede der 16 Faktorstufenenkombinationen wurde eine Stichprobengröße von ca. 200 Einheiten festgelegt.

Nach der Durchführung der Versuche und der korrekten Datenerhebung wurde mithilfe der Datenvisualisierung und einer Varianzanalyse für die Projektbeteiligten die Summe der Lufteinschüsse für alle 16 Faktorstufenkombinationen und fünf Felder ersichtlich. Hierbei zeigten sich folgende Ergebnisse:

    • Entgegen der anfänglichen Annahme gibt es sehr wohl Kombinationen mit hoher Geschwindigkeit, aber wenigen Fehlern, je nach Einstellung anderer Faktoren. Dieses überraschende Resultat ist eine Folge der festgestellten Wechselwirkungen zwischen einigen Einstellparametern.
    • Der Ort spielt eine Rolle: Die Anzahl der Lufteinschlüsse auf den 5 Feldern ist nicht randomisiert. Es gibt folglich systematische Einflüsse, die auf Basis von Fachwissen der beteiligten Techniker weiter untersucht werden müssen.

Vorsicht bei der Datenanalyse:

Da bei der Varianzanalyse nach dem 2-stufigen Split-Plot-Design der offenbar bedeutende 5-stufige Faktor „Feld“ nicht berücksichtigt werden kann, war sie zur Datenanalyse ungeeignet. Nach dem Allgemeinen Linearen Modell hingegen konnte der Faktor korrekt untersucht werden.

Die Poisson-Regression:

Wie oben bereits erwähnt, sind gezählte Daten – wie die Anzahl von Luftbläschen – in der Regel Poisson-verteilt. In diesem Fall wird die Poisson-Regression verwendet, um die Beziehung zwischen Output und Input-Parametern zu prüfen. Im Falle des Praxisbeispiels der SIX SIGMA-Prozessoptimierung in der Flachglasproduktion zeigte die Datenanalyse über die Poisson-Regression, dass der Einfluss des Altglas-Anteils zwar signifikant, jedoch moderat in der Wirkung war. Die Anzahl der festgestellten Fehler war beim Faktor „Rühren“ und „Anteil Leuter“ nahezu unabhängig von der Geschwindigkeit. Die Untersuchung des Faktors „Feld“ hingegen wies deutlich nach, dass die Verteilung der Fehler auf die fünf Felder nicht wie angenommen randomisiert passiert.

Ergebnis und Prognose nach dem SIX SIGMA-Projekt

Die widersprüchlichen Anforderungen – hohe Durchlaufgeschwindigkeit bei gleichzeitig niedriger Fehlerrate – konnten durch das Aufdecken von Wechselwirkungen erfüllt werden. Die gestellten Anforderungen waren folglich nur scheinbar widersprüchlich.

Entgegen allen Vermutungen waren zusätzlich die Lufteinschlüsse und dadurch resultierenden Fehlstellen nicht über die gesamte Glasfläche randomisiert – es bestand ein systematischer Einfluss, der im Rahmen des SIX SIGMA-Projekts nachgewiesen werden konnte. Durch Erkennen der systematischen Zusammenhänge konnte die Fehlerrate von zuvor 10 Prozent auf 1 Prozent (für das Feld mit der höchsten Anzahl an Fehlstellen) gesenkt werden.

Nach Klärung der systematischen Ursachen für den Faktor „Feld“ sollte die Fehlerrate langfristig sogar auf 0,1 Prozent reduziert werden können – wodurch es bei der Flachglasproduktion des Kunden nur noch zu einem minimalen Ausschuss kommt.

Damit konnte innerhalb eines zeitlichen Aufwandes von etwa drei Monaten die Fehlerrate von 10 Prozent auf 0,1 Prozent reduziert werden. Dies bedeutete für den Kunden eine deutliche Prozessverbesserung sowie eine dauerhafte Einsparung, eine enorme Zunahme an Erkenntnissen und eine deutliche Reduzierung der benötigten Energieressourcen.

Möchten Sie mehr über das Projekt erfahren? Kontaktieren Sie mich gerne.

 

Bild von evening_tao auf Freepik