Tabak

Ausfallzeiten verringern mit der Macht der Daten

Das Körber-Geschäftsfeld Tabak nutzt Big-Data-Analysen, um ungeplante Ausfallzeiten zu verringern und die Effizienz von Maschinen bei Kunden zu steigern. Das Erfolgsrezept ist die Kombination von Datenwissen und Branchenerfahrung.

Die Suche nach der Ursache war langwierig. Eine Maschine bei einem großen Zigarettenhersteller produzierte zu viel Ausschuss – mehr als jede hundertste Zigarette, und das beständig. Pro Schicht waren das mehr als 100.000 Stück. Bediener und Experten versuchten, die Ursache zu ergründen. „Rund 25 verschiedene mögliche Fehlerquellen wurden über ein halbes Jahr lang geprüft. Eine tiefe und umfassende Datenuntersuchung brachte den Durchbruch“, erinnert sich Marc Stahl. Er leitet im Körber-Geschäftsfeld Tabak das Big Data Analytics Project.

Die Folgen des Problems, das Stahls Team löste, kennen fast alle produzierenden Industrien: Beim Einsatz von Maschinen kommt es zu Ausfällen, zu Ausschuss oder zu Verzögerungen bei der Fehlerbehebung. Das ist lästig für die Unternehmen – und teuer. Denn jede Minute, in der eine Maschine nicht planmäßig läuft, kostet Erträge.

Die Ursachen können vielfältig sein: In der tabakverarbeitenden Industrie reißt vielleicht das Papier in der Zigarettenmaschine. Oder der Tabakstrang bricht in der Herstellung. „Meist sind es minimale Abweichungen bei der Einstellung der Maschinen, die zu Störungen führen“, weiß Karsten Eckert, Entwickler für Maschinensoftware bei Hauni, dem Führungsunternehmen des Körber-Geschäftsfelds Tabak. „Das können Verschiebungen im Millimeterbereich sein, manchmal sogar nur ein Viertelmillimeter.“ Mit bloßem Auge kaum zu erkennen – aber mithilfe von Daten erfassbar.

Wie läuft’s? Am Bildschirm können die Big-Data-Experten verfolgen, welche Leistung Maschinen in der Produktion haben.
Fehlern auf der Spur: Marc Stahl leitet das Big Data Analytics Project.

Datenanalyse reduziert Fehlerquoten und Ausfallzeiten

Das Volumen der Maschinendaten, die in der Produktion gesammelt werden, nimmt ständig zu. Sensoren liefern Informationen zu den Prozessen, wie zum Beispiel zu Geschwindigkeit, Temperatur, Druck und vielen anderen Parametern. Im Big Data Analytics Project nimmt Hauni diese Daten genauer unter die Lupe. Hier arbeiten und entwickeln Data Scientists gemeinsam mit Experten aus Softwareentwicklung und Automatisierung. „Die Kombination von Big-Data-Erkenntnissen, Maschinenbau-Expertise und der Erfahrung im Verarbeitungsprozess macht das Team so schlagkräftig“, sagt Ralf Heikens. Er leitet das Hauni Innovation Centre Automation Technology, das unter anderem das Big Data Analytics Project vorantreibt.

lDie Kombination von Big-Data-Erkenntnissen, Maschinenbau-Expertise und der Erfahrung im Verarbeitungsprozess macht das Team so schlagkräftig.r

Ralf Heikens, Leiter Hauni Innovation Centre Automation Technology

Diese Analysen ermöglichen Hauni Lösungen und Services, mit denen Kunden ihre Fertigung optimieren und effizienter produzieren. „Wir erhöhen die Verfügbarkeit der Anlagen und verbessern die Produktionsperformance unserer Kunden“, sagt Marc Eickershoff, Programm-Manager für digitale Performance-Optimierung. Ein wichtiger Baustein für alle Kunden, die ihre Gesamtanlageneffektivität (Overall Equipment Effectiveness oder auch OEE) steigern wollen. Kurz: die ihre Maschinenauslastung und -leistung verbessern wollen.

Der Kunde, dem die Maschine mit der hohen Ausschussquote gehört, profitierte davon, dass seine Anlagen Teil des Entwicklungsprojekts Big Data Analytics sind. Die Hauni-Experten untersuchten die Maschine vor Ort intensiv: Sind alle Sensoren kalibriert? Sind die Messwerte plausibel? „Wir sind da richtiggehend reingekrochen“, erinnert sich Maschinen-Softwareentwickler Peter Kalus. Eine Edge-Computing-Anwendung sammelte die Messwerte der Maschine vor Ort und leitete sie an ein Big-Data-Cluster im Hauni-Rechenzentrum weiter.

„Wir haben die Daten vieler Maschinen über längere Zeiträume übereinandergelegt und berechnet, wie ein Normalzustand aussieht und wie ein anormaler“, erklärt Stahl. Anomalie-Detektion – so nennen Fachleute das Vorgehen. Durch den Abgleich mit den aktuellen Maschinendaten fand das Team um Projektleiter Stahl schließlich heraus, warum zu viele Zigaretten als fehlerhaft ausgeworfen wurden: Ein Messerträger in der Strangmaschine wies einen kleineren Defekt auf, zusätzlich gab es eine mechanische Verstellung im Trommelbereich. Trat beides zeitgleich auf, produzierte die Maschine einen erhöhten Ausschuss. „Diese Maschine produziert bis zu 20.000 Zigaretten pro Minute, mit einer Bearbeitungszeit von drei bis sechs Millisekunden pro Zigarette“, erklärt Heikens. „Ohne Big-Data-Analysen hätten wir die Ursachen für die erhöhten Ausschussraten nur unter extrem höheren manuellen Aufwänden gefunden.“

Zusammenspiel der Disziplinen ist entscheidend für den Erfolg

Die Daten zu haben ist das eine – sie richtig zu interpretieren das andere. Im Zusammenspiel verschiedener Fachdisziplinen entstehen Lösungen, die Kunden schnell und zuverlässig helfen. Dabei liefern die Data Scientists Informationen und unterstützen die Experten an den Maschinen dabei, diese richtig zu interpretieren und dementsprechend zu handeln. Für den Kunden aus dem Entwicklungsprojekt Big Data Analytics bedeutete das konkret: Die Strangbrüche wurden von bis zu 25 auf drei pro Tag reduziert, die Maschine stoppte nur noch alle 40 statt alle zwölf Minuten. Die Anlageneffektivität stieg so innerhalb von nur zwei Wochen um 17 Prozentpunkte auf 87 Prozent, ein für die Tabakindustrie beachtlicher Wert.

Die Vision: Selbstlernende Maschinen

Das Big Data Analytics Project kombiniert das enorme Wissen von Körber in Maschinen- und Anlagenbau und Produktionssoftware mit dem gewaltigen Verbesserungspotenzial großer Datenmengen. Als das Projekt 2017 bei einem Kunden in Asien startete, wurden Informationen noch lokal gesammelt und manuell zu Hauni nach Hamburg-Bergedorf geschickt. Bei 3.000 erfassten Parametern kamen so rund zehn Gigabyte pro Tag und Maschine zusammen. Kurz darauf begann die Zusammenarbeit mit Kunden in Europa. Die in den Anlagen gesammelten Daten werden seitdem permanent online und in Echtzeit ans Hauni-Rechenzentrum gesendet.

Heute liefern die Big-Data-Anwendungen ein breites Spektrum an Lösungen für OEE: etwa das Erkennen und Erarbeiten von Empfehlungen zum Beheben von Anomalien, die Optimierung verschiedener Parameter für eine bessere Gesamtleistung von Maschinen und Anlagen oder die Analyse und Vermeidung von ungeplanten Maschinenstopps.

Das große Ziel ist noch ehrgeiziger: die Entwicklung hoch automatisierter, selbstlernender Maschinen. Der Weg dahin führt über eine noch engere Vernetzung mit Kunden, Informationen sollen per Edge Computing möglichst nah an den Anlagen vor Ort verarbeitet werden.

lUns leitet die Maxime, nur Dinge zu entwickeln, die unsere Kunden auch tatsächlich brauchen.r

Dr. Bernd Pape, Head of Digitization bei Hauni

Die volle Stärke entfaltet Big Data, wenn alle relevanten Informationen gebündelt werden, etwa durch flottenweites und anonymisiertes Auswerten von Maschinendaten. Hauni arbeitet deshalb intensiv an einer IIoT-Plattform (Industrial Internet of Things). „Mit der Hauni Digital Suite, kurz HDS, bauen wir ein cloudbasiertes, skalierbares und modulares Produkt-Ökosystem auf. Je nach Bedarf und natürlich auch Reifegrad der Kunden können wir Features maßgeschneidert anbieten“, sagt Programm-Manager Marc Eickershoff. Die erste Version soll im Laufe dieses Jahres als Minimum Viable Product (MVP) an den Start gehen und die gesammelten Erkenntnisse aus dem Big Data Analytics Project einer größeren Gruppe der Hauni-Kunden zugänglich machen. Die HDS ist kein geschlossenes System, sondern ist als offene Plattform konzipiert. So können im nächsten Schritt beispielsweise Schnittstellen zu digitalen Lösungen entwickelt werden, die unsere Kunden selbst weiterentwickeln und nutzen.

„Insgesamt fokussieren wir mit der Hauni Digital Suite die OEE-Verbesserung bei unseren Kunden“, sagt Dr. Bernd Pape, Head of Digitization bei Hauni. „Danach werden wir gemeinsam mit unseren MVP-Kunden die nächsten Anforderungen aufnehmen. Uns leitet dabei die Maxime, nur Dinge zu entwickeln, die unsere Kunden auch tatsächlich brauchen. Das gelingt durch intensiven Austausch und echte Kundennähe.“

Von der Idee zur Anwendung: Das Big Data Analytics Project


  • Das Datenanalyse-Team startet und kooperiert mit der Fraunhofer-Allianz Big Data.
  • Beginn der Zusammenarbeit mit einem Kunden in Asien, zusammen mit Hauni Consulting. Experten identifizieren 3.000 Parameter, die erfasst werden. Pro Tag und Maschine werden zehn Gigabyte an Daten gesammelt und manuell zu Hauni gesendet.
  • Erster Erfolg: Der Ausschuss beim Kunden halbiert sich.

  • Das nächste Projekt mit einem Kunden in Europa startet. Per Edge Computing werden Daten der Maschine vor Ort erfasst und direkt ins Hauni-Rechenzentrum geschickt.
  • Entwicklung von explorativer Datenanalyse und Entwicklung von automatischer Anomalie-Detektion.
  • Zweiter Erfolg: Die Anlageneffektivität verbessert sich um 17 Prozentpunkte auf 87 Prozent.

  • Daten werden per Edge Computing möglichst nah an der Maschine verarbeitet.
  • Gemeinsam mit Hauni-Kunden werden weitere Big-Data-Anwendungen entwickelt, etwa zur Analyse der Eingangsmaterialien, dem Finden der genauen Stoppursache oder zum Empfehlen von optimierten Einstellungen der Maschine.
  • Aufbau einer Internet-of-Things-Plattform, auf die Kunden direkt zugreifen. Das Minimum Viable Product (MVP) soll im Laufe des Jahres 2020 an den Start gehen.
nach oben
nach oben