Viele Produktionsunternehmen sind dabei, Fertigungsprozesse und ganze Wertschöpfungsketten zu digitalisieren. Für alle gilt: Es braucht ein tragfähiges Konzept für die Sammlung, Speicherung und Auswertung der vielen Daten, die im Zuge der Digitalisierung von Fertigungsprozessen anfallen.

Manche stehen noch am Anfang, andere sind schon mittendrin: Viele produzierende Unternehmen haben ihre Industrie-4.0-Initiative erfolgreich auf den Weg gebracht. Ohne die Integration der Daten ist Industrie 4.0 allerdings nicht denkbar. Was aber ist in Sachen Datenintegration auf dem Weg zur smarten Fabrik wichtig und was nicht?

Ziele von Industrie-4.0-Initiativen

Eine gelungene Integration aller Datenströme stellt das Fundament für wichtige Anpassungen der Produktion dar, um beispielsweise die Gesamtanlageneffektivität oder die Gesamtproduktionseffektivität zu steigern. Wollen sie die Möglichkeiten und die zahlreichen Vorteile einer digitalisierten Produktion nutzen, müssen Unternehmen in drei Bereichen tätig werden: Daten, Datenintegration und Datenanalyse. Denn der Kern von Industrie-4.0-Initiativen besteht aus Informationen, ihrer Integration und ihrer Auswertung.

Die klassische Industrie 3.0 hat hohen Optimierungsbedarf, was die Datennutzung zum Generieren von Wissen betrifft. Produktionssysteme dieser Generation weisen eine starke Fragmentierung in Datensilos auf. Sie sind kaum vernetzt, sodass keine ganzheitliche Betrachtung von Prozessen möglich ist. Laut Schätzungen wird gegenwärtig weniger als ein Prozent der unstrukturierten Daten eines Unternehmens analysiert. Deshalb findet auch eine Betrachtung und Verknüpfung von internen wie externen Daten häufig nicht statt – obwohl der Anteil unstrukturierter Daten bis zu 80 Prozent ausmacht.

Ungeheures Potenzial: Daten in der Produktion

In den Daten von Fertigungsunternehmen steckt enormes Potential. Deren Nutzung ist jedoch für viele Organisationen herausfordernd. Mit geeigneten Applikationen lassen sich die Schwierigkeiten aber lösen:

Volume – die Datenmenge

Produktionsanlagen werden mit immer mehr Sensoren ausgestattet, die permanent und in Echtzeit Daten über die unterschiedlichsten Produktionsparameter liefern. Big-Data-Technologien unterstützen bei der Speicherung, Verarbeitung und Analyse dieser Daten und liefern wertvolle Erkenntnisse.

Velocity – die Übermittlungsgeschwindigkeit

Nutzt man beispielsweise eine Applikation für Predictive Maintenance, also zur Vorhersage und Vermeidung von Anlagenausfällen, müssen die Informationen zeitnah an die Wartungsmitarbeiter übermittelt werden. Moderne Streaming Analytics-Technologien ermöglichen eine solche Alarmierung und Proaktivität in den operativen Prozessen einer Produktion.

Variety – die Datenvielfalt

Die wahrscheinlich größte Herausforderung bei analytischen Industrie-4.0-Anwendungen liegt in der Vielfalt der Daten. Bevor die Daten zentral zusammengebracht werden, müssen erst unzählige proprietäre Datenquellen angezapft werden. Im Bereich der Sensoren existiert keinerlei Standard, und Daten werden über eine Vielzahl von Formaten und Protokollen geliefert. Es bedarf daher leistungsstarker und flexibler Datenintegrationswerkzeuge zur Überwindung dieser Herausforderungen.

Datenintegration: Die einzelnen Ausbaustufen

Eine große Herausforderung für die systematische Datennutzung in der Produktion liegt darin, die verstreuten Datenquellen so zusammenzuführen, dass am Ende ein optimaler Datenfluss entsteht, der alle wichtigen Systeme in der richtigen Zeit mit den passenden Daten versorgt. Dafür lassen sich folgende Stufen identifizieren:

1. Data Warehouse

Klassische Data-Warehouse-Implementierungen führen Daten aus den unterschiedlichen Systemen automatisiert zusammen, aggregieren sie und stellen Kennzahlen bereit.

2. Data Lake

In der nächsten Entwicklungsstufe gilt es, mehr Daten zu integrieren und in den Prozessen als Information verfügbar zu machen. Semi- und unstrukturierte Daten müssen angebunden und genutzt werden. Neben der Ausstattung alter Maschinen mit entsprechenden Sensoren, dem Retro-Fitting, und der Datenanbindung verschiedener Sensoren müssen auch neue Systeme für die Speicherung und Verarbeitung dieser Informationen geschaffen werden. Data Lakes und Big-Data-Technologien sind die Basis für alle darauf aufsetzenden Advanced Analytics- und Data Science-Applikationen.

3. Near Realtime

Die nächste Stufe setzt auf die Verarbeitung von Daten in Fast-Echtzeit. Die Datenströme werden nicht erst im Data Warehouse oder Data Lake persistiert, sondern direkt dort ausgewertet, wo sie entstehen: nah am Sensor. Analytics on the Edge ermöglicht es, Probleme bereits im Vorfeld abzuwenden: Wird ein bestimmter Schwellwerte erreicht, löst das einen Alarm oder die automatische Abschaltung von Maschinen aus.

4. Data Blending

Darunter wird der Prozess der Kombination von Daten aus mehreren Quellen verstanden, um einen analytischen Datensatz für Entscheidungen zu haben. Data Blending ist erforderlich, wenn die Datenintegrationsprozesse und die Infrastruktur eines Unternehmens nicht ausreichen, um spezifische Datensätze zusammenzuführen, die von den einzelnen Geschäftsbereichen benötigt werden.

Datenauswertung: Von der Analyse bis zur Handlungsempfehlung

Die verschiedenen Integrationsstufen bei Daten aus der digitalen Fertigung spiegeln sich auch in der Ausprägung der Auswertungsverfahren für diese Informationen wider: die Reise beginnt bei der klassischen Auswertung historischer Daten und endet bei Advanced Analytics mit Prognosen für zukünftige Entwicklungen mitsamt Handlungsempfehlungen oder Aufträgen an Prozesse oder andere Teilnehmer der Wertschöpfungskette. Nach der Überwindung der Datensilo-Welt steht die Erzeugung von Wissen durch Analysen und seine Verteilung an die richtigen Personen im Unternehmen an. So genannte Advanced Analytics bilden daher das Herz vieler Industrie-4.0-Anwendungen.

1. Business Intelligence

Business-Intelligence-Anwendungen versorgen Fachanwender mit Informationen in Form von Berichten, Dashboards oder Self-Service-Auswertungen. Dadurch erhält man beispielsweise Einblicke in die Performance der Anlagen oder in Wartungsaktivitäten. So lassen sich Vergleiche von Rüstzeiten zwischen Maschinen oder Werken schnell aufdecken, etwa ob es Defizite bei einzelnen Teams oder Standorten gibt.

2. Prädiktive Analysen

Dabei geht es weniger um den Blick nach hinten, sondern um Zukunftsprognosen und die Entdeckung versteckter Zusammenhänge in den Daten. Prädiktive Analysen prognostizieren, was als Nächstes passieren kann und eröffnen die Möglichkeit, Problemen proaktiv gegenzusteuern.

3. Präskriptive Analysen

Sie geben Auskunft darüber, wie Unternehmen mit zukünftigen Herausforderungen umgehen sollten, und unterbreiten konkrete Handlungsempfehlungen für anstehende Aufgaben in der Produktion.

Am Ziel: Wettbewerbsvorteile realisieren

Im Rahmen einer gelungenen Industrie-4.0-Initiative sorgen leistungsfähige moderne Technologien dafür, dass Wettbewerbsvorteile wirklich realisiert und neue Perspektiven für künftige Produktionsszenarien möglich werden. McKinsey berichtet, dass Industrie-4.0-Applikationen das Potenzial haben, bis 2025 einen Wert von 3,7 Billionen US-Dollar pro Jahr zu erreichen. Fertigende Unternehmen profitieren bei der Umsetzung von Industrie-4.0-Projekten von folgenden Vorteilen:

  • Produktivitätssteigerung und Kostensenkung
  • Höhere Genauigkeit von Planungen und Forecasts
  • Verkürzung der Zeit des Go-to-Market
  • Steigerung der Wettbewerbsfähigkeit

Autor: Stefan Müller

(c)2020
Vogel Communications Group

Bitte beachten Sie

Die Beiträge in der Rubrik "Trends und Innovationen" sind Inhalte unseres Medienpartners Vogel Communications Group GmbH & Co. KG. Sie spiegeln nicht unbedingt die Meinung von DATEV wider.

Vogel Communications Group