Best Practice

Predictive Maintenance

Predictive Maintenance beruht zwar im Kern auf Big Data, die Umsetzung konkreter Projekte erfordert aber ein Kompetenzprofil, das z. B. auch Netzwerke, Telekommunikation, IT-Architektur, das IoT, Cloud Computing und Security umfasst. Reply verfügt über die nachgewiesene Expertise in allen Bereichen, die für Predictive Maintenance relevant sind.

Big Data als Herausforderung

Die Datenmengen, die eine hochkomplexe Industrieanlage produziert, sind immens. Die Datenströme sind dabei durch die 5 Vs charakterisiert.

Variety

Die Integration unterschiedlicher Datenquellen und die Notwendigkeit auch unstrukturierte Daten zu integrieren, stellen eine Herausforderung dar, der traditionelle, relationale Datenbanken nicht gewachsen sind. Dies gilt insbesondere, wenn nicht absehbar ist, welche Datenquellen künftig noch hinzukommen werden. So kommen im Kontext vorausschauender Instandhaltung unter anderem Audio-, Video-, Radar- oder Bilddaten in Betracht, deren Auswertung in Kombination mit weiteren Daten wichtige Aufschlüsse über den Zustand und den Ausfallzeitpunkt eines Gerätes  liefern.

Volume

Die Datenmenge. Sensorennetzwerke in Industrieanlagen, Controllernetzwerke in Fahrzeugen produzieren kontinuierlich Daten in Dimensionen von Zettabytes und Brontobytes. Derartige Datenmengen sind mit traditionellen Datenbankmodellen nicht mehr beherrschbar. Zum Speichern und für die Verarbeitung kommen daher verteilte Systeme (wie Hadoop) zum Einsatz, die Datenbanken in einer Netzwerkstruktur organisieren.

Veracity

Der Wahrheitsgehalt der Daten spielt eine entscheidende Rolle. Messfehler z.B. müssen  erkannt und ausgeglichen werden. Mithilfe von Modellen die auf historischen Daten aufbauen, muss die Spreu vom Weizen getrennt werden.

Value

Der Wert der Daten ist nicht intrinsisch und der Nutzwert muss erst durch Verarbeitung geschaffen werden. Die geeigneten Variablen aus massiven Datenvolumina herauszudestillieren gehört zu den zentralen Herausforderungen eines jeden Big Data-Projekts.

Velocity

Produktionsprozesse laufen in Echtzeit ab, und so weisen Sensordaten eine hohe zeitliche Granularität auf und sie müssen in Echtzeit verarbeitet werden, wenn sie zur automatisierten Justierung laufender Prozesse verwendet werden sollen.

Datenquellen und Infrastruktur

Das Ziel liegt darin, sicherzustellen, dass die IT-Architektur den Anforderungen des gesetzten Ziels auch wirklich gerecht wird. Eine zentrale Herausforderung besteht in der Erweiterung klassischer, relationaler Datenbanken um unstrukturierte Daten.

Daher hängt die Entscheidung im Wesentlichen auch davon ab, mit welcher Geschwindigkeit die Daten über den Schritt der Analyse in Aktion umgesetzt werden sollen bzw. welcher Automatisierungsgrad für die Prozesse angestrebt wird. Diese Frage kann ebenso wenig generell beantwortet werden, wie die Frage nach relevanten Datenquellen: beides hängt stark vom jeweiligen (branchenspezifischen) Einsatzszenario ab.

Picture
Picture

Datenexploration und Modellentwicklung

Zielsetzung und Realisierbarkeit werden aus unterschiedlichen wirtschaftlichen, technischen, rechtlichen und IT-Gesichtspunkten ausgewertet. Nachdem die Ziele des Projektes festgelegt sind, entwickelt der Data Scientist statistische Modelle, die alle Variablen bestimmen und integrieren, um Vorhersagen treffen zu können, wann es zu einem Ausfall eines Gerätes, eines Motors oder einer Maschine kommen wird.

Die Modelle werden sodann durch Anwendung auf Test- und Trainingsdaten überprüft: dies ermöglicht eine Qualitätseinschätzung des Modells und weitere Verfeinerung, um exaktere Voraussagen zu erzielen.

Prozessintegration

Vorhersagen und Ergebnisse aus Analytics müssen in die Prozesse des Unternehmens verankert werden. Relevante Personen haben rechtzeitig Zugriff mit den richtigen Tools und einem User Interface, dass sie bei der Entscheidungsfindung optimal unterstützt.

Die Wahl der geeigneten Tools hängt von vom gewünschten Grad an Automatisierung ab, d.h. in wie weit Mitarbeiter die Daten nach der Erhebung weiter analysieren und interpretieren, oder ob Instandhaltungsprozesse automatisiert angestoßen werden.

Picture

Predictive Maintenance beruht zwar im Kern auf Big Data, die Umsetzung konkreter Projekte erfordert aber ein Kompetenzprofil, das z.B. auch Netzwerke, Telekommunikation, IT-Architektur, das IoT, Cloud Computing und Security umfasst.

Reply verfügt über die nachgewiesene Expertise in allen Bereichen, die für Predictive Maintenance relevant sind.

Reply engagiert sich im Rahmen der OPC Foundation für die Entwicklung globaler Standards für das IoT mit dem Ziel,  einen übergreifenden Standard für die industrielle Automatisierung als Grundlage von Industrie 4.0 zu schaffen.

Reply bringt dabei die Erfahrung und technische Expertise aus zahlreichen Projekten ein, um bei der Entwicklung zur Industrie 4.0 zu neuen Ufern aufzubrechen; hierbei übernimmt Predictive Maintenance als zentraler Innovationstreiber eine Schlüsselfunktion.

Predictive Maintenance in der Praxis

Picture

Syskoplan Reply ist eine auf SAP Beratungs- und Implementierungsdienstleistungen spezialisierte Gesellschaft der Reply-Gruppe. Syskoplan Reply betreut seine Kunden bei der Einführung innovativer Lösungen zur Optimierung ihrer Prozesse. Dabei baut das Unternehmen auf die SAP HANA Plattform, Realtime Analytics, ebenso wie SAP Lösungen für das Internet der Dinge sowie auf neue Anwendererlebnisse mit SAP Fiori. Dieser Ansatz ist das Alleinstellungsmerkmal von Syskoplan Reply und richtet sich an Unternehmen, die Customer Engagement und Commerce, digitale Lösungen sowie Customer-Supplier-Netzwerke einführen wollen.