Michael Wendenburg Online Redaktion

Wie PLM von Data Science & Analytics profitieren kann

Vor ein paar Tagen bin ich auf der Homepage von PLM-Hersteller CONTACT Software über ein interessantes Whitepaper zum Thema Data Science & Analytics gestoßen. Autor Dr. Udo Göbel erläutert die Möglichkeiten und praktischen Probleme mit der algorithmischen Analyse, die nach seinen Worten für jedes Unternehmen heute von strategischer Bedeutung sein sollte. CONTACT Software stellt seinen Kunden mit der offenen Programmiersprache PYTHON, die sich vor allem im Bereich des Machine Learnings zu einer Standardsprache für die Data Scientists entwickelt hat, deshalb eine PLM-integrierte Umgebung für die Datenanalyse bereit.

Analytics

Das Internet der Sozialen Medien und das der Dinge bescheren uns bzw. den Plattformbetreibern riesige Datenmengen, die sie dank der ihnen heute in der Cloud zur Verfügung stehenden Rechenleistung und Speicherkapazität mit Hilfe intelligenter Algorithmen auswerten können, um Vorhersagen über unser Kaufverhalten, den Kurs eines Optionsscheins oder die Bewegung eines autonom fahrenden Fahrzeugs zu machen. Damit ist das Interesse an den Möglichkeiten der Datenanalyse mit Hilfe intelligenter Algorithmen und neuronaler Netze enorm gestiegen und hat dazu geführt, dass sich Data Science als Fachwissenschaft neben der traditionellen Statistik etabliert hat.

Das CONTACT-Whitepaper gibt einen guten Überblick über die Entwicklung der Data Science & Analytics von den Anfängen der Statistik bis zu neuronalen Netzen und Künstlicher Intelligenz (KI) sowie die verschiedenen Formen von nutzbaren Algorithmen. Allerdings muss man schon ein paar Semestern Statistik studiert haben, um die Einzelheiten verstehen zu können. Spannend fand ich die Ausführungen zu den neuronalen Netzwerken, die für den Menschen praktisch nicht mehr nachvollziehbare Vorhersagen oder Entscheidungen treffen. So interpretiere ich jedenfalls folgende Passage:
Besonders problematisch ist auf den ersten Blick das Debugging eines neuronalen Netzwerkes im Falle eines Fehlers. Denken Sie zum Beispiel an autonomes Fahren, wo das neuronale Netzwerk einen Unfall verursacht. Bei einem Expertensystem wäre noch der Regelweg zu erkennen und zu optimieren. Bei einem neuronalen Netzwerk muss man grob gesagt tausende von Unfällen herstellen und das neuronale Netzwerk darauf trainieren, diese zu vermeiden.

Ebenso problematisch ist, dass die Zuverlässigkeit der Algorithmen nicht über alle Zweifel erhaben ist bzw. dass sie getäuscht werden können, wie der Autor am Beispiel eines Bildklassifizierungsalgorithmus auf Basis neuronaler Netze erläutert. Ein gut trainiertes, neuronales Netz kann zwar bessere Vorhersagen treffen als der Mensch, aber auf kleinste Veränderungen in sehr schwer vorhersehbarer Weise reagieren und dadurch zur Gefahr werden.

PLMPulse_2017

Weniger überzeugend finde ich in dem Whitepaper den Brückenschlag von Data Science & Analytics zu PLM. Dass PLM angeblich ein besonders interessantes Einsatzgebiet ist, weil PLM-Plattformen ein Sammelpunkt für riesige Datenmenge sei, wird lediglich mit dem dürren Hinweis auf den digitalen Zwilling bzw. die Möglichkeit, IoT-Geräte über die Cloud an PLM anzubinden, untermauert. Hier hätte man gerne mehr erfahren, wie genau die neuen Möglichkeiten der Datenanalyse in die PLM-Architektur eingebunden werden sollen. Ich vermute mal, dass sie als Bestandteil von CONTACT Elements for IoT in der Cloud bereitgestellt werden sollen, denn es macht wenig Sinn, riesige Datenmengen erst mal in die Cloud zu schicken und dann für die Analyse auf eine lokal installierte PLM-Plattform runterzuladen. Die schlauen Algorithmen für die Analyse werden da gebraucht, wo die Daten entstehen, insbesondere wenn es sich um Daten handelt, die in Echtzeit ausgewertet werden sollen, um z.B. die Produktion im laufenden Betrieb zu optimieren.

Interessiert hätte mich in diesem Zusammenhang auch die Frage, was KI-basierte Analysemethoden leisten können, um die klassischen PLM-Daten zu bereinigen, zu vervollständigen, automatisch zu klassifizieren oder semantische Beziehungen zwischen verschiedenen Informationsobjekten herzustellen. Das ist gerade mit Blick auf den Einsatz von Werkzeugen und Methoden des Model Based Systems Engineerings (MBSE) ein viel diskutiertes Thema, weil die manuelle Verknüpfung von Anforderungen, Funktionen, Bauteilen, Test Cases etc. bei größeren Produkten viel zu aufwendig ist.

In den PLM-Systemen steckt heute eine riesige Menge an (strukturierten) Daten, die genutzt werden könnten, um Management-Entscheidungen abzusichern oder Continuous Improvement-Initiativen zu unterstützen. Leider werden sie kaum ausgewertet, obwohl dafür nicht mal besonders intelligente Algorithmen erforderlich wären. Das wäre meines Erachtens der erste Schritt in die Welt der Data Science & Analtics, bevor wir uns die Auswertung von unstrukturierten Big Data aus dem IoT herantasten.

Der Marktstudie PLMPulse Survey 2017 zufolge leiten 66 Prozent der Unternehmen keine oder nur rudimentäre Key Performance-Indikatoren (KPI) aus ihren PLM-Informationen ab. Nur 25 Prozent der Befragten wertet z.B. die Informationen über Engineering Changes aus, aus denen sich wertvolle Anregungen für Prozessverbesserungen ableiten lassen. Zum Teil hängt das damit zusammenhängt, dass die Informationen schwer zugänglich sind oder für die Analyse exportiert werden müssen. Nur 19 Prozent der Unternehmen nutzen dafür die von ihren PLM-Herstellern bereitgestellten Analyse-Tools und weitere 15 Prozent werten die Daten direkt mit Third-Party-Tools aus. Mit anderen Worten, die meisten Unternehmen machen zu wenig aus ihren PLM-Informationen. Da nimmt es nicht Wunder, dass der Nutzen von PLM für die Mehrzahl nicht greifbar ist.

Weitere Beiträge auf wendenburg.net Seite 1

27.04.2018
Vor ein paar Tagen besuchte ich im MOC Veranstaltungscenter in München das prostep ivip Symposium 2018. Mit 700 Teilnehmern von mehr als 200 Anwenderfirmen, IT-Vendoren und Hochschulinstituten aus 21 Ländern verzeichnete das internationale Familientreffen der PLM-Branche einen neuen Besucherrekord.... Artikel weiterlesen
16.04.2018
Auf ihrem North American Industry and Market Forum in Ann Arbor, Michigan präsentierte die Marktforschungsfirma CIMdata vor kurzem die Zahlen zur Entwicklung des PLM-Marktes und die aktuellen Trends. Oleg Shilovitsky berichtete darüber in einem Blogbeitrag auf Beyond PLM, auf den ich mich beziehe,... Artikel weiterlesen
31.03.2018
Rund zwei Jahre ist es her, dass eine Reihe von PLM-Experten aus Industrie und Forschung auf Initiative von Conweaver in einem Workshop darüber diskutierten, wie sich PLM neu erfinden muss, um die Herausforderungen bei Entwicklung, Fertigung und Betrieb smart vernetzter Produkte und Produktionssysteme... Artikel weiterlesen
09.03.2018
Der Nutzen von PLM ist für die meisten Unternehmen nicht greifbar. Das war die ernüchternde Erkenntnis des PLMPulse Surveys 2017, der auf der PI PLMx im Hamburg vorgestellt wurde. Ohne den Marktforschern zu nahe treten zu wollen, glaube ich, dass das so nicht stimmt. Vielleicht hat man auch einfach... Artikel weiterlesen
03.03.2018
Vor ein paar Tagen bin ich auf der Homepage von PLM-Hersteller CONTACT Software über ein interessantes Whitepaper zum Thema Data Science & Analytics gestoßen. Autor Dr. Udo Göbel erläutert die Möglichkeiten und praktischen Probleme mit der algorithmischen Analyse, die nach seinen Worten für... Artikel weiterlesen
25.02.2018
Die PI PLMx, die in diesem Jahr in Hamburg stattfand, hat sich als fester Treffpunkt der europäischen PLM-Experten etabliert, auch wenn die Veranstaltung von der Teilnehmerzahl bei weitem nicht an das prostep ivip-Symposium heranreicht: Rund 225 Besucher, darunter 135 Vertreter von Anwenderfirmen, trafen... Artikel weiterlesen
12.02.2018
Dassault Systèmes präsentierte auf der SolidWorks World 2018 in Los Angeles neben den Fortschritten bei der Entwicklung der Cloud-CAD-Anwendung xDesign und Cloud-basierten PLM-Diensten für SolidWorks-Anwender seinen Traum von einem weltumspannenden Marktplatz für Fertigungsunternehmen und Zulieferer,... Artikel weiterlesen
07.02.2018
Vor ein paar Monaten kündigte Aras auf der ACE 2017 in München an, das eingesammelte Venture Capital in Höhe von 40 Millionen US-Dollar unter anderem dafür nutzen zu wollen, seine PLM-Plattform um den Bereich Maintenance, Repair & Overhaul (MRO) zu erweitern. Jetzt lässt das Unternehmen den... Artikel weiterlesen