Michael Wendenburg Online Redaktion

Linked Data 2016: Schöne neue Welt der Verlinkung

Da hat man sich gerade mal an die Idee gewöhnt, dass monolithische PLM-Systeme passé sind und dass die Zukunft föderierten Systemen mit verlinkten Informationen gehört, da ist auch das schon fast wieder Schnee von gestern. In Zukunft brauchen wir die Informationen gar nicht mehr zu verlinken, sie verlinken sich mit Hilfe von LSTM-Netzen selbst. LSTM steht für Long Short Term Memory und bezeichnet einen bestimmten Typ von selbst lernenden Systemen. So ähnlich steht es in Wikipedia, und mehr weiß ich auch nicht darüber.

Linked Data

Das Überraschende ist nicht die Tatsache an sich, sondern wie schnell sich die künstliche Intelligenz anschickt, die klassischen Werkzeuge und Methoden der Informationsverarbeitung abzulösen. Kleinstcomputer haben heute schon mehr Rechenleistung als das menschliche Gehirn, so dass der gesunde Menschenverstand über kurz oder lang durch Computerverstand abgelöst wird. Ob das gesund ist, wage ich allerdings zu bezweifeln, zumal die ethische Diskussion über den Umgang mit künstlicher Intelligenz gerade erst in Gang kommt und von der Geschwindigkeit ihrer Entwicklung überrollt zu werden droht.

Vor ein paar Tagen besuchte ich eine interessante Veranstaltung in Darmstadt, bei der es um das Thema intelligente Verlinkung ging, und um die Auswirkungen auf PLM. Organisiert wurde Linked Data 2016 von der Firma Conweaver. Michael Schneider, Bereichsleiter Enterprise und Engineering Plattformen bei der Robert Bosch GmbH, erläuterte dort in einem Vortrag, wie Bosch die Herausforderung der Integration von vier Geschäftsbereichen mit höchst unterschiedlichen Prozessen und Produktspektren mit Hilfe der Verlinkung von Informationen zu meistern versucht. Grundlage ist der von Conweaver entwickelte ePLM Navigator. Was Schneider über die Möglichkeit sagte, Systeme bzw. die in ihnen steckenden Informationen künftig mit Hilfe künstlicher Intelligenz so zu verlinken, dass der heutige Dokumentationsaufwands weitgehend überflüssig wird, war für manche Teilnehmer ein Aha-Erlebnis. Und das waren alles Leute mit viel PLM-Background.

Die Verlinkung von Informationen mit Hilfe künstlicher Intelligenz ist vermutlich der einzige Weg , um die wachsende Flut an digitalen Daten, die noch dazu zum Großteil unstrukturiert ist, beherrschbar zu machen. Sie von Menschenhand und mit gesundem Menschenverstand strukturieren zu wollen, wäre viel zu aufwendig. Integrationen und Migrationen würden mit selbstlernenden Systemen viel einfacher meinte Schneider. Man könne einfach ein System an die IT-Infrastruktur anschließen, der Computer durchsuche die Informationen und schlage vor, wie sie mit vorhandenen Informationen verknüpft werden könnten. Ein Traum für Systemadministratoren – und ein Alp für Systemintegratoren, die davon leben, unterschiedliche IT-Systeme zu verbinden.

Ist die Programmierung von Schnittstellen, über die Daten hin- und hergeschoben und aufeinander gemappt werden, also ein Auslaufmodell? Nicht ganz, denn die Sache hat einen Haken, und dieser Haken wird in dem Maße größer, in dem die Collaboration zunimmt: Die Verlinkung funktioniert eigentlich nur innerhalb der Firewall, nicht weil es technisch unmöglich wäre, Informationen unternehmensübergreifend zu verlinken, sondern weil kein Unternehmen sich von außen in seine Datentöpfe schauen lassen würde. Und schon gar nicht mit intelligenten Algorithmen, die dabei vielleicht zum Ausspähen von Informationen genutzt werden könnten.

Die Verlinkung löst also nicht alle Aufgaben, vor denen die Unternehmen bei der Restrukturierung ihrer PLM-Landschaften stehen, jedenfalls nicht hier und jetzt. Sie kann nämlich nur funktionieren, wenn die Menschen in den Unternehmen offener mit Informationen umgehen und wenn die Offenheit der IT-Systeme gegeben ist. Das waren zwei der wesentlichen Erkenntnisse aus den Diskussionsrunden über die Vorteile und Schwierigkeiten der Verlinkung aus Unternehmens-, Nutzer-, Implementierungs- und Prozesssicht. Die Verlinkung erlaubt es, Abläufe dynamischer zu gestalten und gleichzeitig die Prozesssicherheit zu gewährleisten. Eine große, strategische Herausforderung aber ist die Integration der neuen Lösungsansätze in die gewachsenen IT-Landschaften.

Weitere Beiträge auf wendenburg.net Seite 10

27.11.2016
Der PLM-Blätterwald lichtet sich. Gründe dafür gibt es viele: Die seit Jahren schrumpfende Zahl der PLM-Anbieter, mehr noch ihre schrumpfenden Anzeigenbudgets und ihre Präferenzen für das Online-Marketing, für das es in Deutschland eigentlich gar keine Plattformen gibt. Aber natürlich auch die... Artikel weiterlesen
25.11.2016
Der Kauf von Mentor Graphics durch Siemens Industry Software passe wie die berühmte Faust aufs Auge zur Siemens-Vision eines durchgängigen, digitalen Backbones von der Produktentwicklung bis an die Maschine, schreibt mein geschätzter Blogger-Kollege Ralf Steck im Engineering Spot. Ich bin mit ihm,... Artikel weiterlesen
22.11.2016
Da hat man sich gerade mal an die Idee gewöhnt, dass monolithische PLM-Systeme passé sind und dass die Zukunft föderierten Systemen mit verlinkten Informationen gehört, da ist auch das schon fast wieder Schnee von gestern. In Zukunft brauchen wir die Informationen gar nicht mehr zu verlinken, sie... Artikel weiterlesen
20.09.2016
Die Anreicherung von 3D-Modellen mit Maßen, Toleranzen und anderen Fertigungsinformationen ist notwendige, aber nicht hinreichende Voraussetzung für ihre prozessdurchgängige Nutzung in Fertigung oder Qualitätssicherung. Die Anwender und IT-Systeme dort müssen die PMIs (Product Manucfacturing Informationen)... Artikel weiterlesen
19.07.2016
In einem meiner letzten Beiträge für den PLM-Blog von CONTACT Software habe ich darzulegen versucht, warum es aus Anwendersicht so wichtig ist, PLM aus seinem Engineering-Nischendasein zu befreien. Ebenso wichtig ist es aus Anbietersicht, wenn die PLM-Hersteller sich auf Dauer am Markt behaupten wollen.... Artikel weiterlesen