Das Überraschende ist nicht die Tatsache an sich, sondern wie schnell sich die künstliche Intelligenz anschickt, die klassischen Werkzeuge und Methoden der Informationsverarbeitung abzulösen. Kleinstcomputer haben heute schon mehr Rechenleistung als das menschliche Gehirn, so dass der gesunde Menschenverstand über kurz oder lang durch Computerverstand abgelöst wird. Ob das gesund ist, wage ich allerdings zu bezweifeln, zumal die ethische Diskussion über den Umgang mit künstlicher Intelligenz gerade erst in Gang kommt und von der Geschwindigkeit ihrer Entwicklung überrollt zu werden droht.
Vor ein paar Tagen besuchte ich eine interessante Veranstaltung in Darmstadt, bei der es um das Thema intelligente Verlinkung ging, und um die Auswirkungen auf PLM. Organisiert wurde Linked Data 2016 von der Firma Conweaver. Michael Schneider, Bereichsleiter Enterprise und Engineering Plattformen bei der Robert Bosch GmbH, erläuterte dort in einem Vortrag, wie Bosch die Herausforderung der Integration von vier Geschäftsbereichen mit höchst unterschiedlichen Prozessen und Produktspektren mit Hilfe der Verlinkung von Informationen zu meistern versucht. Grundlage ist der von Conweaver entwickelte ePLM Navigator. Was Schneider über die Möglichkeit sagte, Systeme bzw. die in ihnen steckenden Informationen künftig mit Hilfe künstlicher Intelligenz so zu verlinken, dass der heutige Dokumentationsaufwands weitgehend überflüssig wird, war für manche Teilnehmer ein Aha-Erlebnis. Und das waren alles Leute mit viel PLM-Background.
Die Verlinkung von Informationen mit Hilfe künstlicher Intelligenz ist vermutlich der einzige Weg , um die wachsende Flut an digitalen Daten, die noch dazu zum Großteil unstrukturiert ist, beherrschbar zu machen. Sie von Menschenhand und mit gesundem Menschenverstand strukturieren zu wollen, wäre viel zu aufwendig. Integrationen und Migrationen würden mit selbstlernenden Systemen viel einfacher meinte Schneider. Man könne einfach ein System an die IT-Infrastruktur anschließen, der Computer durchsuche die Informationen und schlage vor, wie sie mit vorhandenen Informationen verknüpft werden könnten. Ein Traum für Systemadministratoren – und ein Alp für Systemintegratoren, die davon leben, unterschiedliche IT-Systeme zu verbinden.
Ist die Programmierung von Schnittstellen, über die Daten hin- und hergeschoben und aufeinander gemappt werden, also ein Auslaufmodell? Nicht ganz, denn die Sache hat einen Haken, und dieser Haken wird in dem Maße größer, in dem die Collaboration zunimmt: Die Verlinkung funktioniert eigentlich nur innerhalb der Firewall, nicht weil es technisch unmöglich wäre, Informationen unternehmensübergreifend zu verlinken, sondern weil kein Unternehmen sich von außen in seine Datentöpfe schauen lassen würde. Und schon gar nicht mit intelligenten Algorithmen, die dabei vielleicht zum Ausspähen von Informationen genutzt werden könnten.
Die Verlinkung löst also nicht alle Aufgaben, vor denen die Unternehmen bei der Restrukturierung ihrer PLM-Landschaften stehen, jedenfalls nicht hier und jetzt. Sie kann nämlich nur funktionieren, wenn die Menschen in den Unternehmen offener mit Informationen umgehen und wenn die Offenheit der IT-Systeme gegeben ist. Das waren zwei der wesentlichen Erkenntnisse aus den Diskussionsrunden über die Vorteile und Schwierigkeiten der Verlinkung aus Unternehmens-, Nutzer-, Implementierungs- und Prozesssicht. Die Verlinkung erlaubt es, Abläufe dynamischer zu gestalten und gleichzeitig die Prozesssicherheit zu gewährleisten. Eine große, strategische Herausforderung aber ist die Integration der neuen Lösungsansätze in die gewachsenen IT-Landschaften.