Veranstaltung Linked Data 2016 Verlinkte Daten für die PLM-Zukunft - KEM

Veranstaltung Linked Data 2016

Verlinkte Daten für die PLM-Zukunft

Anzeige
Mit künstlicher Intelligenz kann man Daten noch intelligenter verlinken und finden. Das war eine der interessanten Erkenntnisse des von der Conweaver GmbH organisierten World Cafés Linked Data 2016 in Darmstadt. An mehreren Tischen diskutierten die Teilnehmer der Veranstaltung darüber, welche Vorteile die Verlinkung aus Unternehmenssicht und für die Nutzer hat, welchen Beitrag sie leistet, um komplexe Prozesse beherrschbar zu machen, und wie sie mit Hilfe der IT umgesetzt werden kann.

Michael Wendenburg, freier Fachjournalist, Sevilla

Die Verlinkung von Daten in föderierten Systemen ist nach Überzeugung vieler PLM- Experten der einzige Weg, um agil auf die Herausforderungen der Digitalisierung reagieren zu können. So ähnlich steht es auch im Thesenpapier Future PLM, das Conweaver zusammen mit Vertretern von anderen PLM-Lösungsanbietern, -Anwenderunternehmen und Hochschulen entwickelt hat. Eine der Ideen hinter den World Cafés sei es, die dort aufgestellten Thesen weiter zu verdichten, sagten Geschäftsführer Dr. Thomas Kamps und Vertriebsleiter Sebastian Dörr bei der Begrüßung der Teilnehmer in Darmstadt. Bei den lebhaften Diskussionen konnte man den Eindruck gewinnen, die Thesen seien nicht nur verdichtet worden, sondern es seien auch noch ein paar neue hinzugekommen.
Das ungewöhnliche Format der World Cafés wurde von den Teilnehmern sehr gut angenommen. An vier Runden Tischen diskutierten vier Gruppen unter Leitung eines Paten beziehungsweise einer Patin die Vorteile und Herausforderungen der Verlinkung aus strategischer Sicht, aus Nutzersicht, aus Implementierungs- und aus Prozesssicht. Dann wechselten sie an den nächsten Tisch, um die dort begonnene Diskussion fortzusetzen und um neue Aspekte zu ergänzen, so dass jeder Teilnehmer zu jedem Thema seine Ideen und Erfahrungen einbringen konnte. Bei den meisten von ihnen handelte es sich um Führungskräfte mit viel PLM-Background aus den Bereichen Entwicklung oder Prozess-IT in Automobilindustrie und anderen Branchen.
Zwischen Agilität und Perfektion
Die Verlinkung der Daten sei natürlich nur eine vieler möglicher Antworten auf die Anforderungen an PLM der Zukunft, fasste Bodo Machner, der viele Jahre lang bei BMW tätig war, die Diskussion über die strategischen Herausforderungen zusammen; andere seien zum Beispiel die Gestaltung der Oberflächen oder die Ablösung der Altsysteme. Nach dem Verständnis der Teilnehmer ist PLM dabei kein System, sondern eine Vision, die noch dazu immer breiter wird: Sie müsse künftig auch die Betriebsphase und neue Themen wie den Digital Twin adressieren. Trotzdem dürfe die Komplexität der Anwendungen für den Benutzer nicht weiter zunehmen und sollte reduziert werden.
Eine große, strategische Herausforderung ist das Spannungsfeld zwischen der gewachsenen IT-Landschaft und den neuen Lösungsansätzen beziehungsweise der Frage, wie diese Lösungen in die bestehende IT-Landschaft integriert werden können und wie man welchen Mehrwert für die Kunden und für die eigenen Anwender identifiziert. Für die IT bedeutet die Implementierung dieser neuen Lösungen einen Spagat zwischen dem Ruf nach mehr Agilität, das heißt der schnellen Anpassung an neue Anforderungen, und den hohen Ansprüchen der Entwicklungsverantwortlichen, die hundertprozentig perfekte Lösungen erwarten.
Verlinkung mit Blick auf neuronale Netze
Neue Wege in der Produktvernetzung zu beschreiten fällt Unternehmen leichter, wenn sie die Kosten für die Integration monolithischer Systeme und die dafür erforderlichen IT-Ressourcen betrachten – und auch, wie viele wertvolle Experten im Engineering dadurch gebunden werden. Das zeigt die Erfahrung von Bosch. Die vier Business Sektoren mit ihren unterschiedlichen Engineering-Prozessen und Produktspektren ließen sich weder IT-technisch unter einen Hut zwingen noch mache eine erzwungene Prozessstandardisierung wirtschaftlich Sinn, erläuterte Michael Schneider, Bereichsleiter Enterprise und Engineering Plattformen, in seinem Impulsvortrag, der die Teilnehmer auf das Thema einstimmen sollte.
Bosch hat auf Basis der Conweaver-Technologie seine Metadaten aus Mechanik-, Elektronik- und Software-Entwicklung so verlinkt, dass alle Mitarbeiter im Unternehmen über die Google-ähnliche Suchfunktion darauf zugreifen können. Die Ergebnisse werden auf einer Webseite gelistet, auf der die Anwender auch sehen, in welchen Systemen die Daten liegen. Wenn sie einen Datensatz anklicken, bekommen sie wichtige Attribute angezeigt sowie die Kollegen, die diese bearbeitet haben. Um die Daten automatisiert verlinken zu können, wurde das Beziehungswissen darüber, wie die Daten zusammenhängen in einem Regelwerk festgehalten. Das ist aber laut Schneider nur ein erster Schritt – weitere sollen folgen. Vorstellbar sei der Einsatz neuronaler Netze/Algorithmen (etwa Long Short Term Memory), um weniger oder nicht strukturierte Informationen zu verlinken. Mit Hilfe der künstlichen Intelligenz könne man sich auch vorstellen, weitere IT-Systeme schneller anzubinden beziehungsweise die in ihnen steckenden Informationen mit den bereits vorhandenen zu verlinken, erläuterte Schneider.
Informationen schneller finden
Das Ziel ist klar: Der Nutzer soll möglichst einfach, schnell und zuverlässig an Informationen aus unterschiedlichen Quellen gelangen, die er für die Bewältigung seiner täglichen Arbeit benötigt. Die Herausforderung bestehe jedoch darin, dass es DEN Nutzer nicht gebe, fasste Sylke Rosenplänter, Director Virtual Design Operations & System Development bei der Adam Opel AG und Patin des World Cafés über die Nutzersicht die Ergebnisse dieser Diskussionsrunde zusammen: Die Anwender unterscheiden sich von Alter und Kultur, haben unterschiedliche Blickwinkel auf Prozesse und Informationen und auch unterschiedliche Erwartungshaltungen, was die Usability anbelangt.
Die Verlinkung ermöglicht es, Daten aus unterschiedlichen Quellen in einen Kontext zu stellen, der aber nicht für alle Anwender der gleiche ist. Intelligente Algorithmen können dafür sorgen, dass jeder jeweils die Informationen findet, die seinem Profil entsprechen. Das Dilemma bei der Nutzung solcher Algorithmen beschrieb ein Teilnehmer mit folgenden Worten: „Wenn ich mich mit dem Amazon-Account meiner Frau anmelde, würde ich keines der angezeigten Produkte kaufen, es sei denn ich suche eine Jeans für meine Frau.“ Die Suchergebnisse verändern sich über die Zeit und sind auch für andere Anwender nicht ohne weiteres reproduzierbar. Anwender, die in einem bestimmten PLM-Kontext ihre Arbeit verrichten, bräuchten jedoch verlässliche Informationen – und das über sehr lange Zeiträume.
Eine wesentliche Einsicht der Diskussionsrunde über die Nutzersicht war, dass die Tools die zwischenmenschliche Kommunikation nicht ersetzen dürften und dass die Menschen lernen müssten, Informationen bereitwilliger zu teilen. Viele „Datenkönige“ haben damit ein Problem, weil sie befürchten, vom Thron gestoßen zu werden. Ein große Herausforderung ist auch der Datenschutz, also die Frage, wie man die Auswertung des Anwenderverhaltens für die intelligente Suche nutzt, ohne dass dem Nutzer daraus Nachteile entstehen können.
Offenheit ist eine Grundvoraussetzung
Aber nicht nur Menschen müssen offener mit Informationen umgehen. Offenheit der IT-Systeme ist eine Grundvoraussetzung, um Informationen intelligent verlinken zu können, und diese Offenheit muss vielleicht auch bezahlt werden, weil einige Hersteller davon mehr profitieren als andere. Das war eine der Kernaussagen der Diskussionsrunde über die Implementierung verlinkter Daten und Systeme, die von Achim Besel, Engineering Cross Domain Services bei Bosch, koordiniert wurde. Mit der Verlinkung sei man nie fertig, weshalb sich ein Use-Case-basierter Implementierungsansatz empfehle, meinte Besel. Ein unternehmensweites Datenmodell widerspräche zwar der Idee der Verlinkung, aber aus Sicht der Informationstechnik sei zumindest ein abstraktes Modell des Informationsgeflechts erforderlich.
Dadurch, dass die Systemgrenzen zunehmend verschwimmen, nimmt die Komplexität der IT-Infrastrukturen und Prozesse weiter zu. Zu diesem Schluss kam die Diskussionsrunde über die Prozesssicht, die Dr. Christoph Kilger, Partner, Advisory Services, Leader Supply Chain & Operations DACH bei Ernst & Young als Pate begleitete. Die Teilnehmer diskutierten darüber, ob man diese Komplexität reduzieren könne und konstatierten, dass sie sich durch die Verlinkung allenfalls besser beherrschen lasse. Die Vernetzung der Systeme erlaube es, Abläufe dynamischer zu gestalten und gleichzeitig die Prozesssicherheit zu gewährleisten, betonte Kilger. Auch die Datenqualität verbessere sich dadurch, dass man inkonsistente oder fehlende Daten schneller erkenne. Die Verlinkung darf sich nach Ansicht der Teilnehmer nicht nur auf die Suche konzentrieren, sondern muss auch die Erzeugung und Änderung der Daten unterstützen.
In dieser Runde wurde außerdem die Frage aufgeworfen, ob wir überhaupt noch Prozesse brauchen, wenn alle Beteiligten irgendwie miteinander vernetzt sind. Die Mehrheit der Teilnehmer war der Meinung, dass es ohne Prozesse wohl doch nicht gehe. Man könne die Prozesse dezentralisieren und statt starrer Quality Gates die Qualität fortlaufend transparent machen, aber letztlich müssten die einzelnen Stufen auf ein gemeinsames Prozessziel ausgerichtet sein, fasste Kilger die Ergebnisse zusammen.
In der Schluss-Keynote wurde der Aspekt aufgegriffen, dass der Linked Data-Ansatz nicht nur Veränderungen der Prozesse, sondern auch eine andere Informationskultur erfordert. Ein Wandel, der nach einem Helden sucht, wie die Schauspieler Oliver Gryzmann und Martina Seemann vom Improvisationstheater Candid Rhetorics zum humorvollen Ausklang der Veranstaltung zum Ausdruck brachten. In Anbetracht der großen Aufgabe beim Umbau der bestehenden PLM-Landschaften, möchte man meinen, dass dafür der eine oder andere Held gesucht wird. co
Anzeige

Aktuelle Ausgabe

Newsletter

Unsere Dosis Wissensvorsprung für Sie. Jetzt kostenlos abonnieren!

Kalender

Aktuelle Termine für Konstrukteure

Webinare & Webcasts

Technisches Wissen aus erster Hand

Whitepaper

Hier finden Sie aktuelle Whitepaper
Anzeige

Industrie.de Infoservice

Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de