AI meets PLM: Das Munich PLM Symposium 2018 | NTT DATA

Dienstag, 09. Okt 2018

AI meets PLM: Das Munich PLM Symposium 2018

Was für eine Agenda auf dem Munich PLM Symposium: 11 von 17 Vorträgen zum Thema Artificial Intelligence im Product Lifecycle Management. Eine solche Ballung von Know-how zu diesem wichtigen Thema habe ich noch auf keiner PLM-Konferenz gesehen. NTT DATA war daran auch beteiligt, so sind wir ein aktives Mitglied im Beirat seit der Gründung und waren auch auf dieser Konferenz wieder mit einem Stand und einem Vortrag vertreten.

Was für eine Agenda auf dem Munich PLM Symposium: 11 von 17 Vorträgen zum Thema Artificial Intelligence im Product Lifecycle Management. Eine solche Ballung von Know-how zu diesem wichtigen Thema habe ich noch auf keiner PLM-Konferenz gesehen. NTT DATA war daran auch beteiligt, so sind wir ein aktives Mitglied im Beirat seit der Gründung und waren auch auf dieser Konferenz wieder mit einem Stand und einem Vortrag vertreten.

AI für CAE

Unser Beitrag hatte den etwas sperrigen Titel „CAE Automotive: Projektion von Simulationsergebnissen auf die zukünftige Produktvarianz unter Nutzung von Machine Learning und Advanced Analytics“. Er ist das Ergebnis der Zusammenarbeit unserer PLM-Experten mit Domänenwissen im CAE (Computer Aided Engineering) und der AI-Experten mit Methoden- und Technologiewissen im Machine Learning. Gregor Hutter ist CAE Solution Architect und IT-Projektleiter, Michael Mayerhofer ist Teamleiter Advanced Analytics und Data Science bei NTT DATA in München.

Die Grundidee ist einfach: durch Analyse der vorhandenen CAE-Daten soll dem Berechnungsingenieur die Arbeit vereinfacht werden, insbesondere die Erstellung der Preprocessor-Modelle effektiver werden. Insgesamt sollen dadurch weniger Iterationen im CAE-Prozess benötigt werden, um zu den gleichen Ergebnissen zu kommen.

CAD-Modelle bilden die Geometrie von Bauteilen in 3D ab. CAE-Modelle fokussieren dagegen auf die Eigenschaften der Bauteile, zum Beispiel Belastbarkeit und Haltbarkeit verschiedener Materialien. Dazu werden die CAD-Modelle mit weiteren Daten angereichert und können Dateigrößen im dreistelligen Megabyte-Bereich erreichen.

Unsere erste Herausforderung ist nun die Identifikation der relevanten Daten für das Machine Learning. Durch Vergleich mehrerer Simulationsläufe werden die Teile der Daten (Features) herausgefiltert, die die Unterschiede zwischen diesen Läufen am besten erklären. Diese Features können dann für alle Simulationsvarianten analysiert werden und damit der Zusammenhang zwischen Features und Simulationsergebnissen modelliert werden.

AI Use Cases im PLM

Gespannt war ich auf andere konkrete Beispiele für AI Use Cases im PLM-Umfeld, insbesondere in der Produktentwicklung. So hat PTC vorgestellt, wie historische PLM-Daten benutzt werden können, um Durchlaufzeiten für Änderungen vorherzusagen – unsere Experten nennen das „predictive analytics“. In der schnelllebigen Mode- und Schuh-Industrie müssen neue Kollektionen mehrfach im Jahr entwickelt und produziert werden, hier spielt „design for manufacturing“ eine besondere Rolle. Durch Analyse von Produktdaten wie Material, Lieferant, Näh- und Klebeverfahren konnte ein Modell entwickelt werden, dass Vorschläge für Design-Änderungen an den Schuhen generiert, um den Durchsatz in der Produktion zu erhöhen. Ein schönes Beispiel für „prescriptive analytics“.

Natural Language Processing (NLP) ist eine Methode, um Informationen aus Text zu extrahieren. Dieser Ansatz wurde sowohl von IBM als auch von IVS vorgestellt. Dabei werden Anforderungstexte zum Beispiel aus DOORS analysiert auf Textmuster, Ähnlichkeiten und Zusammenhänge zwischen Wörtern. Mit den Ergebnissen können dann zum Beispiel Vorschläge für eindeutige konsistente Formulierungen oder Verlinkungen zu anderen Stellen im Text generiert werden.

NTT R&D hat mit der Corevo AI Plattform viele Innovationen im Bereich NLP entwickelt, so zum Beispiel die mehrsprachige Texterkennung – in Japan gibt es alleine 15 Haupt-Dialekte – und Voice Mining zur Verbesserung der Prozesse in Call Centern. Im PLM-Bereich sehe ich NLP als wichtigen Schritt in Richtung modellbasierter Spezifikationen.

Die weiteren Use Cases kamen aus dem erweiterten PLM-Umfeld, zum Beispiel von MTU AeroEngines zur Fertigung und Wartung von Triebwerken durch Prognose von Toleranzverletzungen auf Basis von Prozessdaten aus der Fertigung, die Bildanalyse zur Überwachung des Pulverbetts in der additiven Fertigung oder auch das Engine Trend Monitoring, d.h. die Überwachung der Triebwerksdaten während des Flugs mit Ferndiagnose.

Fazit

AI braucht Daten. Diese sind in der Produktion und im Aftersales durch Sensoren und vernetzte Produkte besser verfügbar als in der Produktenwicklung. Entsprechend gibt es auch mehr Use Cases aus diesen Prozessen. Trotzdem hat das Munich PLM Symposium eine Reihe von Beispielen zu „AI meets PLM“ präsentiert. Damit hat sich die Konferenz im dritten Jahr endgültig als feste Größe im deutschen PLM-Veranstaltungskalender etabliert.  Glückwunsch an den Veranstalter, Prof. Dr. Vahid Salehi von der Hochschule München und sein Organisationsteam.


Noch Fragen?

Unser Team hilft dir gerne weiter.

Schreib uns einfach!