Ein „digitaler Zwilling“ ist das virtuelle Abbild eines physischen Objektes. Zunächst fand das Konzept Einsatz bei der NASA, heute findet es Verwendung in der Industrie. Bei der BWI wurde es im Rahmen des Data Analytics Hackathons eingesetzt. 1
Was ist ein digitaler Zwilling?
Das Konzept des digitalen Zwillings wurde erstmals in den 2010er Jahren in einer Veröffentlichung der Technology Area 11 der NASA eingeführt. Dort wurde es vorwiegend für die Entwicklung moderner Technik genutzt, die anschließend in der Raumfahrt eingesetzt worden ist.
Ein digitaler Zwilling ist „das individuelle, virtuelle Abbild eines physischen Objektes oder Prozesses, welches die vom physischen Objekt bereitgestellten Daten intelligent für verschiedene Anwendungsfälle nutzbar macht.“2
Das Konzept findet auch branchenübergreifend Verwendung. Der AI Index Report zeigt auf, dass im Jahr 2023 24% der Unternehmen das Konzept des digitalen Zwillings implementiert und eingesetzt haben.3
Die Grundidee besteht darin, ein repräsentatives und digitales Abbild eines realen oder physischen Objekts, eines Systems oder einer Domäne zu erstellen. Durch den Einsatz von Simulationstechniken und maschinellem Lernen verfolgt der digitale Zwilling das Ziel, Erkenntnisse zur Optimierung seines realen Gegenpartes zu gewinnen. Hierdurch werden Optimierungsansätze gewonnen, ohne physische Ressourcen des realen Objekts zu verbrauchen oder abzunutzen. Je komplexer und individueller die realen Objekte sind, desto schwieriger ist es, eine repräsentierbare digitale Kopie zu erzeugen.
Abgrenzung zur Simulation
Im Kontext müssen die Begriffe „Simulation“ und „digitaler Zwilling“ differenziert werden. Eine Simulation untersucht in der Regel nur einen einfachen Prozess oder ein Objekt, wobei sie als ein Teil des digitalen Zwillings erfasst werden kann. Dahingegen betrachtet der digitale Zwilling Prozesse aus mehreren Blickwinkeln und kann das Verhalten des digitalen Abbilds mit Funktionen des maschinellen Lernens optimieren. Das Konzept nimmt hierbei nicht nur das Objekt selbst wahr, sondern umgreift auch die beeinflussenden Umweltfaktoren, z.B. Wetterbedingungen oder örtliche Rahmenbedingungen.4
Die wirtschaftliche Bedeutung
Das Konzept des digitalen Zwillings gilt als ein wichtiger Treiber des Fortschritts der Industrie 4.0 und wird in den verschiedensten Branchen bereits heute eingesetzt. Die digitalen Zwillinge finden heute klassisch im Kontext von größeren Produktions- bzw. Fertigungsanlagen, beispielsweise in der Automobilindustrie zur Produktionsplanung, Anwendung. Im Rahmen einer Veröffentlichung der International Conference on Mechatronics Technology (ICMT) schätzten die Autoren, dass eine Qualitätssteigerung von etwa 70% durch den Einsatz eines digitalen Zwillings in Kombination mit einer guten Datenbasis in der Integrationsplanung erreicht werden kann. Die Komplexitätsverringerung wird durch den Einsatz eines digitalen Zwillings und der zusammenhängenden Förderung der Transparenz mit 50% beziffert.5
Predictive Maintenance
Der Begriff „Predictive Maintenance“ hat sich im Zuge der Industrie 4.0 etabliert und bezeichnet Konzepte zur Vorbeugung von maschinellen Ausfällen. Neben der reaktiven Darstellung eines physischen Objekts ist ein digitaler Zwilling dazu geeignet, das Verhalten seines physischen Pendants proaktiv vorherzusagen. Wir bezeichnen das Konzept als „predictive digital Twin“. Im Kontext eines Wartungsprozesses kann dies beispielsweise die Vorhersage der verbleibenden Nutzungsdauer des physischen Zwillings sein. Dies bietet die Möglichkeit, bereits frühzeitig einem Ausfall durch den Austausch kritischer Komponenten vorzubeugen und einen Produktionsausfall zu verhindern. An der Stelle erscheint es lohnenswert, auf das Projekt „PRADA“ (Prognosefähigkeit, Änderung des Ausfallverhaltens) der Bundeswehr zur simulationsgestützten Flottenanalyse und Nutzungsplanung von Großgeräten zu verweisen. Mit PRADA ist es möglich durch den Einsatz eines intelligenten digitalen Zwillings den Verschleiß von Bauteilen und dadurch mögliche Ausfälle von Gerätschaften, im Speziellen für den KH TIGER, vorherzusehen. Durch die Entwicklung konnte die reale Einsatzfähigkeit der Flotte gesteigert werden.6
BWI Data Analytics Hackathon klont Laborumgebung digital
Im Rahmen des BWI Data Analytics Hackathons 2023 wurde unter der Bezeichnung „AI-Driven adaptive Environment“ das Problem einer Laborumgebung aufgegriffen, die unter konstanten Bedingungen das Verhalten von verschiedenen Materialien untersucht. Für die Versuchsreihen muss die Temperatur und Luftfeuchtigkeit konstant gehalten werden. Um die Luftfeuchtigkeit anzupassen, musste eine entsprechende Gerätschaft räumlich integriert werden. Die sich im Raum befindenen Sensoren gestatteten es zudem, die Werte außerhalb des Labors zu verfolgen. Auf dieser Basis war es möglich, erfolgreich ein digitales Abbild der Laborumgebung umzusetzen.
Zeitreihen-Analyse
Zunächst sollte untersucht werden, inwiefern der Versuch durch äußerliche Faktoren (z.B. das Wetter oder das Betreten des Labors) beeinflusst wird.
Auffälliges Verhalten kann durch eine Zeitreihen-Analyse sichtbar gemacht werden, indem man die Zeitreihen für Innen- und Außentemperatur glättet und übereinander legt. Dadurch kann in einer Lag-Analyse herausgefunden werden, ob die Innentemperatur gleichmäßig zur Außentemperatur verläuft. In der Lag-Analyse werden die Zeitverzögerungen(Lags) zwischen den Datenpunkten auf Muster und Abhängigkeiten untersucht. Diese werden genutzt um Vorhersagen für die Zeitreihen modellieren zu können.
Im Kontext der Zeitreihen-Analyse wurde am Morgen der Analyse ein negatives Lag dadurch ersichtlich, dass die Innentemperatur der Laborumgebung bereits vor der Außentemperatur ansteigt. Dahingegen ergab sich ein positives Lag am Nachmittag, indem die Außentemperatur vor der Innentemperatur abgesunken ist. Hieraus wird evident, dass zwischen der Innentemperatur und den äußeren Einflüssen zunächst kein eindeutig übergreifender kausaler Zusammenhang besteht.
Eine genaue Betrachtung der Temperatur-Datenpunkte hat daraufhin gewiesen, dass die Einflüsse durch das Betreten von Personen im Raum verschwindend gering waren und für die weitere Betrachtung von keiner Relevanz zeugen. Im weiteren Verlauf wurde das SARIMA-Modell für die Vorhersagen auf den Zeitreihen deshalb nur auf die Innentemperatur angewandt.
SARIMA steht für Seasonal AutoRegressive Moving Average. SARIMA ist dabei das Saisonale Modell für ARIMA. Bei ARIMA handelt es sich um ein Modell, das aus dem aktuellen Wert einer Zeitreihe, den früheren Werten dieser Zeitreihen und einem Fehlerterm, einen zukünftigen Wert vorhersagen kann. SARIMA berücksichtigt dabei saisonale Einflüsse für die Berechnung der Werte.7
Entwurf des Systems
Auf der Analyse aufbauend wurde im nächsten Schritt ein System entworfen, um die Sensordaten auszuwerten und die Wetterdaten vom Deutschen-Wetter-Dienst (DWD) zu beziehen. Diese wurden dann in einer Datenbank für den digitalen Zwilling und für das SARIMA-Modell bereitgestellt. Die Sensordaten wurden infolgedessen im SARIMA-Modell eingelesen und die Vorhersagen für das Labor wiederum in die Datenbank zurückgeschrieben. Der digitale Zwilling baut nun auf diesen auf und gibt mit dem Recommender Handlungsempfehlungen vor.
Realisierung Digital Twin und Recommender
Die Realisierung des Digitalen Zwillings wurde mit Hilfe von GEKKO8 umgesetzt. GEKKO ist eine Optimierungssoftware, die es ermöglicht Simulationen physikalischer Systeme und Prozesse über die Lösung von Differentialgleichungen abzubilden. Unter Einfluss der Realdaten und der reellen Parameter können die Simulationen dann für den Digitalen Zwilling genutzt werden.
In diesem Fall werden die Simulationen auf Basis von orthogonaler Kollokation erstellt, indem die vorher generierten Zeitreihen in Zeitpunkte aufgeteilt werden. Die Aufteilung ermöglicht es dann wiederum, die entsprechenden Zustände in Polynomen abzubilden. Die Polynome werden im Anschluss durch Interpolierung in algebraische Gleichungen aufgelöst, um anschließend mit GEKKO durch Sparsity Structur optimiert zu werden.
Ziel der Berechnungen ist es, das Maximum und Minimum der möglichen Werte herauszufinden. Daraus resultiert ein Mean Square Error (MSE), der bei optimaler Berechnung möglichst geringgehalten werden kann. Je geringer der MSE, desto genauer können die Zustände vorhergesagt werden.
Der Recommender setzt auf dem digitalen Zwilling auf, um Empfehlungen für die Anpassungen vorzuschlagen. In diesem werden die Wärmeleistung und der notwendige Dampfdruck mit Hilfe der Psychrometrie berechnet, die zur konstanten Haltung der Laborumgebung benötigt werden.
Fazit
Im Gegensatz zur Simulation betrachtet der digitale Zwilling Prozesse aus mehreren Blickwinkeln und kann das Verhalten des digitalen Abbilds mit Funktionen des maschinellen Lernens optimieren. In Kombination mit einer guten Datenbasis lässt sich durch den Einsatz des digitalen Zwillings eine Qualitätssteigerung von etwa 70% erreichen. Im Zuge der Industrie 4.0 hat sich der „predictive digital Twin“ etabliert, der beispielsweise Vorhersagen über die verbleibende Nutzungsdauer einer Maschine treffen kann, ohne Realverbrauch der Ressourcen.
Unter der Bezeichnung „AI-Driven adaptive Environment“ wurde im Rahmen des BWI Data Analytics Hackathon eine Laborumgebung digital geklont, um folglich eine Zeitreihen-Analyse durchzuführen. Die Ergebnisse wurden inklusive der Sensordaten des DWD in das SAMIRA-Modell eingelesen, um wiederum in die Datenbank zurückgeschrieben zu werden. Aufbauend auf den digitalen Zwilling wurde das Konzept eines Recommenders entworfen, der zeitgenaue Empfehlungsanpassungen anhand unterschiedlicher Optionen vorschlägt. Mit Hilfe des Situationsmodells GEKKO wurde das Konzept realisiert.
Felix Frenger
Felix ist seit 2023 bei der BWI und arbeitet im Center of Excellence Software Engineering in der Abteilung Software Data Solutions & Analytics.
Aktuell arbeitet er an der Entwicklung und Bereitstellung von Cognitive Services im Rahmen der Data Analytics Platform (DAP).
Weiterhin absolviert er aktuell seinen Master im Bereich „Big Data & Business Analytics“ an der FOM Hochschule für Ökonomie & Management.
Mark Schäfer Associate Software Engineer/Data Engineer
Mark Alexander Schäfer ist seit 2021 bei der BWI und arbeitet im Center of Excellence Software Engineering in der Abteilung Software Data Soloutions & Analytics.
Aktuell arbeitet er an der Entwicklung und Bereitstellung von ETL-Prozessen in einem Projekt für das Kommando Cyber- und Informationsraum (KdoCIR).
Quellen
1 Digital Twins – An Explorative Case Study of Business Models, Robin Klostermeier, Steffi Haag, Alexander Benlian; https://link.springer.com/article/10.1365/s40702-018-0406-x
2 Digital Twins – An Explorative Case Study of Business Models, Robin Klostermeier, Steffi Haag, Alexander Benlian; link.springer.com/article/10.1365/s40702-018-0406-x).
3 Stanford University. (2023). Artificial Intelligence Index Report 2023. Zugriff: 20. März 2024. S.201 https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report_2023.pdf
4 https://www.ibm.com/de-de/topics/what-is-a-digital-twin
5 F. Biesinger, B. Kraß and M. Weyrich, "A Survey on the Necessity for a Digital Twin of Production in the Automotive Industry," 2019 23rd International Conference on Mechatronics Technology (ICMT), Salerno, Italy, 2019, pp. 1-8, doi: 10.1109/ICMECT.2019.8932144., https://ieeexplore.ieee.org/abstract/document/8932144
6 https://www.bundeswehr.de/resource/blob/5657352/7bcccd0160628acc93469792b74f558f/prada-data.pdf
7 LinkedIn. Von SARIMA vs. ARIMA-Modelle: Ein Vergleichsleitfaden: de.linkedin.com/advice/0/what-advantages-disadvantages-sarima-models abgerufen