Vom Datencontainer zum semantischen Modell – oder warum der digitale Zwilling ein Fundament braucht
Der digitale Zwilling gilt als Schlüssel zur vernetzten Industrie. Viele Unternehmen verstehen ihn jedoch nur als reines Abbild ihrer Produktionsdaten. Johannes Eckstein und Dr. Oliver Braun, Steinbeis-Geschäftsführer der Stuttgarter NuCOS GmbH, verweisen auf eine tiefere Ebene: Erst durch ein semantisches Fundament und maschinelle Intelligenz wird aus Daten tatsächlich Wissen – und aus digitaler Repräsentation ein lernendes System. Ihr Fazit: Digitale Zwillinge sind kein Selbstzweck, sondern entfalten ihre Wirkung erst dann, wenn Daten, Modelle und Menschen in einem gemeinsamen Verständnis zusammenarbeiten.
„Ein digitaler Zwilling ist dann ideal, wenn er den realen Kontext einer Maschine, eines Materials oder Prozesses versteht“, erklärt Johannes Eckstein. Das gelingt nur, wenn Begriffe, Parameter und Zustände eindeutig definiert und miteinander verknüpft sind. Solche anforderungsoptimierten Datenmodelle sind weit mehr als bloße strukturierte Datenbanken. Sie bilden die Sprache der Fachdomäne ab – also das Wissen, das bisher in Dokumenten, Köpfen oder Tabellen verborgen blieb. Und Oliver Braun ergänzt: „Wir betrachten den digitalen Zwilling als dynamisches System, das mit den Anforderungen seiner Umgebung mitwächst. Ohne ein semantisches Datenmodell bleibt er ein statisches Abbild – mit einem solchen Modell wird er zum Instrument für Interoperabilität, Automatisierung und Qualität.“
Maschinelle Intelligenz als Werkzeug, nicht als Ersatz
Für Johannes Eckstein ist der Begriff „künstliche Intelligenz“ irreführend: „Künstlich ist sie eigentlich nicht – es ist maschinelle Intelligenz, die wir trainieren und formen.“ Sie entsteht aus menschlicher Erkenntnis, übersetzt in Modelle, die Muster erkennen und Hypothesen bilden können. In der Praxis bedeutet das: Maschinelle Intelligenz hilft, Prozessdaten aus der Fertigung zu analysieren, Abweichungen frühzeitig zu erkennen und Produktionsparameter selbsttätig zu optimieren. Die Voraussetzung bleibt jedoch dieselbe: hohe Datenqualität und ein klares Kontextverständnis. „KI allein löst keine Probleme. Erst wenn sie auf semantisch saubere, nachvollziehbare Daten trifft, kann sie wirken. Dann wird sie zum Partner, nicht zum Rätsel“, so der Steinbeis-Experte.
Von der Theorie zur industriellen Umsetzung
NuCOS unterstützt Unternehmen dabei, digitale Zwillinge in der Praxis zu verankern. Das geschieht nicht durch monolithische Plattformen, sondern durch modulare, interoperable Lösungen. Mit Systemen wie AddiPlan, AddiBase und AddiMap bietet das Unternehmen Werkzeuge, die von der Prozessplanung über die Qualitätssicherung bis hin zur Datenökonomie reichen – und das jeweils auf einer gemeinsamen semantischen Basis. Die Kunden des Steinbeis-Unternehmens starten oft klein, mit klar abgegrenzten Use Cases. Durch die strukturierte Datenbasis wächst der Zwilling mit. Das senkt Einstiegshürden und schützt vor technologischem Lock-in.
Ein weiteres Leitmotiv der NuCOS-Philosophie ist die Nutzerzentrierung. Johannes Eckstein und Oliver Braun sind überzeugt, dass Technologie ihren Wert erst dann entfaltet, wenn sie tatsächlich verwendet wird. Deshalb werden Nutzer früh in Entwicklungsprozesse eingebunden – durch Workshops, Prototypen und iterative Tests. Denn: Ein verständliches Interface steigert nicht nur Akzeptanz, sondern auch Datenqualität. Und saubere Daten sind die Lebensader jedes digitalen Zwillings.
Vernetzte Zwillinge und Datenräume
In den kommenden Jahren werden sich digitale Zwillinge zu vernetzten, domänenübergreifenden Systemen entwickeln. Sie verbinden Produktionsanlagen, Labore, Simulationen und Geschäftsprozesse über gemeinsame Datenräume – basierend auf offenen Standards und Cloud-Edge-Architekturen.
Beide Steinbeis-Experten sind überzeugt, dass dies gerade für kleine und mittlere Unternehmen eine Chance und keine Bedrohung ist: Wichtig ist, mit einem semantischen Fundament zu starten. Wer heute die Daten sauber modelliert, kann morgen skalieren – unabhängig von Plattformen oder Anbietern.
Zusammengefasst: Der digitale Zwilling ist kein Abbild, sondern ein Versprechen – das Versprechen, Maschinen, Prozesse und Produkte in einer gemeinsamen Sprache erfassen und verstehen zu können. Maschinelle Intelligenz, semantische Datenmodelle und nutzerzentrierte Software bilden dafür das Rückgrat.
„Klein anfangen, aber richtig“
Ein Gespräch mit Johannes Eckstein und Dr. Oliver Braun über Datenmodelle, KI und die Zukunft der digitalen Zwillinge
Herr Eckstein, Herr Dr. Braun, was macht aus Ihrer Sicht einen idealen digitalen Zwilling aus – und welche Bedeutung kommt dabei anforderungsoptimierten Datenmodellen zu?
Johannes Eckstein:
Ein digitaler Zwilling ist dann ideal, wenn er nicht nur Daten abbildet, sondern Zusammenhänge versteht. Das bedeutet: Er muss den realen Kontext einer Maschine, eines Materials oder eines Prozesses semantisch erfassen können. Erst wenn Begriffe, Parameter und Zustände eindeutig definiert und miteinander verknüpft sind, kann man Daten wirklich interpretieren, vergleichen und in neuen Anwendungen wiederverwenden.
Dr. Oliver Braun:
Genau hier kommen anforderungsoptimierte Datenmodelle ins Spiel. Wir unterscheiden zwischen einem reinen Informationscontainer und einem semantischen Modell, das fachliche Anforderungen explizit abbildet. Letzteres erlaubt, dass ein digitaler Zwilling nicht statisch bleibt, sondern mit den Anforderungen der Entwicklung, Fertigung oder Qualitätssicherung mitwächst. Für uns ist das der Schlüssel, um Interoperabilität und Automatisierung überhaupt möglich zu machen.
Welche konkreten Vorteile ergeben sich durch den Einsatz von KI in digitalen Zwillingen?
Johannes Eckstein:
Künstliche Intelligenz entfaltet ihren Wert erst dann, wenn sie auf konsistente, nachvollziehbare Daten zugreifen kann. In einem digitalen Zwilling kann KI Anomalien erkennen, Prozessparameter optimieren oder Entscheidungsprozesse unterstützen – aber nur, wenn die Daten strukturiert, kontextualisiert und nachvollziehbar sind.
Dr. Oliver Braun:
Wir nutzen KI beispielsweise, um Prozessdaten aus additiven Fertigungsanlagen zu analysieren und daraus Qualitätsindikatoren abzuleiten. Damit lassen sich nicht nur Ursachen für Abweichungen schneller finden, sondern auch künftige Bauteilserien vorausschauend optimieren. KI wird so vom reinen Analysetool zum integralen Bestandteil des digitalen Zwillings – als lernendes, erklärbares System.
Mit welchen Dienstleistungen unterstützen Sie Ihre Kunden bei der Umsetzung digitaler Zwillinge in der Praxis?
Dr. Oliver Braun:
Unsere Kunden kommen oft mit sehr spezifischen Anforderungen – von der Fertigung über die Forschung bis hin zur Produktentwicklung. Wir begleiten sie beim Aufbau der semantischen Datenbasis, integrieren vorhandene Systeme über APIs und schaffen Schnittstellen zu MES-, ERP- oder Laborumgebungen.
Johannes Eckstein:
Darüber hinaus entwickeln wir auf Basis dieser Modelle praxisnahe Anwendungen – etwa für Prozessplanung, Traceability, Qualitätssicherung oder Datenökonomie. Wichtig ist uns immer, dass der Kunde nicht von einem monolithischen System abhängig wird, sondern dieses schrittweise aufbauen und erweitern kann. Deshalb setzen wir auf modulare Software wie AddiPlan, AddiBase oder AddiMap, die zusammen ein offenes, interoperables Ökosystem bilden.
Weshalb legen Sie in Ihrer Arbeit besonderen Wert auf eine hohe Bedienfreundlichkeit und ein positives Nutzererlebnis?
Johannes Eckstein:
Weil Technologie nur dann wirksam ist, wenn sie genutzt wird. In der Industrie gibt es unzählige gute Systeme, die jedoch scheitern, weil sie zu komplex in der Bedienung sind oder die Nutzer nicht mitgenommen werden. Unser Ansatz lautet: Usability ist kein Nice-to-have, sondern ein Produktivitätsfaktor.
Dr. Oliver Braun:
Wir integrieren Nutzerzentrierung von Anfang an. Das Ziel ist, dass Ingenieure, Fertiger oder Qualitätsmanager sich auf ihre Arbeit konzentrieren können, nicht auf das Tool. Eine gute Benutzeroberfläche senkt die Einstiegshürde und erhöht die Datenqualität – beides entscheidend für den Erfolg digitaler Zwillinge.
Welche technologischen Entwicklungen werden Ihrer Einschätzung nach die Zukunft digitaler Zwillinge prägen? Und wie können insbesondere kleine und mittlere Unternehmen (KMU) mit dieser Dynamik Schritt halten?
Dr. Oliver Braun:
Wir sehen eine klare Bewegung hin zu vernetzten, domänenübergreifenden Zwillingen, die nicht nur einzelne Maschinen oder Produkte, sondern ganze Wertschöpfungsprozesse abbilden. Dafür braucht es standardisierte Schnittstellen, Cloud-Edge-Konzepte und interoperable Datenräume.
Johannes Eckstein:
Für KMU bedeutet das nicht, dass sie alles auf einmal umsetzen müssen. Wichtig ist, mit klar abgegrenzten, datengetriebenen Anwendungsfällen zu starten – etwa Traceability, Prozessüberwachung oder KI-gestützte Qualitätssicherung. Wenn die Datenmodelle richtig aufgebaut sind, kann man daraus Schritt für Schritt skalieren. Genau das ist unser Ansatz: klein anfangen, aber richtig – mit einem semantischen Fundament, das Wachstum ermöglicht.