© istockphoto.com/berya113

„KI sollte nicht als Selbstzweck eingeführt werden“

Im Gespräch mit Professor Dr. Michael Munz, Steinbeis-Unternehmer am Steinbeis-Transferzentrum KI-Systeme und Software-Lösungen

So alltäglich wie die Begriffe „künstliche Intelligenz“ und „maschinelles Lernen“ inzwischen geworden sind, so vielfältig sind gleichzeitig die gängigen Definitionen. Die TRANSFER wollte es genau wissen: Wie lassen sich beide Begriffe voneinander abgrenzen? Das haben wir Professor Dr. Michael Munz, Steinbeis-Unternehmer am Steinbeis-Transfer­­z­entrum KI-Systeme und Software-Lösungen, im Gespräch gefragt. Der Steinbeis-Experte erläuterte nicht nur den Unterschied zwischen den beiden Begriffen, sondern gab auch einen Rückblick in die Geschichte sowie den Ausblick in die mögliche Zukunft dieser Technologiebereiche.

Herr Professor Munz, wo sehen Sie den wesentlichen Unterschied zwischen KI und Machine Learning?

Die künstliche Intelligenz, also KI, ist wie auch das maschinelle Lernen oder englisch Machine Learning, kurz ML, eine Disziplin der Informatik. Die KI selbst umfasst grundsätzlich alle Algorithmen und Softwaresysteme, die in der Lage sind selbstständig Probleme zu lösen, für die es eine Art von „Intelligenz“ bedarf. Den Unterschied zwischen ML und KI kann man am einfachsten anhand von Teilmengen erklären: ML ist eine Teilmenge der künstlichen Intelligenz. Die hier angesiedelten Methoden lernen selbstständig anhand von Daten, Zusammenhänge zu erkennen, um diese Erkenntnisse auf unbekannte Daten und Szenarien bestmöglich übertragen zu können. Dies nennt man Training. Beispiele hierfür sind das Erkennen und Klassifizieren von Objekten mit Kameradaten oder die Vorhersage von Wetterentwicklungen. Die Lösung wird also nicht von den Entwicklern explizit programmiert, sondern von den Methoden erlernt.

Neben ML-Methoden gibt es in der KI noch viele weitere Technologiebereiche, wie beispielsweise Expertensysteme, die auf explizit modelliertem Wissen basieren. Diese erlauben es, auf nachvollziehbare Art und Weise Schlüsse zu ziehen oder sogar Aussagen zu beweisen. Solche Verfahren nutzen jedoch kein datenbasiertes Training wie beim ML.

In der jüngeren Zeit werden die Begriffe KI und ML jedoch fast synonym verwendet. Es lohnt sich immer hinzuschauen, was genau gemeint ist. Oftmals ist mit dem Begriff „KI“ auch der Bereich der generativen KI gemeint. Dabei handelt es sich um eine ganze Familie an Verfahren, die jedoch alle auch aus dem ML-Bereich stammen. Im Unterschied zu Klassifikatoren oder Prognosealgorithmen können generative Verfahren selbstständig neue Daten generieren. Darunter fallen die sehr weit verbreiteten großen Sprachmodelle (LLM) wie GPT von OpenAI oder Bildgeneratoren wie Stable Diffusion & Co.

Welche Entwicklungen haben Ihrer Meinung nach die Bereiche KI und Machine Learning am stärksten geprägt?

Es gab in der Vergangenheit mehrere Phasen, die die Entwicklung im Bereich ML wesentlich geprägt haben. Die gesamte Entwicklung in diesem Bereich ist durch eine Folge von Höhen und Tiefen charakterisiert: Eine neue Entdeckung führte zu einem starken Anstieg des weltweiten Forschungsinteresses, verbunden mit starken Erwartungen an die Technologie. Teilweise waren diese Erwartungen jedoch so groß, dass sie aufgrund von technologischen Hindernissen am Ende gar nicht erfüllt werden konnten.

Die letzten sehr großen Wellen im ML wurden insbesondere durch die breite Verfügbarkeit von Grafikprozessoren ausgelöst, sogenannten GPU. Durch diese wurde es erst ermöglicht, sehr große Modelle mit sehr großen Datenmengen zu trainieren. Das war zuvor aufgrund der erforderlichen Rechenzeit undenkbar. Dies prägte den Beginn des sogenannten Deep Learnings, wo große Modelle mit mittlerweile mehreren Milliarden Parametern trainiert werden. Die nächste wohl prägendste Phase war sicherlich die rasante Entwicklung im Bereich der generativen KI, vor allem Sprachmodelle wie GPT, Llama und Gemini, um nur ein paar wenige zu nennen. Enabler-Technologien waren hier neben der Hardwareweiterentwicklung neue wissenschaftliche Erkenntnisse, insbesondere die Algorithmen wie Transformer. Durch diese revolutionäre Art der Algorithmen war auf einmal eine neue Qualität der Verarbeitung komplexer Daten möglich.

Mit welchen Fragestellungen wenden sich Ihre Kunden an Sie?

Die Kundenanfragen umfassen meist sehr spezifische Fragestellungen im Bereich Machine Learning, wo es oft um die Neuentwicklung von Modellen für spezifische Probleme geht. Beispielsweise wurde ein System angefragt, mit dem es möglich sein sollte, identische Objekte, die anders fotografiert wurden, auf Bildern eindeutig wiederzuentdecken und von ähnlichen Objekten zu unterscheiden. Dazu mussten wir ein vollständig neues Modell entwickeln, trainieren und evaluieren. Spannend sind solche Projekte natürlich auch deshalb, weil sie die komplette Verarbeitungskette von Datenerfassung, über Datenaufbereitung, Training, Evaluierung bis hin zur Integration in das Kundensystem umfassen.

Daneben gibt es noch weitere Anfragen, die sich mit der technischen Bewertung der Machbarkeit und regulatorischen Fragestellungen beschäftigen.

Welche Trends werden aus Ihrer Sicht die Zukunft von KI und Machine Learning prägen und wie können sich Unternehmen auf die kommenden Veränderungen vorbereiten?

KI-Technologien, insbesondere Anwendungen im Bereich ML, sind aus unserem Alltag nicht mehr wegzudenken. Die Möglichkeiten entwickeln sich in einem sehr hohen Tempo ständig weiter und auch Multimodalität, also das Einbeziehen mehrerer Modalitäten wie Text, Bilder, Audio und so weiter in ein Modell, bringen ungeahnte Möglichkeiten mit sich. Aktuell sehe ich jedoch speziell zwei sehr große Herausforderungen: erstens die Integration der Technologien in den Arbeitsalltag, sodass die Systeme auch wirklich dabei helfen, Prozesse zu erleichtern und zu beschleunigen. KI-Systeme als Assistenten für die Ausführung von wiederkehrenden und monotonen Aufgaben sind ein erstrebenswertes Ziel. Dabei muss gewährleistet werden, dass die Qualität der Ergebnisse nicht leidet. Das sicherzustellen ist nicht ganz trivial. Daher müssen sich Unternehmen insbesondere mit dieser Thematik beschäftigen. KI sollte nicht als Selbstzweck eingeführt werden, sondern zur gezielten Prozessunterstützung mit einer klaren Strategie zur Qualitätssicherung.

Die zweite große Herausforderung sehe ich in der Transparenz der Systeme: Fast alle der modernen ML-Systeme, insbesondere auch die großen Sprachmodelle, sind sehr leistungsfähig. Gleichzeitig bringen Modellgröße und Komplexität aber auch ein großes Problem mit sich: Die Modelle selbst sind aufgrund der vielen Millionen von Parametern und verschiedenen Algorithmen für den Menschen nicht mehr nachvollziehbar. Man bezeichnet sie deshalb als Black Box. Daher sind auch die Ausgaben für die Nutzenden nicht erklärbar und intransparent. Um sich auf die Ergebnisse der Modelle verlassen zu können, bedarf es Techniken aus dem Bereich der erklärbaren künstlichen Intelligenz, der sogenannten explainable artificial intelligence oder auch XAI. Hiermit kann es gelingen, Entscheidungen oder andere Ausgaben eines solchen Systems für den Menschen erklärbar zu machen. Hier besteht aktuell noch ein sehr hoher Forschungsbedarf.

Unternehmen, die sich mit dem Einsatz von KI-Systemen auseinandersetzen, sollten berücksichtigen, dass ein gewisses Maß an Transparenz und Erklärbarkeit unabdingbar ist, sofern die Ausgabe eine gewisse Tragweite hat. Ohne Erklärbarkeit ist entweder der Einsatz sehr riskant oder kein Effizienzgewinn möglich, da Ausgaben aufwändig geprüft werden müssen.

Kontakt

Prof. Dr. Michael Munz (Interviewpartner)
Steinbeis-Unternehmer
Steinbeis-Transferzentrum KI-Systeme und Software-Lösungen (Ulm)

227255-39