© istockphoto.com/OstapenkoOlena

„Am Ende steht immer der Mensch im Mittelpunkt“

Im Gespräch mit Professor Dr. Bernhard Humm, Steinbeis-Unternehmer am Steinbeis-Transferzentrum Angewandte Künstliche Intelligenz an der Hochschule Darmstadt

Ein intelligenter, humanoider Roboter – das ist das futuristische Bild, das manch einer mit KI verbindet. Dabei nutzen wir viele KI-Anwendungen in unserem Alltag: Handys mit Gesichtserkennung, digitale Sprachassistenten, Smart-Home-Geräte – und die Entwicklung geht weiter. Kann das gefährlich werden, sobald die Schöpfung den Schöpfer übertrifft? Der Steinbeis-Experte Professor Dr. Bernhard Humm ist überzeugt, dass dies nicht der Fall sein wird, da Maschinen immer nur im Rahmen der von Menschen gestellten Aufgaben agieren und lernen können. In seinem Gespräch mit der TRANSFER hat er auf die Bedeutung unserer Verantwortung als Gesellschaft in KI-Fragen hingewiesen.

Herr Professor Humm, alle sprechen ganz selbstverständlich von der künstlichen Intelligenz, aber was genau steckt hinter diesem Begriff?

Das stimmt, KI ist derzeit ein kontrovers diskutiertes Thema, unter anderem auch weil der Begriff schwammig ist: Kaum jemand weiß, was genau darunter zu verstehen ist, und jeder kann darüber fabulieren. Das ist der Grund, warum ich gerne eine Definition von KI angebe: KI sind Computersysteme und Anwendungen, die Eigenschaften menschlicher Intelligenz aufweisen. Das heißt, sie sind nicht intelligent so wie Sie und ich, sondern sie bilden lediglich Eigenschaften menschlicher Intelligenz ab. Kommunizieren ist zum Beispiel eine solche Eigenschaft. Anwendungen wie Alexa oder Siri bilden sie ab. Auch Denken, Schlussfolgern gehört zur menschlichen Intelligenz, das sind Eigenschaften, die Entscheidungen unterstützen. Diese Eigenschaften bilden zum Beispiel Expertensysteme nach, die Ärzten Handlungsempfehlungen geben. Oder nehmen wir die Fähigkeit des Handelns – ein Beispiel dafür ist ein selbstfahrendes Auto. Auch eine Kamera mit Gesichtserkennung ist eine KI-Anwendung. Wie Sie sehen, haben wir schon viele KI-Anwendungen im täglichen Gebrauch, diese werden aber oft als etwas Selbstverständliches und nicht als KI wahrgenommen.

Sie beschäftigen sich mit konkreten KI-Anwendungen: Mit welchen Fragestellungen wenden sich Ihre Kunden an Sie?

Mir fallen viele interessante Beispiele ein, vor allem aus meinen Forschungsprojekten an der Hochschule. Fangen wir mit der Medizin an: Hier haben wir Anwendungen für Ärzte entwickelt, die Krebspatienten behandeln. Diese Anwendungen geben den Ärzten auf Basis der Patienteninformationen aus der elektronischen Gesundheitsakte evidenzbasierte Handlungsempfehlungen für die Diagnose und für die Therapie.

Ein anderes Beispiel kommt aus dem Bereich der Psychotherapie. Hier wird Patienten mit Borderline-Persönlichkeitsstörung und ihren Therapeuten Hilfestellung gegeben, zum Beispiel wenn ein Therapieabbruch droht.

Wechseln wir in den Produktionsbereich, Stichwort intelligente beziehungsweise vernetzte Fabrik: Hier geht es darum, Fehler – Produktionsfehler, Ablauffehler, Fehler in den Maschinen – frühzeitig zu erkennen und dann zum Beispiel dem Wartungsingenieur den Hinweis zu geben, wo die Fehler sind, was der Grund dafür sein könnte und wie man das Problem beheben kann.

Des Weiteren haben wir ein Projekt im Bereich Tourismus realisiert. Dort ging es darum, wie man dem Endkunden, in diesem Fall Familien, Hotels empfehlen kann, die ihren Wünschen, Interessen und Neigungen entsprechen, ohne dass man genau das Vokabular der Webseite treffen muss. Denn wenn zum Beispiel jemand nach „familienfreundlich“ sucht, aber in der Hotelbeschreibung „kinderfreundlich“ steht, so wird vorgeschlagen, weil beide Begriffe inhaltlich verwandt sind.

Und ein letztes Beispiel aus dem Bereich Kultur: In einem Projekt für das Städel Museum in Frankfurt entstand die digitale Sammlung, in der interessante Querbezüge zwischen den Kunstwerken aufgeführt werden.

Alle Beispiele, die ich jetzt genannt habe, haben aber eines gemeinsam: Am Ende steht beim Einsatz von KI-Technologien immer der Mensch im Mittelpunkt.

Mit dem Begriff KI sind viele, oft diffuse Ängste verbunden. Was sind aus Ihrer Sicht die tatsächlichen Risiken?

Ich denke, wir können mit diesen Dystopien anfangen, denn es gibt viele davon. Die eine kennen Sie vielleicht: Die Maschinen entwickeln sich selbstständig weiter, übertreffen die menschliche Intelligenz und übernehmen schlussendlich die Weltherrschaft. Die Vorstellung übt eine gewisse Faszination aus und das haben sowohl Hollywood als auch die Medien dankend aufgenommen. Aber ich sage ehrlich, falls – und wirklich falls – es überhaupt möglich sein würde, dass eine echte Intelligenz entsteht, die sich selbstständig weiterentwickelt, dann wird das nicht in absehbarer Zeit passieren. Und ich gehe weiter und sage, es gibt derzeit keinerlei Evidenz, dass das jemals der Fall sein könnte, denn es gibt fundamentale Unterschiede zwischen Menschen und Maschinen: Der Mensch ist eine Einheit aus Körper, Geist und Seele und unsere Intelligenz steckt nicht nur in unserem Gehirn, sondern kommt eben aus dieser Einheit. Dazu kommt noch unsere Interaktion mit unserer Umwelt, wir lernen und entwickeln uns aus uns heraus. Menschliche Intelligenz ist viel komplexer als KI. Man darf nicht vergessen, dass KI immer im Rahmen des von den Menschen vorgegebenen Zwecks agiert, und es gibt keine Erkenntnisse, dass sie aus diesem Rahmen selbst ausbrechen könnte.

Aber wenden wir uns den tatsächlichen Risiken der KI zu. Eines davon ist das Risiko von Fehlentscheidungen, falsch gestellte Diagnosen oder Unfälle infolge von Fehlern selbstfahrender Autos. Dann gibt es Risiken, die entstehen, wenn der Mensch die Entscheidungen und das Verhalten der Maschine nicht nachvollziehen kann und dagegen steuert. In den 1990er-Jahren gab es einen Unfall in einem Airbus mit neuen Assistenzsystemen: Der Pilot wollte bei einer Flugschau ein spektakuläres Manöver vorführen, aber das Autopilotsystem war programmiert dagegen zu steuern. Der Pilot hat also gegen das System und das System gegen den Piloten gesteuert, was zum Absturz geführt hat: Das Zusammenspiel Mensch- Maschine hat nicht gestimmt.

Das nächste Risiko ist mit der Qualität der Daten verbunden, auf Basis deren die KI-Anwendung agiert: Sind diese Daten fehlerhaft oder verzerrt, treffen die Maschinen falsche Entscheidungen.

Es gibt noch einen wichtigen Aspekt, ich nenne das die Technikgläubigkeit. Nehmen wir als Beispiel die Medizin: Es gibt mittlerweile sehr gute KI-Anwendungen, die zum Beispiel bei der Diagnose unterstützen. Aber was ist, wenn der behandelnde Arzt sich bewusst und aus guten Gründen gegen die Empfehlung der Maschine entscheidet? Dann kann er möglicherweise unter Rechtfertigungsdruck geraten. Und eine Medizinergeneration später geht vielleicht die Fähigkeit verloren, bewusst eigene Entscheidungen zu treffen.

Welche Trends werden Ihrer Meinung nach die Zukunft von KI-Anwendungen beeinflussen und brauchen wir für diese zukünftige Entwicklung bestimmte Regeln?

Das ist eine wichtige Frage und ich finde, es geht weniger um die technische Entwicklung, sondern viel mehr um die Verantwortung der Gesellschaft, eigentlich der Weltgemeinschaft. Ein gutes Beispiel sind die automatischen Waffensysteme, die auch selbst die Entscheidung für einen Angriff treffen können. Die Frage ist: Wollen wir als Gesellschaft das?

Es sind aktuell drei Zukunftsströmungen in der KI zu beobachten: Die eine ist die amerikanische, die vornehmlich wirtschaftsorientiert ist. Dann gibt es den chinesischen Weg, bei dem es häufig um soziale Kontrolle geht. Und die dritte Strömung ist die der EU, bei der es um ethische Verantwortung beziehungsweise um menschen-zentrierte KI geht. Einer der Aspekte davon ist der Datenschutz. Hier stehen wir aber in einem gewissen Spannungsfeld: Datenschutz versus datengetriebene Technologien, denn einerseits funktionieren solche Technologien umso besser, je mehr Daten verfügbar sind, andererseits schränkt der Datenschutz genau das ein. Aber man darf nicht vergessen, dass KI kein Selbstzweck ist, deshalb muss man in diesem Spannungsfeld arbeiten. Es geht nicht nur um regulatorische oder juristische Maßnahmen, sondern vor allem um die allgemeinen ethischen Rahmenbedingungen, die wir als Gesellschaft setzen müssen.

Kontakt

Prof. Dr. Bernhard Humm (Interviewpartner)
Steinbeis-Unternehmer
Steinbeis-Transferzentrum Angewandte Künstliche Intelligenz (Darmstadt)

215406-41