Forscherteam untersucht Auswirkungen künstlicher Intelligenz auf Daten- und Informationssicherheit
1.500 Artikel beschäftigten sich in der deutschen Fachpresse in den letzten beiden Jahren mit den Risiken der künstlichen Intelligenz für Unternehmen: Der Einsatz von KI-Technologien könne die strategischen und systemischen Risikoexpositionen für Unternehmen erhöhen, die Datensicherheitsstandards und den Kundenschutz untergraben und sogar zu einem Bedeutungsverlust staatlicher Organisationen führen, da die Gesetzgebung hinter der technologischen Entwicklung zurückbleibe. So weit, so gut. Oder eher: zu umfangreich, um als Experte alle Beiträge zu lesen und zu analysieren. Was also tun? Nun, man lässt die KI die Texte über ihre Risiken analysieren. Nur wenige Sekunden rechnergestützter Bearbeitungszeit sind für diese KI-basierten linguistischen Textanalysen notwendig. Diese Technologie trägt zur Verarbeitung natürlicher Sprachtexte bei und wird bereits bei großen internationalen Anwaltskanzleien und einem wachsenden Teil der öffentlichen Verwaltung verwendet, um Zusammenfassungen und Überprüfungen großer Dokumente zu erstellen. Auch das Steinbeis-Transfer-Institut zeb/business.school und der Process-Mining-Experte celonis SE haben diese Technologie eingesetzt und damit in ihrer KI-Studie die Verstärkung und Hemmung von Kausalschleifen modelliert und auf Basis dieser Modelle kurz-, mittel- und langfristige Prognosen erstellt.
Die KI-basierte linguistische Textanalyse der 1.500 Artikel über KI-Risiken und Sicherheitsbedrohungen führte zu sogenannten Themenkarten: Sie zeigen die Relevanz und Beziehung dominierender Wörter, die in den Artikeln verwendet werden. Das Projektteam verglich eine allgemeine Themenkarte, die alle Artikel abdeckt, mit einer domänenspezifischen Themenkarte, die 105 Artikel zu regulatorischen Fragen abbildet.
Ein Thema ist eine Mischung aus Worten. Wörter, die innerhalb eines Themas dominieren, treten in der Regel in Artikeln nebeneinander auf. Die relative Positionierung auf der Themenkarte gibt die Nähe an, mit der Themen in einem Artikel gemeinsam diskutiert werden: Eine größere Nähe impliziert, dass Themen häufiger miteinander diskutiert werden und einen ähnlichen Kontext gemeinsam haben.
Die Analyse zeigte: Die allgemeine Diskussion über KI dreht sich hauptsächlich um den Zugang zu Kunden- und ergänzenden Daten sowie um Transparenzanforderungen für den Einsatz von KI in Unternehmen. Über die Rolle der KI in der Gesellschaft gibt es keine spezifische Debatte. Stattdessen ist die Diskussion durch zukünftige Kunden-Geschäfts-Interaktionen und technische Systementwicklungsfragen gekennzeichnet, die durch KI ermöglicht werden. Eine Debatte über Risiken spielt in der öffentlichen Diskussion keine vorherrschende Rolle. Das einzige Risiko, das bis zu einem gewissen Grad diskutiert wird, ist das Risiko, Arbeitsplätze aufgrund der Automatisierung zu verlieren.
Ein Vergleich der allgemeinen Diskussion mit der Diskussion in den Aufsichts- und Regulierungsartikeln brachte dem Projektteam interessante Erkenntnisse. Hier sind die Themen enger miteinander verbunden. Insbesondere wird eine differenzierte Diskussion der KI im Hinblick auf den Rechtsrahmen und die Auswirkungen auf den Arbeitsplatz sichtbar. Risiken sind ein wichtiges Thema und werden unter dem Gesichtspunkt der Anforderungen an Unternehmen betrachtet. Zugriff, Transparenz und die Art und Weise, wie Daten analysiert werden, stehen in engem Zusammenhang mit Kunden und der Verwendung von Kundendaten.
Auf der Suche nach der Kausalschleife
Anhand der Themen, die durch die linguistischen Textanalysen generiert wurden, haben die Experten von Steinbeis und celonis 32 Themen als Faktoren und die restlichen zwölf Themen als Risikobereiche klassifiziert. Die Beispielfaktoren reichen von gesellschaftlichen Aspekten wie der Sicht der Bürger auf KI oder der allgemeinen Zugänglichkeit von KI-Technologie über organisatorische Aspekte wie Effizienzgewinne durch fortgeschrittene Automatisierung und die Substitution menschlicher Arbeitskräfte durch KI bis hin zu technischen Aspekten wie IT-Investitionen und Unternehmensdatenmanagement. Zu den Risikobereichen gehören Reputations- und Rechtsrisiken, operative Risiken, Datensicherheitsrisiken und systemische Risiken. Damit nicht genug, hat das Projektteam 50 Experten gefragt, welche positiven, negativen und neutralen Beziehungen sie zwischen den 32 Faktoren und zwischen jedem Faktor und den zwölf Risikobereichen sehen. Das Ergebnis: Eine Heatmap, die hemmende und verstärkende Einflüsse darstellt.
Neuronale Prognose: Die Schleifen in Bewegung setzen
Diese Sachverständigenurteile bewerten einen Faktor nach dem anderen, ohne die Interdependenzen zwischen ihnen zu berücksichtigen. Ein solches Beziehungsnetz – in diesem Fall aus mehr als 1.400 Verbindungen – kann von menschlichen Experten nicht bewertet werden. Daher hat das Studienteam die Expertenbewertungen in ein selbstlernendes, künstliches neuronales Netzwerk übertragen, das alle Einflüsse in Form von Randbedingungen simuliert. Auf dieser Grundlage können Prognosen für zukünftige Entwicklungen berechnet werden. Wenn viele hemmende Einflüsse auf einen Faktor wirken, wird der Faktor nicht vorankommen und seine Bedeutung verlieren. Im Gegensatz dazu bewirken sich intensivierende Einflüsse, dass sich der Faktor weiterentwickelt und zunehmend relevant wird.
Die Faktoren, die sich auf die systemischen und strategischen Risiken von Finanzdienstleistern auswirken, können danach im Hinblick darauf zusammengefasst werden, ob ihre Entwicklungen die Risikobereiche positiv oder negativ beeinflussen und ob sie ihre Relevanz erhöhen oder verringern werden. Derzeit ist der wichtigste Grund für strategische Risiken ein Mangel an für die Analyse geeigneten Daten und ein Mangel an Klarheit über regulatorische Rahmenbedingungen. Gesetze und Regulierung verwenden eine Sprache, die nicht direkt in die Funktion von Algorithmen übersetzt werden kann, und diese Sprachbarrieren führen zu Unsicherheiten. Ein kurzfristiger Faktor, der das Risiko verringert, ist die Bereitstellung von KI, die Menschen bei Entscheidungen unterstützt statt sie zu ersetzen.
Da Algorithmen immer ausgeklügelter werden, sind sich Experten einig, dass KI im Durchschnitt dazu beitragen wird systemische Risiken zu reduzieren. Im Falle eines Risikoereignisses werden Schocks allerdings radikaler werden, weil Algorithmen nicht auf Extremereignisse trainiert werden, für die kaum oder gar keine Daten existieren.
KI ersetzt keine Menschen, sondern Berufs- und Ausbildungsprofile
KI-basierte Innovationen ersetzen den Menschen nicht: Typische menschliche Fähigkeiten werden eine noch entscheidendere Rolle spielen, aber sie müssen an die neuen Herausforderungen angepasst werden. Es ist notwendig, die Rollen in allen Management- und Arbeitsprozessen neu zu definieren und lebenslanges Lernen in den Arbeitsalltag zu integrieren. Vor zwanzig Jahren gab es keine Datenwissenschaftler oder Softwareentwickler. Heute gibt es auf dem Arbeitsmarkt nicht genug davon. So werden auch völlig neue Jobprofile entstehen: Das Spektrum reicht von den „User Experience Designers“, die Mensch-Maschine-Interaktionen optimieren, bis hin zum „Virtual Assistant“, der nicht mehr vor Ort, sondern „ferngesteuert“ via Online-Tools unterstützt.
Was zeigt nun die Prognosesimulation des Studienteams? Die Verständlichkeit und Transparenz von KI-Methoden wird in Zukunft nicht mehr ausreichen, um aus den verfügbaren Daten zu lernen. Während KI-Methoden heute noch ein Wettbewerbsvorteil sein können, werden sie wohl zu einem Allgemeingut werden. Es geht vor allem darum, nicht nur kurzsichtige Technologie und Infrastruktur zu fördern, sondern auch Geschäftsideen und deren Umsetzung. Klarheit über die Verwendung von Daten und Verständlichkeit der KI-Ergebnisse werden den weiteren Erfolg der Verbreitung und des Marktzugangs bestimmen.
Mit Blick auf den aktuellen Verlauf der KI-Entwicklungen wird deutlich, dass die Verbesserung von Daten- und Informationssicherheit und die Verminderung strategischer Risiken nicht dasselbe sind. Neben Fachkenntnissen und -kompetenzen müssen neue Formen der Mensch- Maschine-Interaktion entwickelt und erprobt werden. KI-basierte Technologie wird Risiken nicht erhöhen, sondern reduzieren. Das gelingt aber nur, wenn Organisationen und Technologieeinsatz nutzer-, also mensch-zentrierter werden.
Kontakt
Prof. Dr. habil. Joachim Hasebrook (Autor)
Leiter der Studie
Steinbeis-Transfer-Institut zeb/business.school (Baden-Baden)
www.zeb-bs.de
Dr. Patrick Lohmann
Senior Solution Engineer
celonis SE (New York City)