© istockphoto.com/NicoElNino

WeKI-Go: Wie wird KI wertekonform?

Experten des Ferdinand-Steinbeis-Instituts unterstützen KMU auf dem Weg zu vertrauenswürdiger künstlicher Intelligenz

Künstliche Intelligenz soll stets fair, transparent und nachhaltig sein und niemandem schaden. Gleichzeitig soll sie Mehrwerte für Unternehmen schaffen. Wie man diesen Spagat bewältigt, erarbeiten derzeit Wissenschaftler des Ferdinand-Steinbeis-Instituts (FSTI) im von der Baden-Württemberg Stiftung beauftragten Projekt „WeKI-Go“.

 

KI-Governance-Rahmenmodell

Künstliche Intelligenz erlebt derzeit – befeuert durch generative Lösungen wie Chatbots und Bildgeneratoren – einen intensiven Hype und birgt ein enormes wirtschaftliches Potenzial für Unternehmen aller Branchen. Die Nutzung von KI birgt jedoch auch Risiken, die Unternehmen vor Herausforderungen stellt, wie zum Beispiel sogenannte Halluzinationen oder Fakes, die zu verfälschten Ergebnissen führen. Im Auftrag der Baden-Württemberg Stiftung hat sich das FSTI-Forscherteam aus Stuttgart daher mit der Frage beschäftigt, wie KI in Unternehmen wertekonform eingesetzt werden kann. Konkret wird im Forschungsprojekt „Empfehlungen zu einem wertekonformen KI-Einsatz durch fallspezifische Governance-Konzepte (WeKI-Go)“ ein Governance-Rahmenmodell entwickelt, das Unternehmen mit wenig KI-Erfahrung Handlungsempfehlungen aufzeigt, um den Herausforderungen zu begegnen.

KI basiert auf der Mustererkennung in Daten. Mit den erkannten Mustern wird dann eine Wahrscheinlichkeit für zukünftige Ergebnisse ermittelt. Dieses Prinzip ist in der Regel nicht an menschliche Handlungsnormen gebunden, sondern kann mittels verschiedener Methoden des maschinellen Lernens in zahlreichen Domänen und Kontexten angewendet werden. Häufig ist mit künstlicher Intelligenz gegenüber vorherigen Lösungen auch eine direkte Entscheidung oder Handlung verbunden, die der Computer selbstständig umsetzt, ohne einen menschlichen Entscheider zu beteiligen.

Wertekonformität: Was steckt dahinter?

Deutschland möchte sich in seiner KI-Strategie von anderen internationalen Akteuren durch eine wertekonforme KI differenzieren: „Wir wollen eine europäische Antwort auf datenbasierte Geschäftsmodelle und neue Wege der datenbasierten Wertschöpfung finden, die unserer Wirtschafts-, Werte- und Sozialstruktur entspricht“, so eines der Ziele. Doch was bedeutet „wertekonforme KI“? Sie ist gekennzeichnet durch folgende Merkmale:

  • Datenschutz: Eine KI-Lösung ist konform zu den rechtlichen Vorgaben im Bereich des Datenschutzes.
  • Fairness: Eine KI-Lösung diskriminiert nicht und behandelt alle Fälle nach den gleichen Prinzipien.
  • Nachhaltigkeit: KI soll sich an den Prinzipien der sozialen, ökologischen und ökonomischen Nachhaltigkeit orientieren. Aktuell steht der Energieverbrauch bei der Mustererkennung im Vordergrund der Debatte.
  • Nicht-Schädlichkeit: Eine KI-Lösung soll bei medizinischen Anwendungen keine gesundheitlichen Schäden verursachen und möglichst keine finanziellen Schäden herbeiführen.
  • Transparenz: Die Entscheidung einer KI lässt sich nachvollziehen. Dies ist aktuell insbesondere beim sogenannten Deep Learning nicht immer vollständig möglich.
  • Verantwortung: Für die Entwicklung, den Betrieb und die Nutzung bestehen klare Zuständigkeiten in Organisationen und diese sind beispielsweise in Notfallplänen und Abnahmen klar festgehalten.

So weit, so klar, aber die Sicherstellung dieser Eigenschaften ist nicht trivial und stellt Unternehmen, die erstmalig KI-Lösungen entwickeln oder einsetzen, vor viele Fragen.

KI-Governance-Rahmenmodell

Über die Auswertung einschlägiger Literatur, mehr als 20 Expertengespräche sowie Diskussionen in DIN- und VDE-Gremien zur Normung beziehungsweise Zertifizierung von KI-Lösungen haben die Wissenschaftler des FSTI und des Lehrstuhls für Allgemeine BWL und Wirtschaftsinformatik 1 der Universität Stuttgart gemeinsam ein KI-Governance-Rahmenmodell entwickelt. Dieses enthält über 100 Einzelmaßnahmen, die dafür Sorge tragen, KI wertekonform zu gestalten und einzusetzen.

Im letzten Teil des Projekts arbeitet das Team aktuell daran, die Maßnahmen zu konkretisieren, diese über ein Regelwerk und einen Wissensgraphen fallbasiert an die Situation eines Unternehmens und Ziele des KI-Einsatzes anzupassen sowie konkrete Templates bereitzustellen. So sind Empfehlungen an Datenschutzbeauftragte unter anderem abhängig von der Unternehmensgröße oder mögliche Empfehlungen zum Stakeholdermanagement abhängig vom Einsatzkontext und der Lebenszyklusphase der KI-Anwendung. Für Abnahme und Risikomanagement werden Checklisten für Unternehmen entwickelt. Die Projektergebnisse werden mit Projektende im Oktober 2023 in Form eines Online-Fragebogens zur Nutzung bereitstehen.

KI in KMU

Parallel zum Abschluss des Projektes „WeKI-Go“ widmet sich das FSTI weiter dem Thema KI in KMU: Im April 2023 startete eine Forschungskooperation mit der Technischen Universität Dresden im Bereich der KI-Assistenzsysteme in der Produktion, mit dem Ziel, die Einführung vertrauenswürdiger KI-Systeme in KMU zu beschleunigen und damit den Fachkräftemangel zu adressieren.

Kontakt

Maximilian Werling (Autor)
Wissenschaftlicher Mitarbeiter
Ferdinand-Steinbeis-Institut Stuttgart
https://ferdinand-steinbeis-institut.de

Dr. Jens F. Lachenmaier (Autor)
Senior Researcher
Ferdinand-Steinbeis-Institut Stuttgart
https://ferdinand-steinbeis-institut.de

223075-44