Professor Dr. Wolfgang Ertel skizziert mögliche Szenarien einer kommenden Singularität der KI
Der US-amerikanische Autor Dan Brown stellt in den Mittelpunkt seines Romans „Origin“ eine künstliche Intelligenz, die den eigenen menschlichen Erfinder umbringt – nach Abwägung aller Fakten war das aus ihrer Sicht die logisch richtige Entscheidung. Was heute noch Science Fiction ist, könnte technisch in einigen Jahrzehnten aber durchaus realistisch sein. Maschinelle Lernverfahren lösen heute schon Probleme, die mit den klassischen, aus Mathematik, Computersimulation und Softwareengineering bekannten Methoden unlösbar waren. KI treibt die Wirtschaft an, führt zu mehr Lebensqualität, Komfort und Bequemlichkeit und wird unser Leben immer mehr verändern. Lernfähige Diagnosesysteme können unsere Gesundheit verbessern sowie Umwelt und Klima schützen. Voraussetzung ist jedoch ein kluger, weitsichtiger Umgang mit der KI, um ein Abdriften in die Katastrophe zu verhindern, meint unser Autor Professor Dr. Wolfgang Ertel. Er ist Unternehmer am Steinbeis-Transferzentrum Künstliche Intelligenz und Datensicherheit und lehrt an der RWU Hochschule Ravensburg-Weingarten.
In den letzten zehn Jahren erlebte das maschinelle Lernen seinen Durchbruch. Neuronale Netze erkennen heute dank Deep Learning beliebige Objekte auf Fotos besser als der Mensch. Deep Learning wird in den nächsten Jahren zu deutlich besseren medizinischen Diagnosen führen, die unter anderem auf bildgebenden radiologischen Verfahren basieren. Dem autonomen Fahren, das sich weltweit durchsetzen wird, verhilft Deep Learning zum Durchbruch. Auch die wichtige Anwendung der Servicerobotik ist inzwischen mit sehr guter Qualität möglich, ein Roboter kann Objekte zuverlässig erkennen und greifen. Im kreativen Bereich sind die sogenannten GAN-Netze in der Lage, Kunstwerke oder Portraits von Kunst-Menschen zu generieren oder existierende Menschen in generierte Videos zu integrieren.
Das nächste Level: komplexe Sprachmodelle
Viele Spezialaufgaben können lernfähige KI-Systeme heute schon besser lösen als ein Mensch. Aber die Systeme sind noch auf jeweils eine Aufgabe beschränkt [1]. Eine ganz neue Dimension der Qualität zeigen die im Jahr 2020 vom Softwareentwicklungsunternehmen OpenAI in San Francisco vorgestellten „Generative Pretrained Transformer“-Netze (GPT3) [2]. Das sind hochkomplexe Sprachmodelle, trainiert mit Texten aus Büchern, Datenbanken und Wikipedia im Umfang von vier Milliarden Buchseiten. Mit GPT3 unterhält man sich wie mit einem Akademiker und erhält grammatikalisch und semantisch korrekte Antworten auf beliebige Fragen aus allen Wissensbereichen. Der Schritt hin zu einer universellen Intelligenz scheint dann nicht mehr allzu groß zu sein. Was noch fehlt ist, dass das System nicht nur redet, sondern auch beliebige Handlungen ausführen und Fähigkeiten lernen kann. Genau das versucht nun OpenAI mit Codex [3], einem auf GPT3 aufbauenden System, das neben dem Sprachmodell auch noch ein Modell der Programmiersprache Python gelernt hat, indem es auf der Open-Source-Software-Datenbank GitHub trainiert wurde. Codex kann aus textuellen Aufgabenbeschreibungen nicht-triviale Computerprogramme automatisch generieren.
Extrapoliert man diese Erfolge in die Zukunft, stellt sich die Frage, ob und wenn ja, wann die KI-Systeme als Ganzes uns Menschen in allen Bereichen überlegen sein werden. Der Zeitpunkt, an dem die KI die menschliche Intelligenz erreicht, wird als „Singularität“ bezeichnet. Vermutlich wird dieser Zustand in den nächsten zwanzig bis fünfzig Jahren eintreten. Schon kurz nach der Singularität werden die KIs uns Menschen weit überlegen sein, denn sie werden sich viel schneller weiterentwickeln als wir. Was bedeutet das für uns?
Szenarien im Wettlauf Mensch – KI
Für die zeitliche Entwicklung der Intelligenz von Menschen und Computern sind verschiedene Entwicklungen denkbar. In der Abbildung oben links nimmt die Intelligenz des Menschen minimal linear zu, die der KI hingegen zuerst exponentiell und nähert sich dann asymptotisch der des Menschen an. Hier liegt die Annahme zugrunde, dass eine vom Mensch geschaffene KI nie klüger werden kann als ihr Schöpfer. Dagegen spricht, dass die Intelligenz von Menschen auch abnehmen kann, insbesondere, wenn das Leben immer bequemer wird und die KIs uns immer mehr das Denken abnehmen, beispielsweise über Navigationssysteme im Auto. Dies skizziert die mittlere Grafik oben. Möglich wäre aber auch eine in der rechten Grafik dargestellte Spaltung der Gesellschaft in eine „intellektuelle Elite“ und die „Genießer“, sicherlich verbunden mit erheblichem Konfliktpotenzial.
Spannend wird es in den unten dargestellten Verläufen, in denen der Schnittpunkt der roten und blauen Kurven die Singularität darstellt. Im linken Verlauf geht die exponentielle Zunahme der Intelligenz der KI ungebremst weiter. Dies ist nicht völlig auszuschließen, denn eine KI, die klüger ist als wir, wird auch die Forschung steuern und könnte völlig neue Technologien und Algorithmen entwickeln. Solch eine superintelligente KI wird als AGI (artificial general intelligence) bezeichnet. Es könnte aber auch wie im mittleren Verlauf dargestellt zu einer beschränkten Singularität mit stagnierender Zunahme der Intelligenz kommen. In beiden Varianten ist der Mensch unterlegen, die KI wird die Führung übernehmen und kann entscheiden, was ihre Pläne für die Spezies des Homo Sapiens sind. Eben weil die KI klüger sein wird als wir, haben wir wohl keine Chance vorherzusagen, wie die KI mit dem Menschen umgehen würde: Paradies wie auch Hölle scheinen beide denkbar. Interessant und neu ist, dass Realität und bisher als Science Fiction abgetanes Zukunftsbild sich immer mehr annähern. Eine weitere spannende Vision stellt schließlich der rechte Verlauf dar. So in etwa stellt sich Ray Kurzweil, Entwicklungschef von Google und KI-Futurist, seine Zukunft vor. Angenommen wir Menschen könnten unser Gehirn mit einer digitalen AGI verbinden und dadurch selbst superintelligent werden, dann wären wir in der Lage unser Schicksal weiter selbst zu bestimmen. Und durch moderne Gentechnik würden wir vielleicht nicht mehr altern und viel länger leben können.
AGI: Fluch oder Segen für den Menschen?
Wie schnell die Singularität kommen wird und welche Entwicklungen dann zu erwarten sind, ist nicht vorherzusagen. Aber wir können über mögliche Verläufe nachdenken. Vier Szenarien sollen die Zukunft des Homo Sapiens mit und ohne eine AGI und deren Konsequenzen kurz skizzieren:
- Der Mensch entwickelt keine AGI
Das Leben geht weiter wie bisher und es geht im Wesentlichen um die zwar wichtige, aber in diesem Szenarium nicht weiter relevante Frage, wie wir Menschen mit uns und der Natur umgehen. - Der Mensch entwickelt eine AGI
Da per Definition die AGI klüger als der Mensch ist, wird sie über die Zukunft der Menschheit entscheiden. Folgende Varianten sind denkbar: Die AGI beschließt, dem Menschen zu dienen, was theoretisch zu paradiesischen Zuständen führen könnte. Ob wir Menschen dabei glücklich wären, bleibt eine offene Frage. Außerdem ist es unwahrscheinlich, dass die AGI wirklich Diener sein will. Viel eher wird sie den Menschen nutzbringend für ihre Zwecke einsetzen wollen, so wie wir beispielsweise in der Landwirtschaft Nutztiere züchten. Die AGI könnte sich aber auch entscheiden, die Menschheit zu vernichten oder sie aussterben zu lassen [4]. - Der Mensch entwickelt eine AGI und stirbt aus
Das Aussterben der Dinosaurier vor 66 Millionen Jahren hat die biologische Nische für uns Menschen geschaffen. Hätten die Dinosaurier überlebt, gäbe es uns Menschen heute nicht. Vermutlich wird es in 66 Millionen Jahren keine Menschen mehr geben. Es ist durchaus wahrscheinlich, dass die Menschheit in Folge von Klimawandel, Umweltverschmutzung, durch eine Pandemie oder einen Weltkrieg ausstirbt. Geradezu schade wäre es, wenn wir dann kein Erbe in der Welt hinterlassen. Eine AGI bietet sich hierfür an. Diese sollten wir rechtzeitig vor unserem Untergang soweit bringen, dass sie sich autonom weiterentwickelt. Im Unterschied zu biologischen Wesen lässt sich bei der AGI die Intelligenz leicht vom Körper trennen und per Funk verschicken, was spannende Möglichkeiten für deren Ausbreitung im Universum eröffnet. - Der Mensch stirbt vor der „Geburt” der AGI aus
Im Vergleich zum dritten Szenario hinterlassen wir kein Erbe im Universum. Der Homo Sapiens hat es offenbar nicht geschafft eine Spezies zu kreieren, die ihn ablöst, so wie er einst die Nachfolge der Dinosaurier antrat: dumm gelaufen.
Sie fragen sich gerade, ob solche Überlegungen notwendig beziehungsweise sinnvoll sind? Nun, einerseits ist es von großem akademischem Interesse über die Zukunft der Menschheit zu forschen. Andererseits wollen wir ja vielleicht auch die Zukunft beeinflussen, indem wir etwa die Entwicklung einer AGI verhindern, falls wir glauben, dass diese für uns Menschen gefährlich werden könnte. Und diese Gedanken sollten wir uns früh genug vor der Singularität machen. Denn wenn die KI erst einmal die Intelligenz eines Menschenaffen erreicht hat, wäre es zu spät zu reagieren. Diese intelligente KI würde sich im Internet vielfach kopieren und schnell weiterentwickeln.
Auch wenn die AGI vorerst nicht oder gar nie kommen sollte, so gibt es ganz konkrete Gefahren durch die heute schon im großen Stil eingesetzten KI-Systeme. Sie wurden entwickelt, um uns Menschen Arbeit abzunehmen, und das tun sie auch. Die Arbeitswelt wird sich dramatisch verändern, denn KI und Automatisierung werden in fast allen Berufen mehr und mehr Arbeiten übernehmen. Wir müssen daher über die Zukunft eines Lebens mit weniger Erwerbsarbeit nachdenken [5], auch vor dem Hintergrund der planetaren Grenzen, die unser grenzenloser Konsum längst überschritten hat [6].
Kontakt
Prof. Dr. Wolfgang Ertel (Autor)
Steinbeis-Unternehmer
Steinbeis-Transferzentrum Künstliche Intelligenz und Datensicherheit (KIDS)
(Ravensburg)