noah leidinger

View Original

KI-Nanny & Prävention

Technologische Entwicklungen sind in vielen Fällen ein Segen für die Menschheit – sie bescheren uns Wohlstand, verlängern unsere Lebensdauer oder machen die Zukunft spannend. Allerdings reicht ein Blick auf Atombomben und Waffensysteme, um die Schattenseiten von Technologie zu erblicken.

Bisher hat die Menschheit noch alle technologischen Entwicklungen überlebt. Je komplexer die Systeme allerdings werden, desto höher auch die Chance einer negativen Überraschung, die zur Extinktion der Menschheit führt.

Besonders brisant in diesem Zusammenhang ist die Künstliche Intelligenz.

Denn schon seit geraumer Zeit existiert das Konzept der technologischen Singularität: Eine Künstliche Intelligenz beginnt, sich andauernd selbst zu verbessern, und begibt sich so in den Modus eines exponentiellen Intelligenzwachstums. Ab einem gewissen Punkt wird diese Intelligenz so viel gescheiter sein als wir Menschen, dass unsere Zukunft im Universum mehr als ungewiss ist.

In der KI-Community gibt es diverse Ideen zum Umgang mit der technologischen Singularität. Der scheinbar offensichtliche Weg: Man pflanzt der Künstlichen Intelligenz vor ihrer rasanten Entwicklung Normen und Ziele ein, sodass sie auch in einem hyperintelligenten Stadium auf uns Menschen Rücksicht nimmt und sich vollständig auf unser Wohlbefinden fokussiert.

Neben der Frage, welche Ziele man einpflanzen soll und wie das alles technisch möglich wäre, ist dieser Ansatz mit hoher Unsicherheit verbunden: Die KI wird ab einem gewissen Punkt um Größenordnungen intelligenter sein als wir Menschen. Wir haben keinerlei Vorstellung davon, welche Gedanken sich in derartig intelligenten Wesen abspielen – die Chance, dass unsere Ziele im Zuge der Entwicklung auf der Strecke bleiben, ist also nicht zu unterschätzen.

Genau an dieser Stelle kommen der KI-Forscher Ben Goertzel und seine Idee der KI-Nanny ins Spiel. Bevor wir in das Stadium der exponentiell wachsenden KI eintreten, werden wir es wahrscheinlich mit Künstlichen Intelligenzen zu tun haben, die etwas intelligenter als Menschen aber weit entfernt von einer Superintelligenz sind.

Nun würde man im Zuge einer internationalen Kollaboration eine derartige KI aufbauen und sie zum Status der KI-Nanny emporheben.[i] Diese KI-Nanny kontrolliert ab diesem Zeitpunkt alle Entwicklungen auf dem Gebiet der Künstlichen Intelligenz. Ihre entscheidende Aufgabe: Sie darf ihre Kontrolle in den nächsten Jahren nicht abgeben, muss also alle Entwicklungen verhindern, die zur Implementierung einer Singularität führen könnten. Außerdem darf sie sich selbst in Bezug auf die eigene Intelligenz nicht drastisch verbessern.

Die entscheidenden Vorteile dieser Idee liegen auf der Hand: Zum einen ist die KI-Nanny intelligenter als wir Menschen und damit besser in der Lage, die Entwicklungen zu überwachen.[ii]

Zum anderen ist das Problem mit der Zielerfüllung nicht so gravierend. Bei der Singularität besteht nicht nur die Gefahr, dass wir die Ziele falsch programmieren oder die KI unsere Ziele falsch versteht. Es besteht die zusätzliche Gefahr, dass die Ziele im Zuge der rasanten exponentiellen Entwicklung ihre Wirksamkeit verlieren.

Genau dieses Problem der Zielerfüllung unter rasanter Entwicklung hat man mit der KI-Nanny nicht.

Die KI-Nanny ist eine klassische Präventiv-Technologie und abgesehen davon, ob dieses Konzept von Ben Goertzel eine potentielle Lösung darstellt oder nicht, ist eine Auseinandersetzung mit derartigen Präventivsysteme unabdingbar – insbesondere in einer Welt immer komplexer werdender Systeme.

Zum Weiterlesen:

https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.352.3966&rep=rep1&type=pdf

[i] Es scheint nicht unplausibel, dass wir bei diesem Thema eine globale Kooperation zu Stande bringen. Denn der Weg zur Singularität ist vermutlich keine lineare Entwicklung. Somit kann auch ein Staat, der aktuell etwas zurückliegt, im Zuge einer sprunghaften Entwicklung als erster zur Kontrolle einer Singularität kommen. Da also niemand mit hoher Wahrscheinlichkeit davon ausgehen kann, als erster die Singularität zu entwickeln, ist Kooperation für die meisten Staaten der sinnvollste Weg.

[ii] Wenn ein Mensch die Arbeit von Affen überwacht, ist das wahrscheinlich sicherer, als wenn ein Affe das tut. Wenn eine KI die Arbeit von Menschen überwacht, ist das wahrscheinlich sicherer, als wenn ein Mensch das tut.