text

Pars pro toto & künstliche Intelligenz

Der gesellschaftliche Diskurs rund um die künstliche Intelligenz beschränkt sich, getrieben von Science-Fiction-Filmen und Büchern wie denen von Yuval Noah Harari, auf zwei Narrative. Das erste Narrativ beschreibt eine Menschheit, die von der künstlichen Intelligenz überrannt, kontrolliert und tyrannisiert wird. Das zweite Narrativ behandelt das Thema der Arbeitsplätze, die durch künstliche Intelligenz wegfallen.

Wenn man dann immer wieder Berichte von nahezu perfekt selbstfahrenden Autos, Algorithmen, die Röntgenbilder besser als Ärzte interpretieren oder Songs im Stile von Bach oder Mozart komponieren können, hört, scheinen beide Narrative kurz vor ihrer Erfüllung zu stehen.

Doch sowohl die beiden Narrative, als auch die Schlussfolgerung, dass wir kurz vor ihrer Erfüllung stehen, ist auf eine Ignoranz gegenüber den Technologien zurückzuführen, die den heutigen Systemen künstlicher Intelligenz zugrunde liegen.

Auf Basis einer Unmenge an Daten werden die Systeme für ganz spezifische Sachverhalte trainiert. Je mehr Daten, desto besser funktioniert das System. Das System funktioniert in der Anwendung aber nur solange gut, solange es den Erscheinungen in der Realität schon ein paar Mal im Training begegnet ist.

Diese Systeme können sich also weder an ganz neue Gegebenheiten anpassen, für die sie nicht trainiert wurden, noch können sie über ihr spezifisches Fachgebiet hinaus eingesetzt werden. Nur weil ein System gut darin ist, GO zu spielen, hat es keine Ahnung davon, wie man Schach spielt. Ein System, das Frakturen auf Röntgenbildern erkennt, kann auf einem normalen Bild eines Menschen nicht einmal zuordnen, wo seine Körperteile sich befinden. Es wird nicht einmal erkennen, dass es sich um einen Menschen handelt.

Sowohl wenn es um Generalität als auch um die Anpassungsfähigkeit geht, sind heutige Systeme künstlicher Intelligenz enorm schwach.

Das erklärt, wieso man ein autonom fahrendes Auto völlig aus dem Konzept bringen kann, wenn man einen weißen Kreis auf die Straße malt.

Dazu kommt, dass diese Systeme mit Daten gefüttert werden und in diesen Daten gewisse Zusammenhänge erkennen. Wir wissen aber nicht, welche Zusammenhänge das System erkennt und welche nicht. Wir Menschen würden davon ausgehen, dass ein System zur Klassifizierung von Hunden in Bildern mit der Zeit lernt, die Umrisse des Hundes zu erkennen, die Details seines Gesichtes und so weiter. Tatsächlich finden die meisten Systeme aber viel unterschwelligere Zusammenhänge.

Das erklärt, wieso es möglich ist, Bilder so zu verändern, dass sie für uns vollkommen unverändert wirken, für den Algorithmus aber nicht mehr einzuordnen sind beziehungsweise stets falsch eingeordnet werden.

Da all das im gesellschaftlichen Diskurs nur sehr selten beachtet wird, bekommt ein Narrativ viel zu wenig Aufmerksamkeit – das Narrativ des pars-pro-toto Fehlschlusses.

Wenn wir von einem System künstlicher Intelligenz hören, das eine gewisse Aufgabe nahezu perfekt erfüllen kann, die wir als komplex erachten, dann schließen wir unterbewusst darauf, dass dieses System irgendwie menschlich intelligent sein muss. Wir schließen darauf, dass das System die Aufgabe mit einer ähnlichen Logik erfüllt wie wir, ähnlich anpassungsfähig ist und auch einen ähnlichen Grundschatz an einfachen Denkfähigkeiten hat.

Wir schließen also von einer Teilkapazität auf die Gesamtkapazität, bewerten ein System künstlicher Intelligenz genauso, wie einen Menschen. Und wenn ein Mensch Frakturen in Röntgenbildern erkennt, dann wird er auch ein Grundwissen über Medizin haben, wird auf jeden Fall nicht dumm sein.

Doch genau diese Schlussfolgerung ist bei den aktuellen Systemen künstlicher Intelligenz falsch und das führt dazu, dass wir sie überschätzen. Deshalb sind Autos, die nahezu perfekt autonom fahren, so gefährlich. Die Menschen verlassen sich mit der Zeit auf das Auto, welches problemlos in komplexen Situationen des alltäglichen Verkehrs navigiert. Dass das Auto bei neuartigen Situationen, die man mit einem gesunden Hausverstand problemlos bewältigen kann, vollkommen falsch agiert, glauben die meisten nicht – doch genauso ist es.

Das wirklich wichtige Narrativ auf das wir uns in den nächsten 10 bis 20 Jahren fokussieren müssen sind also Systeme, die in 99% der Fälle gut funktionieren, aber in 1% der Fälle vollkommen aussetzen. Wir müssen uns darauf fokussieren solche Systeme nicht auf Basis eines falschen pars-pro-toto Fehlschlusses in Bereichen einzusetzen, in denen oft neuartige Probleme auftauchen. Wir müssen uns darauf fokussieren, diese Systeme nicht zu überschätzen.

Zugegebenermaßen ist dieses Narrativ aber weder so spannend noch so sensationalistisch, wie die beiden Mainstream-Narrative zur KI.

Zum Weiterlesen und Weiterbilden:

Mitchell, Melanie: Artificial Intelligence. A guide for thinking humans. New York: 2019.

Harari, Yuval: 21 Lessons for the 21st Century. London: 2018.

https://www.elementsofai.com/