noah leidinger

View Original

Künstliche Intelligenz muss schlecht sein!

“For unreliable AI, there may be reasons to forgo extensive data training while for antagonistic AI, data that identifies outcomes that humans dislike may be valuable.” – Susan Athey et al. in ihrem 2020 erschienenen Paper “The allocation of decision authority to human and artificial intelligence.”

Wenn man so etwas liest merkt man wieder einmal, wie weit entfernt viele Professoren von der Realität sind. Wie kann eine Professorin der prestigeträchtigen Stanford Universität ernsthaft schreiben, dass es empfehlenswert oder gar wertvoll sein kann, Künstliche Intelligenz mit schlechten Daten zu füttern, oder das Training stark zu beschränken?

Was auf den ersten Blick absurd scheint, hat einen sehr guten Grund und sollte viele Entwickler, Forscher und Unternehmen im KI-Bereich zum Nachdenken bringen. Susan Athey und Kollegen beschäftigen sich in ihrem Paper nämlich mit der brennenden Frage, wie man eine Künstliche Intelligenz einsetzen kann, wenn sie noch nicht so weit ist, Entscheidungen vollkommen unabhängig von Menschen zu treffen.

Auf den ersten Blick scheint das eine ziemlich rhetorische Frage zu sein. Wenn eine KI-Applikation nicht perfekt ist, dann entwickelt man sie zu ihrem Optimum und gibt sie dem menschlichen Entscheidungsträger als Werkzeug an die Hand.

Das Problem daran ist, dass schon heute Menschen vor dem Steuer ihres semi-autonomen Teslas einschlafen, weil die Künstliche Intelligenz so perfekt scheint, dass man ihr die Autorität überträgt. Das ist aber gefährlich, denn die KI entscheidet zwar in den meisten Fällen richtig, ist aber in Spezialfällen noch nicht so ausgereift, dass man ihr die volle Autorität geben kann.

Doch sobald der menschliche Entscheidungsträger den wirklichen Anreiz verliert, etwas zu tun, weil die KI ohnehin alles ohne ihn macht, wird er seine Verantwortung abgeben und aufhören, sich anzustrengen.

In solchen Fällen also, wo die Künstliche Intelligenz noch nicht perfekt ist und menschliche Unterstützung braucht, kann es sinnvoll sein, das Können der KI unter dem Level zu halten, das theoretisch möglich wäre. In der Praxis heißt das, dass man beim Selbstfahrmodus immer wieder kleine Fehler einbaut, damit der menschliche Entscheidungsträger merkt, dass seine Anstrengung und Kontrolle essentiell ist.

Genauso wie man die Fähigkeiten der KI begrenzen kann, ist es möglich, die KI absichtlich schlecht zu machen. Man hat also keine gute KI, die man beschränkt und in die man teilweise Fehler einbaut, sondern eine schlechte KI, die nur dazu da ist, den menschlichen Akteur zu motivieren und aufmerksam zu machen.

Zum Weiterlesen:

https://www.gsb.stanford.edu/faculty-research/working-papers/allocation-decision-authority-human-artificial-intelligence