noah leidinger

View Original

Raketenbau und Künstliche Intelligenz

Raketenwissenschaft ist nicht umsonst eine Raketenwissenschaft. Viel komplizierter als die Raketenwissenschaft selbst ist aber der tatsächliche Bau von Raketen.

Elon Musk vergleicht die Konstruktion von Weltraumfahrzeugen mit dem Schreiben einer enorm komplexen Software. Nur kann man die Software in ihrer Gesamtheit nie testen und wenn man sie zum ersten Mal testet, darf sie keine Fehler mehr haben.

Doch jeder der schon einmal ein Stück Software programmiert hat, weiß: Eine Software zu entwickeln, die man nie testen darf und die dennoch von Beginn an ohne Bugs läuft, ist ein Ding der Unmöglichkeit.

Darum geht es beispielsweise im Bereich der Cybersicherheit nicht darum, eine vollkommene Sicherheit zu gewährleisten. Es geht vielmehr darum, die Anzahl an Fehlern oder erfolgreichen Attacken auf ein Minimum zu reduzieren.

Dieser Prozess des iterativen Testens und Verbesserns funktioniert bei normaler Software ziemlich gut. In der Regel sind die Auswirkungen eines Fehlers nicht dramatisch. Im schlimmsten Fall gehen Daten oder Geld verloren. Existenzgefährdend sind die Konsequenzen aber meist nicht.

Auch für unsere aktuellen Applikationen mit Künstlicher Intelligenz, ist diese Vorgehensweise der Absicherung durchaus vernünftig.

Klar, wenn das selbstfahrende Auto einen Unfall baut, kann das durchaus schlimme Konsequenzen haben. Wenn ein Algorithmus für Bewerbungsverfahren systematisch diskriminiert, ist das auch ein Problem. Im Großen und Ganzen können wir mit diesen Problematiken aber sehr gut umgehen.

Gefährlich wird es nur, wenn wir in den Bereich der KI-Systeme mit übermenschlicher Intelligenz vordringen.

Wie der russische Wissenschaftler Roman Yampolskiy in seinem Paper „Predicting future AI failures from historic examples“ betont, ist in so einem Fall die iterative Fehlerausbesserung nicht mehr möglich.

Dabei ist es ganz egal, ob die KI selbst fehlerhaft programmiert ist oder sie einfach nur von den falschen Menschen gesteuert wird. Man kann sich hier keine Fehler erlauben, da jeder Fehler potentiell gravierende Konsequenzen für die Menschheit haben kann.

Was also tun?

Gerade die Raum- und Luftfahrtindustrie ist in den letzten Jahrzehnten sehr gut darin geworden, sicher mit komplexen Systemen umzugehen. Hier können sich auch KI-Forscher so einiges abschauen.

Auf dem Bereich der Cybersicherheit profitieren die Sicherheitsexperten enorm vom Austausch mit Hackern. Gerade in der aktuellen Phase ist eine Hacker-Kultur auch für simple KI-Systeme essentiell.[i] Je mehr Leute aktiv versuchen, Fehler und Schlupflöcher zu finden, desto schneller kann die Sicherheit von Systemen ansteigen.

Zum Weiterlesen und Weiterhören:

https://www.researchgate.net/publication/329225671_Predicting_future_AI_failures_from_historic_examples

https://www.youtube.com/watch?v=MxZpaJK74Y4&t=630

[i] Mit aktueller Phase ist gemeint, dass die Gefahr einer Singularität voraussichtlicherweise noch recht weit entfernt ist.