Die intellektuelle Schuldenblase
1897 entdeckte man erstmals die positiven Effekte von Aspirin. Eine Erklärung für die Funktionsweise folgte 98 Jahre später im Jahr 1995.
Diese Spanne zwischen dem, was funktioniert, und unserem Verständnis der Funktionsweise, bezeichnet man als Intellektuelle Schulden.
Intellektuelle Schulden waren bisher vor allem ein Thema der Medizinbranche. Medikamente werden nicht zugelassen, weil man den genauen Wirkmechanismus erklären kann. Medikamente werden zugelassen, weil sie in klinischen Studien positive Effekte zeigen. Korrelation statt Kausalität ist die Devise.
Das muss nicht unbedingt schlecht sein, stellt aber eine Gefahr dar. Eine Gefahr in Bezug auf die langfristige Innovationsgeschwindigkeit sowie in Bezug auf unerwünschte Kettenreaktionen.
„I was saying this is why 50 years later we are still using slash, poison, and burn, and the other 30% patients are still dying the same way, and for the 70% we are using slash, poison, burn, we don't even understand how those things are working.” – Azra Raza im EconTalk Podcast.
Die Onkologin und Autorin Azra Raza kritisiert, dass wir Krebspatienten im Grunde seit Jahren mit denselben drei Methoden behandeln: Aufschlitzen (Chirurgie), Vergiften (Chemotherapie) und Verbrennen (Strahlentherapie).
Ein entscheidender Grund dafür, dass es hier keine wirklich relevanten Innovationen gab, sieht sie in einem Mangel an Grundlagenforschung. Man verwendet diese drei Methoden ohne zu verstehen, wie sie wirklich funktionieren und darum ist es laut Azra Raza bisher nicht gelungen, Methoden zu entwickeln, die nicht den ganzen Körper, sondern nur den Tumor angreifen.
Intellektuelle Schulden sind also traditionell ein Problem der Medizin- und anderer Trial-and-Error-Branchen. Mit der Einführung von Machine Learning in diversen Industrien wird dieses Problem sich in den nächsten Jahren aber rasant verbreiten – deshalb auch der Begriff der intellektuellen Schuldenblase.
Machine Learning Verfahren bauen im Grunde ausschließlich auf Korrelation auf. Sie haben kein Verständnis für irgendwelche Kausalzusammenhänge, sondern erkennen Muster in Daten. Auf Basis dieser Muster treffen sie dann Entscheidungen. Für uns Menschen sind diese Entscheidungen in der Regel nicht nachvollziehbar.
Damit bedeutet jedes neue Machine Learning Verfahren gleichzeitig auch einen Mehr an intellektuellen Schulden.
Das wird vor allem dann kritisch, wenn es zu Veränderungen kommt, also Dinge passieren, die bisher noch nicht passiert sind oder die verschiedenen Machine Learning Algorithmen miteinander interagieren.
Jeder intellektuelle Kredit ist mit dem Risiko verbunden, dass der Wirkmechanismus negative Nebeneffekte beinhaltet. Negative Nebeneffekte, die im Normalfall keine Schwierigkeiten bereiten, aber in Sondersituationen zu drastischen Konsequenzen führen.
Man denke nur an den Flash Crash von 2010 als die Kurse an den Börsen binnen weniger Minuten um mehr als eine Billionen Dollar gefallen sind – nur auf Basis der kettenreaktionsartigen Interaktion algorithmischer Investoren.
Bei dem intensiven Wettbewerb, dem die meisten Industrien ausgesetzt sind, hat oft der kurzfristige Vorsprung die oberste Priorität. Wenn also ein Algorithmus aktuell gute Ergebnisse liefert dann kann man in Bezug auf die langfristige Problematik intellektueller Schulden schon mal ein Auge zudrücken.
Der irakische Forscher Mohammed AlQuraishi beschäftigt sich schon seit Jahren mit dem Thema der Proteinfaltung – also der Art und Weise mit der Proteine ihre spezifische Struktur erhalten. Im Jahr 2018 erschütterte das berüchtigte KI-Startup DeepMind seine Branche. Mit ihrem Machine Learning Verfahren hat das KI-Startup der Google-Gruppe in diesem Jahr mehr Fortschritte gemacht, als alle anderen Forschungsgruppen in diesem Bereich – und das ohne relevanter domänenspezifischer Expertise.
„Is science about understanding natural phenomena or about building mathematical models that’ll predict what will happen?” - Mohammed AlQuraishi in einem Interview mit Vox.
Doch während Mohammed AlQuraishi die Erkenntnisse von DeepMind durchaus lobend anerkennt, warnt er auch davor, dass wir uns zu sehr auf Daten und zu wenig auf wirkliche Erkenntnis fokussieren. Das Prestige für irgendeinen theoretischen Durchbruch, der zu mehr Verständnis führt, hat heute viel geringere Bedeutung, als ein analytischer Durchbruch, den man direkt praktisch anwenden kann.
Gerade in der Wissenschaft aber auch in allen anderen Branchen muss man sich die Frage stellen, ob es sinnvoll ist, Algorithmen in Prozesse einzubauen, deren Funktionsweise völlig unbekannt ist. Auf einer unbekannten Funktionsweise aufzubauen kann mitunter drastische Konsequenzen haben oder in Sackgassen der Innovationsfähigkeit führen, aus denen man schließlich nur mehr schwer ausbrechen kann.
Zum Weiterlesen und Weiterhören:
https://www.newyorker.com/tech/annals-of-technology/the-hidden-costs-of-automated-thinking
https://www.econtalk.org/azra-raza-on-the-first-cell/
https://moalquraishi.wordpress.com/2018/12/09/alphafold-casp13-what-just-happened/#comment-26005
https://www.vox.com/future-perfect/2019/2/15/18226493/deepmind-alphafold-artificial-intelligence-protein-folding