Partner von
Partner von

Entscheidungs-Maschinen

Dank großer Datenmengen und Mustererkennung sollen Computer in komplexen Situationen bessere Entscheidungen treffen als Menschen. Stimmt das wirklich?




• Kürzlich machte Sir David Spiegelhalter, einer der bekanntesten Statistiker der Welt, Urlaub in Portugal. In seinem Mietwagen nutzte der Professor für Risikoforschung in Cambridge den Routenplaner Google Maps. Das System leitete ihn durch eine Gasse direkt auf eine Treppe zu und riet: „Fahren Sie weiter geradeaus.“ Spiegelhalter war froh, dass in Situationen wie diesen noch menschliche Intelligenz die Entscheidung trifft. „Sogenannte Künstliche Intelligenz funktioniert ja nicht mal ausreichend zuverlässig in Kontexten, in denen sie theoretisch funktionieren müsste, nämlich in komplizierten Situationen. Wie soll das dann in komplexen Entscheidungssituationen klappen?“, fragt der Wissenschaftler. Die Unterscheidung zwischen kompliziert und komplex sei entscheidend für die Frage: Wo helfen uns Daten, die Welt besser zu verstehen und bessere Entscheidungen zu treffen? Und in welchen Situationen helfen sie uns nicht?

„Komplizierte Situationen sind jene, die wir mit Regeln beschreiben können“, sagt Spiegelhalter. „Hier können Algorithmen mit ihren logischen Lösungswegen uns helfen. Aber die Welt ist komplex. Sie lässt sich meist nicht ausreichend genau mit Regeln beschreiben. In komplexen Systemen sind wir Menschen den angeblich so intelligenten Maschinen weit überlegen. Weil wir kausale Abhängigkeiten und Wechselwirkungen verstehen, wo Algorithmen nur Korrelationen erkennen.“

Korrelationen sind Muster, aus denen sich statistische Vorhersagen ableiten lassen nach dem Motto: Wenn die Wettervorhersage für das Wochenende gut ist, steigt ab Donnerstag der Verkauf von Bier, Würstchen und Grillkohle. Die Maschine sieht das Muster, der Mensch versteht den Grund.

Zu den oft wiederholten Parolen der Big-Data-Propagandisten gehört, dass Korrelationen in vielen Situationen bessere Entscheidungshinweise geben als ein profundes Verständnis der Zusammenhänge. Chris Anderson, langjähriger Chefredakteur von »Wired«, machte diesen Gedanken 2008 in seinem Aufsatz „End of Theory“ (Das Ende der Theorie) populär. Die statistische Analyse von großen Datenmengen, so Anderson damals, werde künftig weit mehr neue Erkenntnis bringen als theorielastige Wissenschaft und ihre Suche nach Kausalitäten. Anhänger dieser These wurden seitdem nicht müde, sie mit immer neuen Fallbeispielen empirisch zu belegen. So sagt zum Beispiel die Analyse von Massendaten voraus, wann eine Aktie fällt – die Ursachen können dem Anleger egal sein, im Zweifelsfall lenkt die Suche danach nur ab. Auch für den Werbetreibenden ist es nicht wichtig zu wissen, warum ein Facebook-Nutzer auf eine Werbung klickt. Hauptsache, er klickt. Und auch den Patienten interessiert weniger, wie ein neuronales Netz mit aus vielen Trainingsdaten erlernter Mustererkennung zu seiner Diagnose kommt. Hauptsache, sie ist zuverlässig.

Statistik war die wichtigste Waffe der Korrelations-Optimierer und deren „evidenzbasierten Entscheidungen“. David Spiegelhalter zählt zehn Jahre nach Andersons Loblied auf die Wahrscheinlichkeitsrechnung mit Big Data lieber die Gegenbeispiele auf. Er verweist auf Studien, wie oft sich das Krebsprognose-Tool auf der Watson-Plattform von IBM in der medizinischen Praxis täuscht. Oder auf die Tatsache, dass es trotz all der erfassten Daten nicht möglich ist, den Ausgang eines Pferderennens oder Fußballspiels vorherzusagen. „Daten sagen uns nichts über die Regeln, auf denen die komplexe Welt fußt. Die Abermilliarden Dollar, die wir in den vergangenen Jahren in bessere Vorhersagen mit Daten gesteckt haben, verblassen im Angesicht der unfassbaren Komplexität des Lebens. Jeder als Durchbruch gefeierte Fortschritt verschiebt die Grenze ein ganz kleines bisschen in Richtung Vorhersagbarkeit. Aber die Geheimnisse des Lebens sind und bleiben unergründlich.“

Die Last der Entscheidung

Der Franzose Francis de Véricourt, Professor für Entscheidungsfindung an der European School of Management and Technology in Berlin, geht nicht ganz so weit. Er unterteilt die Daten-Welt und ihre Wirkung auf Menschen in zwei Arten von Situationen: in jene, in denen digitale Systeme die Wirklichkeit ausreichend genau abbilden können und Algorithmen dank guter Datengrundlage bessere Vorhersagen treffen können als Menschen. Und jene Situationen, „in denen Computer aufgrund von Datenarmut weitgehend aufgeschmissen sind“. Im Unterschied zu Spiegelhalter ist für de Véricourt die Routenplanung mit Echtzeitdaten ein „besonders geeignetes Beispiel“ für die Überlegenheit von Computern: „Google Maps kennt den schnelleren Weg statistisch deutlich öfter als wir Menschen. Das System bezieht zudem die wahrscheinlichen Folgen seiner Empfehlungen zunehmend in die eigenen Prognosen ein.“ Wir wären also gut beraten, wenn wir die Entscheidungen über die Routen grundsätzlich an ein datenreiches System wie Maps delegieren.

Je häufiger uns diese Systeme zu Entscheidungen führen, die wir später als gut bewerten, desto öfter werden wir sie einsetzen. Genau genommen gibt es aber keine guten Entscheidungen. Wir wissen zum Zeitpunkt der Entscheidung nie genau, wie sie sich auf unser Leben auswirken wird. Selbst im Nachhinein ist es nicht möglich, eine Entscheidung relativ zu anderen Optionen zu bewerten. Für de Véricourt gibt es aber sehr wohl gute Entscheidungsprozesse. Etwa wenn alle verfügbaren Informationen so gut wie möglich in einem Abwägungsmodell gewichtet werden. Im Widerspruch zu David Spiegelhalter hält es der Berliner Forscher für „extrem wahrscheinlich“, dass medizinische Entscheidungen bald „in erheblichem Umfang“ an Computer übertragen werden, allerdings mit einer wichtigen Einschränkung: „Die Datengrundlage muss stimmen. Und es gibt viele Situationen, in denen Computer möglicherweise nie genug relevante Daten zur Verfügung haben, um sinnvolle medizinische Prognosen zu errechnen.“

Auch de Véricourt nutzt die viel diskutierten Werkzeuge der Künstlichen Intelligenz (KI) für Hautkrebs-Diagnosen, um zu erklären, wo die Grenze zwischen ungenügender und ausreichender Datengrundlage verlaufen könnte. Wenn ein aus Daten lernendes System ausreichend viele Bilder von Leberflecken ausgewertet hat, ist sein Urteilsvermögen über bösartige Hautveränderungen irgendwann besser als das des besten Hautarztes der Welt. Selbst wenn die Systeme heute noch nicht ganz zuverlässig sind: Der Datenbestand wächst rasant. Die Systeme werden besser, Menschen werden ihnen hier langfristig unterliegen.

Bei den Entscheidungen über die Therapie von vielen Krebsarten aber sieht die Datenlage ganz anders aus. Aller Voraussicht nach werden nie genügend Daten für statistische Rückschlüsse vorhanden sein. Im Grunde brauchte man für jede dieser Erkrankungen einen genetischen Doppelgänger, der im selben Alter den gleichen Krebs bekommt. Erschwerend kommt hinzu, dass wir unter Umständen viel zu wenig von Krebs verstehen, um zu wissen, welche Daten wir überhaupt sammeln müssten, damit Computer daraus die richtigen Therapievorschläge ableiten könnten.

Darin ist sich Francis de Véricourt dann doch mit Spiegelhalter einig: „Es gibt viel mehr Entscheidungssituationen, die von Datenarmut gekennzeichnet sind, als uns die Big-Data-Gemeinde glauben macht. Wir werden also weiter auf die Fähigkeit von Menschen angewiesen sein, die Zusammenhänge verstehen und daraus die richtigen Schlussfolgerungen ziehen.“

Kausalitätsmaschinen

Mit dieser Aussage ist Chris Boos nur halb einverstanden. Der Gründer von Arago, der im Digitalrat der Bundesregierung als Experte für KI sitzt, traut Maschinen eine deutlich steilere und weiter reichende Lernkurve zu als Spiegelhalter und de Véricourt. Mit seiner Firma verfolgt er ein ambitioniertes Ziel: „Wir automatisieren alles. Einfach alles.“ Dabei setzt er im Unterschied zu konkurrierenden Systemen nicht vorrangig auf maschinelles Lernen mit sogenannten tiefen, neuronalen Netzen, in denen sich selbst verbessernde Algorithmen lernen, Korrelationen immer besser zu erkennen. Boos und seine Kollegen versuchen, Maschinen die Kausalzusammenhänge beizubringen. Dafür braucht es nicht viele Daten, sondern die richtigen. Der Ansatz nennt sich Machine Reasoning, also maschinelles Schlussfolgern.

Boos erklärt die Vorgehensweise so: „Das menschliche Gehirn ist eine Kausalitätsmaschine. Wir haben Computer bisher nur als Korrelationsmaschinen entwickelt. Aber mit immer mehr Rechenkraft kommen wir nicht weiter.“ Der nächste Schritt der Automatisierung werde nur erfolgen, wenn man menschliches Erfahrungswissen auf Maschinen übertrage. Der Wissenstransfer erfolge ähnlich wie von Eltern zu Kindern oder von Lehrern zu Schülern. Ein KI-Autopilot eines Flugzeugs müsse künftig den menschlichen Piloten immer wieder die gleiche Frage stellen: „Warum hast du das gemacht?“ Wenn ein Computer die Gründe kenne, warum es in einer bestimmten Situation sinnvoll ist, eine Landung abzubrechen, obwohl für den Autopiloten alle Zeichen auf Landung stehen, werde er mit der Zeit die Qualität seiner Entscheidungen deutlich verbessern können. Denn mit der Kausalität, so Boos’ These, erlernen Computer eine Fähigkeit, die sie bis dato viel schlechter beherrschen als Menschen: Analogien ziehen. Damit könnten sie auch in datenarmen Zusammenhängen entscheidungsfähig werden.

Machine Reasoning knüpft an die Vorstellungen der Pionierzeit der KI an. In den Fünfzigerjahren waren die Gründerväter der Disziplin wie John McCarthy oder Marvin Minsky davon überzeugt, menschliches Lernen alsbald so gut simulieren zu können, dass Computer Menschen in allen kognitiven Fähigkeiten überlegen wären. Sie und ihre Nachfolger scheiterten bekanntlich immer wieder grandios.

Chris Boos ist überzeugt, dass Fortschritte in der Mathematik nun den Durchbruch für Machine Reasoning bringen werden. Er verweist auf die Arbeiten des US-Computerwissenschaftlers und Turing-Award-Gewinners Judea Pearl und dessen Buch „The Book of Why“. Judeas zentrale These lautet: Computer können auch mit wenigen Daten die schwierigsten Probleme lösen, wenn sie die Wirkzusammenhänge kennen. Denn im Unterschied zu Menschen können sie die Wechselwirkungen von vielen gleichzeitig wirkenden Kausalitäten viel besser verarbeiten. Einfache Kausalitäten erkennen und verstehen wir Menschen zuverlässig und schnell. Müssen wir aber Wechselwirkungen in mehreren Dimensionen verknüpfen, sind wir sehr schnell überfordert.

Boos hofft: Die Verbindung von Big-Data-Korrelationen mit einem umfassenden Verständnis von menschlichen Modellen könnte Computer weise machen. Sie verfügten dann sowohl über immense Rechenkraft als auch über gesunden Menschenverstand. Von dort aus wäre der Weg zu einer sogenannten starken KI nicht mehr weit. Starke KI wäre der menschlichen Fähigkeit, Probleme zu lösen, in nahezu allen Belangen überlegen und könnte, so glauben zumindest einige radikale KI-Forscher wie Ray Kurzweil, Max Tegmark oder Jürgen Schmidhuber, die Fähigkeit erlangen, sich entkoppelt vom Menschen selbst weiterzuentwickeln und zu einem Wesen mit maschineller Superintelligenz führen.

Schwachkopf ungleich Schwachsinn

David Spiegelhalter, der skeptische Statistiker, kommentiert dies mit zwei Worten in seiner Muttersprache: „Complete bollocks!“ Er macht sich den Spaß, den Begriff umgehend in die Übersetzungsfunktion Englisch–Deutsch von Google einzutippen, und erhält: „komplette Schwachköpfe!“ Spiegelhalter muss laut lachen, denn er versteht genug Deutsch, um zu wissen, dass „totaler Schwachsinn“ die richtige, in der Tendenz eher zu höfliche Übersetzung wäre.

Und tatsächlich glaubt auch Chris Boos nicht, dass Machine Reasoning zu einer vom Menschen entkoppelten KI führt. Er ist aber sehr wohl der Überzeugung, dass Automatisierung durch Computer, die Kausalitäten mathematisch erfassen können, sehr viel weiter gehen wird, als KI-Skeptiker heute denken.

Der Entscheidungsforscher Francis de Véricourt mag keine Prognosen abgeben, inwieweit Computer die Komplexität der realen Welt besser beherrschbar machen. Aber er erinnert daran, dass Computer immer nur eines können werden: die bekannte Wirklichkeit simulieren. Menschen verfügten über die Fähigkeit, abstrakte Modelle ohne Datengrundlage zu erdenken. In einem zweiten Schritt könnten sie Experimente durchführen und das Modell beweisen oder widerlegen.

Eines der eindrücklichsten Beispiele der jüngeren Technikgeschichte dazu ist für de Véricourt das Higgs-Boson-Teilchen. Der britische Physiker Peter Higgs entwickelte in den Sechzigerjahren die Theorie, dass bestimmte masselose Elementarteilchen in Wechselwirkung mit einem bestimmten Hintergrundfeld massiv werden. Mehr als ein halbes Jahrhundert später erbrachten Wissenschaftler am Kernforschungszentrum Cern den empirischen Nachweis mithilfe der datenreichsten Maschine, die Menschen je gebaut haben, dem Teilchenbeschleuniger Large Hadron Collider. „Es ist beim besten Willen nicht absehbar, wie eine Maschine auf die Idee kommen sollte, nach einem Higgs-Boson-Teilchen zu suchen“, sagt de Véricourt. Der Nachweis des Teilchens war eine komplizierte Angelegenheit.

Dass sich Menschen überhaupt auf die Suche nach ihm gemacht haben, war das Ergebnis eines menschlichen Wunsches: die Komplexität der Welt zu verstehen. ---