Julian Nida-Rümelin im Interview

Daten und Algorithmen versprechen Planbarkeit, sorgen aber auch für mehr Unsicherheit. Wieso, erläutert der Philosoph Julian Nida-Rümelin.





• Anfang der Siebzigerjahre war die Wettervorhersage für den kommenden Tag so genau – beziehungsweise ungenau – wie heute für den sechsten Vorhersagetag. Daten erlauben es, Waren mit einer Präzision um die Welt zu befördern, wie es Logistiker vor Jahren kaum für möglich gehalten hätten. Stromproduzenten können dank lernender Systeme vorhersagen, in welcher Region wann wie viel Strom gebraucht wird. Sie können daher Kraftwerke vorausschauend hoch- oder runterfahren. Navigations-Apps zeigen uns, wie viele Minuten wir sparen, wenn wir den Autobahnstau umfahren. Daten machen alles besser planbar. Gleichzeitig bewirkt die Digitalisierung aber auch das genaue Gegenteil.

brand eins: Herr Nida-Rümelin, die Datenrevolution verspricht Berechenbarkeit. Aber sie beschleunigt auch unser Leben und sorgt für Unsicherheit. So weiß zum Beispiel niemand, wie viele Arbeitsplätze die Automatisierung kosten wird. Produziert die Digitalisierung ein Planbarkeits-Paradoxon?

Julian Nida-Rümelin: Ich sehe darin kein Paradoxon, sondern eine Ambivalenz. Diese haben viele neue Technologien, sie haben gegensätzliche Wirkungen, und die Kunst ihres Einsatzes besteht darin, das für die Menschen Nützliche zu fördern. Bessere Datengrundlagen und bessere Modelle führen etwa zu genaueren Wettervorhersagen. Die Rahmenbedingungen der Berechnung sind dabei weitgehend stabil geblieben. Aber in vielen anderen Bereichen sorgt die Digitalisierung selbst für die Veränderung der Rahmenbedingungen.

Nehmen wir die Börse als Beispiel: Man könnte meinen, dank besserer Daten und intelligenterer Modelle ließen sich auch die Kurse besser vorhersagen. Nun hat die Digitalisierung aber auch den Hochfrequenzhandel (HFT) hervorgebracht, also die Abfolge von unglaublich vielen Kauf- und Verkaufsentscheidungen durch Software-Agenten. Viele dieser Agenten entscheiden in Wechselbeziehung zueinander und haben die Komplexität im System stark erhöht. In ihren automatisierten Wechselbeziehungen treffen sie mitunter hochgradig irrationale Entscheidungen. Aktien fallen ohne erkennbaren Grund. Kurse unter diesen Bedingungen vorherzusagen ist ungleich schwerer, als wenn eine bestimmte Zahl von Händlern bei Kaufentscheidungen meist einer bekannten Logik folgt.

Wo genau hat die Digitalisierung Planbarkeit erhöht? Und wo sorgt sie für mehr Überraschungen?

Die Digitalisierung läuft in zwei Modi ab. Den älteren davon könnte man als top-down bezeichnen, als strukturierten Prozess von oben nach unten. Wir kennen das vom Taschenrechner. In dem arbeiten eine überschaubare Zahl von Algorithmen, die wir Menschen kennen und verstehen, die der Rechner aber schneller anwenden kann als der schlaueste Mensch. Bei diesen Systemen gibt es immer einen klaren Input, eine Frage, und einen klaren Output, ein Ergebnis. Den jüngeren Ansatz bezeichne ich als bottom-up. Wir finden ihn in sogenannten selbstlernenden Systemen. Die funktionieren auch auf der Basis von Algorithmen, da ist kein Hokuspokus am Werk. Aber der Mensch gibt dem System nur noch das erwünschte Ergebnis vor, und das System entwickelt dann Algorithmen, mit denen es die Aufgabe zu lösen versucht.

Ein Beispiel: Sie wollen einen humanoiden Roboter bauen und ihm beibringen, auf zwei Beinen zu laufen. Die Steuerung des Bewegungsablaufs errechnet dann ein System, bei dem die Ingenieure am Ende sagen: Wir wissen selbst nicht so genau, wie die Maschine das macht. Bei einem laufenden Roboter ist das unproblematisch, aber bei diesen Bottom-up-Verfahren kommen mitunter sehr überraschende Ergebnisse heraus. Selbstlernende Systeme können rassistische Einschätzungen abgeben oder ein geschlechterspezifisches Vorurteil eingebaut haben. Der Mensch weiß dann oft nicht, wie es zu diesen Vorurteilen der Maschine kommt, unter Umständen bemerkt er sie auch gar nicht.

Selbstlernende Systeme können zu unschönen Überraschungen führen, weil es oft keinen klaren, vom Menschen nachvollziehbaren Zusammenhang von Input und Output gibt. Der Weg von der Frage zum Ergebnis ist dann ein Geheimnis der Maschine. *

Welche Entscheidungen können Maschinen besser treffen als Menschen, weil sie die Wirkung der Entscheidung besser vorausberechnen können?

Eine Bemerkung vorweg: Maschinen treffen im Wortsinn keine Entscheidungen. Eine Entscheidung zu treffen setzt eine Absicht voraus. Softwaresysteme können keine eigenen Absichten verfolgen, denn sie haben keine eigenen Interessen und kein Bewusstsein. Computer simulieren Entscheidungen und optimieren diese simulierten Entscheidungen gemäß der ihnen einprogrammierten Ziele. Das ist grundsätzlich immer dann hilfreich, wenn sie bei der Entscheidungsfindung mehr Informationen besser oder schneller verarbeiten können als der Mensch.

Ein gutes Beispiel hierfür liefert die Medizin. Ärzte müssen Entscheidungen vor dem Hintergrund eines sich ständig verändernden Forschungsstandes treffen. Jeden Tag erscheinen Dutzende von neuen Studien, die kein Mensch überblicken kann. Diese Komplexität zu durchdringen ist nur mit Software möglich. Die Software-Industrie arbeitet entsprechend seit Langem an sogenannten Experten-Systemen. Diese helfen einem Arzt in dessen Praxis, das in der Forschungsliteratur enthaltene Wissen für seine Entscheidungen zugänglich zu machen. Wenn der Arzt damit eine bessere Entscheidungsgrundlage erhält, ist das natürlich positiv. Die entscheidende Frage aber lautet: Wo bleibt die Verantwortung? Trifft der Arzt weiter eine Entscheidung, für die er im Zweifelsfall auch haften muss? Oder wird der Arzt zum ausführenden Organ der Software? Letzteres kann nicht der Weg sein, und das muss auch Eingang in die Software-Entwicklung finden.

Inwiefern?

Computer-Systeme als Entscheidungsassistenten müssen konstellatorisches Denken fördern, also das Erkennen und Verstehen von Wechselwirkungen. Wir sind in der Regel überfordert, wenn mehrere Bestimmungsgrößen miteinander interagieren, da kann uns Software helfen. Das bedeutet: Sie muss zum Beispiel einem Arzt bei einer komplexen Entscheidung helfen, die möglichen Konsequenzen der jeweiligen Entscheidung zu verstehen. Auch hochintelligente Menschen sind oft überfordert, wenn sie Einfluss und Wechselwirkungen von einzelnen Elementen gegeneinander abwägen sollen. Hier kann Software oft sehr gut unterstützen, unter anderem durch grafische Aufbereitung. Dadurch können Menschen rationalere Entscheidungen in Situationen treffen, in denen sie ohne maschinelle Unterstützung vor der Komplexität kapitulieren. Gleichzeitig sind die ethischen Grenzen beim Delegieren von Entscheidungen an Computer noch enger, als wir oft denken.

Aber wenn softwaregesteuerte Autos weniger Unfälle verursachen als von Menschen gesteuerte, müssen wir dann nicht Robo-Fahrzeugen die Kontrolle überlassen?

Die Dinge liegen nicht so einfach, wie es sich anhört, und autonomes Fahren ist ein gutes Beispiel. Das naheliegende Ziel bei algorithmisierten Entscheidungen in Unfallsituationen könnte lauten: Man minimiere den Schaden an Leben und schwerwiegenden Verletzungen bei einem Unfall. Das könnte man noch verfeinern, indem man sagt: Man sollte die Lebenserwartung der Unfallopfer einbeziehen und den Schaden des Unfalls daraufhin optimieren. Bei dieser Maßgabe würde ein autonomes Fahrzeug, das nicht mehr bremsen kann, eher drei Senioren anfahren als zwei Kinder. Genau diese Abwägung darf ein Computer jedoch nicht treffen. Ein Arzt darf ja auch einen verunglückten Motorradfahrer, der mit dem Tode ringt, nicht sterben lassen, weil er mit dessen Organen vier oder fünf andere Leben retten könnte und damit unter dem Strich summiert eine erhebliche Lebensverlängerung erzielte. Wir können den Nachteil des einen nicht mit dem Vorteil des anderen aufheben. Der amerikanische Philosoph John Rawls hat dies „separateness of persons“ genannt, die „Getrenntheit des menschlichen Individuums“. Das Wohlergehen des Einzelnen kann nicht in einen großen Topf geworfen werden, und dann schaut man, dass insgesamt möglichst viel Wohlergehen im Topf ist. Das legt dem Optimierungsparadigma von lernenden Computersystemen enge ethische und auch juristische Grenzen auf.

Kann es sein, dass wir als Menschen mit von Computern simulierten Entscheidungen ohnehin nicht glücklich werden, selbst wenn sie wahrscheinlich besser sind?

Diese Frage beschäftigt die Philosophie schon viel länger, als es Computer gibt. Im Kern geht es dabei um die Frage der rationalen Selbstoptimierung. Da kommt es oft zu paradoxen Effekten. In Kulturen, die, wie die USA, besonders großen Wert auf Gesundheit und gesunde Ernährung legen, gibt es oft besonders viele Übergewichtige. Während die Menschen in Frankreich, wo die Kultur lustvolles Essen propagiert, im Durchschnitt deutlich schlanker sind. Nun liegt es nahe, zu vermuten, dass es wegen der vielen Übergewichtigen in den USA dort einen Diät-Wahn gibt. Die These muss nicht falsch sein, aber empirische Studien belegen auch das Gegenteil. Menschen werden übergewichtig, weil sie zu stark versuchen, ihr Essverhalten zu kontrollieren. Mit den vielen Daten der Digitalisierung stellt sich die Frage der rationalen Selbstoptimierung viel intensiver. Wir können unser Leben viel besser vermessen und könnten entsprechend rationalere Entscheidungen treffen. Aber das tun wir seltener, als es erwartbar wäre. Denn permanente Selbstkontrolle entfernt mich von den Zielen, die ich damit erreichen möchte.

Welche Entscheidungen würden Sie persönlich gern Algorithmen überlassen? Und welche werden Sie immer selbst treffen wollen?

Die zweite Frage ist einfacher zu beantworten und zwar in drei Worten: alle existenziellen Fragen. Bei denen würde ich mich allenfalls von Algorithmen-gesteuerten Systemen beraten lassen. Unter existenziellen Fragen verstehe ich: alle Entscheidungen, welche die Art und Weise beeinflussen, wie ich lebe und wer ich bin. Welchen Beruf wähle ich? Mit wem möchte ich zusammenleben? Möchte ich Kinder haben? Solche Entscheidungen haben ihre Rolle im Leben dadurch, dass ich sie nicht delegiere. Ich treffe die Entscheidung und kann mich nur deshalb mit ihr identifizieren. Wenn ich irgendwann glaube, dass es die falsche Entscheidung war, muss ich mir hinterher auch selbst Vorwürfe machen. Bei Routine-Entscheidungen im Beruf, zum Beispiel, ob ich eine bestimmte Versicherung abschließen soll oder nicht, wäre ich dankbar, wenn man sie mir abnehmen könnte. ---

Julian Nida-Rümelin, Jahrgang 1954, lehrt Ethik, politische Philosophie und Rationalitätstheorie an der Ludwig-Maximilians-Universität München. Er ist Mitglied der Berlin-Brandenburgischen Akademie der Wissenschaften, der Europäischen Akademie der Wissenschaften und der Akademie für Ethik in der Medizin. Der Philosoph wirkte in diversen Ethikkommissionen mit, unter anderem zur Gentechnik und zum autonomen Fahren. 2001 ernannte ihn der damalige Bundeskanzler Gerhard Schröder zum Staatsminister für Kultur und Medien. Julian Nida-Rümelin gilt als einer der einflussreichsten zeitgenössischen Philosophen Deutschlands.

* Seit den ersten Großrechnern der Vierzigerjahre bedeutete das Programmieren eines Computers: Der Mensch bringt einer Maschine mühsam ein theoretisches Modell bei. Dieses Modell beinhaltet bestimmte Regeln, welche die Maschine anwenden kann. Wenn der Computer die passenden Daten für eine bestimmte Aufgabe bekommt, kann er diese dann in der Regel schneller, genauer und günstiger lösen als der Mensch. Auch das war im Ergebnis immer beeindruckend, aber im Kern wurde bei klassischer Programmierung existierendes Wissen aus den Köpfen der Programmierer in eine Maschine übertragen. Dieser technische Ansatz, den Nida-Rümelin als top-down bezeichnet, hat eine natürliche Grenze. Ein großer Teil unseres Wissens ist implizit.

Wir können zwar Gesichter erkennen, aber wir wissen nicht genau, wie. Die Evolution hat uns diese Fähigkeit geschenkt, aber wir haben keine gute Theorie dafür, warum wir unseren Nachbarn oder George Clooney sofort identifizieren können, auch wenn das Licht schlecht und das Gesicht halb verdeckt ist. Es ist auch nahezu unmöglich, eine exakte Beschreibung zu verfassen, wie wir unserem Kind am besten Skifahren oder Schwimmen beibringen. Dieses Problem hat einen Namen: Polanyi’s Paradox. Das beschrieb bis dato die Grenze, die für Software-Programmierer unüberwindbar schien. Ohne eine Theorie, die in Regeln übersetzt und aufgeschlüsselt ist, können wir Maschinen unser Wissen und unsere Fähigkeiten nicht weitergeben.

Fast alle großen Fortschritte der vergangenen Jahre auf dem Gebiet der künstlichen Intelligenz wurden mit sogenannten künstlichen neuronalen Netzen erzielt, welche die Funktionsweise des menschlichen Gehirns mit den Mitteln der Statistik nachahmten. Die Lernvorgänge in künstlichen neuronalen Netzen sind das Ergebnis von Millionen und Abermillionen Verknüpfungen, von denen jede das Ergebnis ein klein wenig beeinflusst. Die Entscheidungsfindung ist daher so kompliziert, dass die Maschine dem Menschen nicht erklären oder zeigen kann, wie sie zu der Entscheidung „kreditwürdig“ oder „nichtkreditwürdig“, „gesund“ oder „krank“, „bremsen“ oder „beschleunigen“ gekommen ist.