Partner von
Partner von

Der Computer ist nicht originell

Was wichtig ist? Da fragen wir doch einfach unseren Rechner. Der Mathematiker Gunter Dueck bezweifelt allerdings, dass uns das weiterbringt.




brand eins: Herr Dueck, Daten sind heute das, was das Öl für die Industriegesellschaft war - ein Rohstoff, ohne den nichts geht. Sie verschaffen uns einen neuen Blick auf die Welt und sagen uns, was relevant ist und was nicht. Das ist zumindest das Versprechen der Informationstechnologie. Sie sind da skeptisch, warum?

Gunter Dueck: Ich leide zurzeit ein wenig an der allgemeinen Fantasielosigkeit, wie wir mit digitalen Daten und dem Internet umgehen, vermutlich auch an meiner eigenen. Wir nutzen das Netz im Wesentlichen nur dazu, das vorhandene faktische Wissen der Welt zu speichern. Wir können so auf immer mehr Fakten zugreifen, aber es ist uns noch nicht gelungen, einen echten Kultursprung zu schaffen. Das Internet und die angekoppelten IT-Systeme sind eher so etwas wie eine Effizienzmaschine, mit der wir viel Geld sparen. Bestellungen werden schneller, Prozesse optimiert, und wir müssen niemanden mehr fragen, wenn wir etwas wissen wollen. Das ist natürlich alles wunderbar, aber da muss noch mehr gehen. Die Bibliothek von Alexandria hat einst die Kultur auf eine neue Stufe gehoben, und ich fühle, eine solche grundlegende neue Veränderung haben wir noch vor uns. Uns fehlt noch die neue Kunstform nach dem "Dokument".

Wie könnte diese Kunstform aussehen?

Die Frage lautet: Wie können wir neben Wissen auch Können wirklich im Internet speichern? Da will zurzeit keiner richtig ran. Nehmen wir das Beispiel der Hochschulbildung. Die Universitäten stellen gerade reihenweise Vorlesungen ins Internet. Das ist technisch kein Problem und vermutlich besser als nichts. Aber ein Video einer Vorlesung nutzt die Möglichkeiten des digitalen Mediums nicht voll aus. Eine Vorlesung beginnt in der Regel mit einer Formel oder einer Definition. Das "Bruttosozialprodukt" oder "das Integral" wird definiert - und sofort geht der Professor mit Folgerungen weiter, bevor der Begriff verstanden ist. Viele steigen dann gleich überfordert aus. Das ist ein altbekannter Jammer der Lehre. Die neue Wissensvermittlung könnte so aussehen: Studenten schauen sich die Begriffserklärungen als Video, vielleicht in mehreren Fassungen und von verschiedenen Professoren, so lange an, bis sie diese gut erfasst haben. Anschließend gibt es Beispielvideos bis zum Abwinken. Und erst dann diskutiert ihr Professor mit ihnen die Eigenschaften, das Wesen, die Verflechtung mit anderem und den Nutzen - damit verwenden wir die kostbare physische Präsenz für das Wesentliche. Konkret könnte das heißen: Ein Medizinvideo erklärt zehn Minuten, was Masern sind, woher die kommen und wie die Infektionswege sind. Anschließend schauen sich Medizinstudenten hundert Sekundenvideos von Masernpatienten an. Jetzt "kennen sie Masern". Und erst dann erklärt der Professor das Tiefere. So wäre es doch besser, und vielleicht geht es noch viel besser? Wir müssen noch probieren.

Das scheint eigentlich gut machbar und wäre eher die Frage einer an das Internet angepassten Didaktik. Aber geht die IT-Entwicklung nicht viel weiter? Das Netz hat uns einen alten Science-Fiction-Traum erfüllt, nämlich den Zugang zum Wissen der Welt vom Schreibtisch aus. Nun soll intelligente Datenanalyse dem Menschen auch noch sagen, was in Zukunft relevant ist.

Bei der Prognosefähigkeit des Computers bin ich sehr skeptisch. Mein Rechner sagt mir gerade, dass in 30 Minuten die Batterie leer sein wird. Aber an der Vorhersage der Aktienkurse wird er vermutlich auch noch in hundert Jahren scheitern. Denn dann begeben wir uns in eine spieltheoretische Situation, und in dieser reagieren Menschen immer auf das Verhalten anderer. Zumindest wenn mehrere Akteure über die gleichen analytischen Systeme verfügen oder auch nur von ihrer Existenz wissen, brechen die Prognosen in sich zusammen.

Immerhin schlagen Maschinen heute Menschen nicht nur im Strategiespiel Schach, sondern auch im Wissens-Quiz Jeopardy mit seinen vertrackt mit Ironie und Wortwitz formulierten Fragen. Das hätten Sie als Skeptiker der Forschung nach Künstlicher Intelligenz (KI) vermutlich vor zehn Jahren auch noch für unmöglich gehalten.

Wenn der IBM-Computer Watson bei Jeopardy gewinnt, ist das zwar eine tolle Leistung, aber sie ist ungleich weniger komplex, als Aktienkurse oder politische Entwicklungen vorherzusagen davon träumt ja die Forschung der KI. Watson versteht Sprache und aggregiert Informationen. Er kann auch berechnen, wie sicher er bei einer Antwort ist und seine Spielstrategie entsprechend optimieren. Bei Jeopardy muss er aber nicht auf seine Mitspieler reagieren. Oder anders formuliert: Wenn komplexe Informationen im Spiel und die Prioritäten klar sind, ist Watson dem Menschen überlegen. Aber wenn sich die Prioritäten ändern oder neue Phänomene auftauchen, wie es im Wirtschaftsleben, in der Politik oder auch sonst im menschlichen Leben fast immer der Fall ist, ist der Rechner nach wie vor aufgeschmissen. Können Sie ein bisschen Mathematik?

Wenn Sie so fragen, sage ich wohl besser Nein.

Wie erkläre ich das am besten: Es gibt da das Phänomen der abgeschlossenen Menge. Wenn wir ganze Zahlen addieren, kommen dabei auch immer nur ganze Zahlen raus. Dann kommt nie 5,5 raus. Rechner agieren bildlich gesprochen immer mit abgeschlossenen Mengen, das heißt, sie bleib en immer in einem bestimmten Realitätsraum, nämlich dem Raum des Programmierbaren. Und dieser Raum ist nicht alles. Ein Rechner kann nicht die "Zauberflöte" komponieren. Er kann später ein paar ähnliche Opern komponieren, wenn er die Zauberflöte kennt. Aber er ist nicht originell.

Das müssen Sie näher erklären

.Es gibt Computerprogramme, die komponieren wie Wolfgang Amadeus Mozart. Denen wurden einfach das Gesamtwerk von Mozart eingefüttert und die Kompositionsregeln beigebracht, nach denen das Genie seine Musik komponierte. Der Rechner spuckt dann Musik aus, die sich zumindest für Laien nach Mozart anhört. Die eigentliche Leistung von Mozart war aber, die Regeln der Komposition zu brechen. Erst dadurch wurde der schöpferische Akt der Zauberflöte möglich. Ein Rechner kann Regeln nicht brechen, weil seine Funktionslogik auf beschriebenen Regeln basiert. Das heißt im Umkehrschluss, mit Computern kann man nur das machen, was mit Regeln beschreibbar ist. Das ist in meiner Wahrnehmung eher wenig. Das Schlimme daran ist, dass wir beginnen, uns durch unsere Computerhörigkeit selbst zu programmieren. Besonders auffällig ist das im Management. Manager versuchen gar nicht mehr, ihre Zauberflöte zu finden, sondern üben sich bestenfalls in gefälligen Variationen erlernter Beratergrundsätze. Computer können nur Programmiertes, Manager tun oft nur, was auf Powerpoint stehen kann.

Damit meinen Sie Kopistentum und die Standardisierung von Geschäftsprozessen?

Auch - aber nicht nur. Wenn Unternehmen feststellen: Wir müssen wachsen und brauchen etwas Neues, dann laufen bestimmte Kreativ-Rituale ab. Brainstorming nach einer bestimmten Methode, SWOT-Analysen, Mindmapping mit bunten Karten und all dieses Zeug. Dabei mag alles Mögliche herauskommen, aber bestimmt keine wirklich gute Idee. Denn diese Methoden zwingen das Denken, im Regelsystem zu bleiben, auch wenn sie selbst das Gegenteil behaupten. Sie sind dazu angelegt, Kreativität zu kanalisieren, was dem Wesen des Schöpferischen, der Suche nach dem Neuen, diametral entgegensteht. Mit den sogenannten Kreativtechniken werden in der Regel neue Einsparungen kreiert oder "neue Märkte" erträumt oder neue Verpackungen ersonnen - wenn das nicht klappt, gibt es ein neues Logo. Sie merken, ich habe viele Kreativ-Rituale erlitten.

Sie setzen also anders als der Yale-Ökonom Ian Ayres in seinem Buch "Super Crunchers" weiterhin auf Intuition?

Ayres schreibt, dass statistische Entscheidungsverfahren, auf Massen von Daten angewendet, sehr oft bessere Resultate liefern als erfahrene Experten. Zum Beispiel sagen Computer besser, wie man optimal die Abfahrt runtersaust oder den Wert eines alten Weines vorhersagt. Das ist so. Wenn man sehr viele vorangegangene Beispiele hat, kann man sozusagen die besten Entscheidungsregeln finden, also eine bessere Intuition entwickeln. Aber: Daraus gewinne ich nichts für das Kreative, das Geniale, das Synthetisierende des innovativen Denkens - da, wo es nicht viele oder gar keine Lernvorlagen gibt. Kann der Computer etwas ganz Neues erschaffen, ganz intuitiv als erste Idee? Noch lange nicht! Außerdem bezweifle ich, dass man Computer etwas fragen kann, wofür sie nicht programmiert sind.

Die Fähigkeit, etwas Neues zu schaffen, ist also noch schwerer zu erreichen als Künstliche Intelligenz?

Der Computer übertrifft die Fähigkeiten der linken Gehirnhälfte, also die des Verstandes, der hauptsächlich mit Listen, Tabellen, Formeln und Logik umgeht. Und nun versucht er, die rechte Gehirnhälfte, also die der Intuition, mit den Mitteln des Verstandes zu simulieren. Das gelingt nur in sehr engen Grenzen. Was aus meiner Sicht noch weniger funktioniert, ist der Versuch, den menschlichen Instinkt zu imitieren. Haben Sie schon mal ein Roboter-Fußballspiel gesehen?

Ja. Drei Minuten lustig und dann langweilig.

Genau. Die Roboter sind eben programmiert. Sie schreien nach eingefangenen Toren nicht auf. Sie brüllen nicht, sie würden sich jetzt zusammenreißen und alles mit der Brechstange versuchen. Da ist noch etwas im Menschen, dieser Instinkt, da ist etwas im Körper, das will. Diese Instinktentscheidungen sind auch beim Menschen nicht richtig erforscht, insofern sind zurzeit auch schwer Aussagen darüber möglich, wie ein Computer unter Umständen Instinktentscheidungen treffen könnte.

Wie könnte er sich künstlichem Instinkt nähern?

Das weiß ich leider auch nicht so genau. Mich interessiert die Systematik hinter Instinktentscheidungen sehr, aber ich bräuchte wohl ein zweites Leben, um ihr auf die Schliche zu kommen. Ich habe einmal ein mathematisches Modell vorgeschlagen - im Buch "Omnisophie". Ich glaube, dass wir einige Hundert bis wenige Tausend Sensoren in uns haben. Einer fragt immer, ob wir frieren, einer, ob wir bedroht werden, einer, ob Mama noch da ist, einer, ob ein Mann schön ist. Ich glaube, man kann den Instinkt des Menschen aus solchen Sensoren zusammengesetzt denken. Von den Hunderten schlagen dann ab und zu Sensoren aus: "Auto kommt!" oder "Telefon klingelt". Dann reagiert der geübte Körper entsprechend und erledigt das meiste automatisch. In diese Richtung müsste man vermutlich denken. Aber da sind wir noch lange nicht.

Es gibt Felder, auf denen computergestützte Analytik die Intuition des Menschen um Längen schlägt, die Werbung zum Beispiel. Online-Werber können nachweisen, dass sie durch die Analyse von Kundendaten deutlich mehr verkaufen als Werbung, wie wir sie seit den fünfziger Jahren kennen.

Da muss ich aber entgegnen, dass Sie zuerst Intuition ansprechen und dann doch wieder die "Analyse der Kundendaten". Analyse ist Verfahren, Methode und daher Verstand oder Programm. Der Computer kennt die Kundendaten und berechnet die erfolgversprechende Werbung: Wer mich kennt, wird das als Mensch auch sofort können. Bei der Werbung hat der Computer Unmengen von Daten und schließt ganz normal auf das, worauf wir reagieren. Das ist programmiert und nicht intuitiv.

Ein Computer kann Daten nur schneller auswerten als der Mensch, nicht besser. Würde sich ein Mensch die Daten einzelner Kunden anschauen, wäre er sicher besser als ein Computer. Bei Google zum Beispiel bekomme ich sehr oft Werbung zu sehen für etwas, das ich schon gekauft habe. Das weiß Google ja nicht, weil ich es im Internet angeschaut und dann im Laden gekauft habe. Oder meine Frau zeigt mir etwas im Internet, das ich für den Geburtstag ihrer Kollegin mitbringen soll, dann denkt Google, ich habe ein neues Hobby. Mag sein, dass ein Laie über die Vorschläge erstaunt ist. Ich selbst sehe überall noch Denkfehler.

Sie lassen kaum ein gutes Haar an Ihrer Profession, der Informatik. Was kann denn der Computer überhaupt?

Die Informatik ist dabei, all diese Träume umzusetzen, aber in der Praxis werden relativ robuste normale Grundgedanken eingesetzt - die wirkliche Kunst braucht man meist gar nicht. Ich maule gar nicht über die Profession. In der Praxis sind ganz stupide Ideen oft richtig gut, weil zum Beispiel bei der Werbung die Menschen auch oft ziemlich einfach gestrickt reagieren.

Und so wird es bleiben, der Computer fürs Grobe, der Mensch für Kunst und Intuition?

Zumindest, solange die Industrie nicht versucht, den Computer in die Höhen der Kunst zu bringen - sondern eher umgekehrt: alles auf das Niveau des Computers. Ich habe das neulich in einer Rede am Beispiel einer Tomatensuppe erläutert. Das Zelebrieren einer Fünf-Sterne-Tomatensuppe aus auserlesenen Früchten ist eine Kunst, die nur wenige beherrschen. Man kann aber auch für 44 Cent im Sonderangebot eine Tütensuppe kaufen, die passabel rot schmeckt und idiotensicher gelingt, weil auf der Tütenrückseite eine Kochanleitung steht.

Ich sehe es so: Computer schaffen heute alles schon auf Tütensuppenniveau. Und statt den Rechner weiterzuentwickeln, versuchen das Management und die Betriebswirtschaftslehre ganz im Gegenteil, alle Kunst so weit auf Tütensuppenniveau zu bringen, dass sie der Computer selbst kann oder wenigstens ein schnell angelernter Mensch mit Mindestlohn. Diese sogenannte Standardisierung oder Industrialisierung ist der Hauptgrund für das heutige Abdriften der Menschen in den Niedriglohnsektor. Es ist der Verzicht auf das Geniale, Innovative und Neue, das Fünf-Sterne-Niveau oder das wirklich Feine zugunsten eines standardisiert Programmierten. -

Professor Gunter Dueck , 61, war bis zum vergangenen Jahr Chief Technology Officer bei IBM Deutschland. Seit 1987 hat der Mathematiker für den IT-Konzern federführend diverse Anwendungen in den Bereichen industrielle Optimierung und Datenbanksysteme entwickelt - darunter auch einige Lösungen für Data-Mining, also die intelligente Auswertung von großen Datenmengen. Data-Mining gilt als Zwischenschritt bei dem Versuch, Computer zu Maschinen mit Künstlicher Intelligenz zu machen. In den vergangenen Jahren war Dueck mit Grundlagenforschung zur Einführung von Cloud Computing beschäftigt. Für seine Theorie zur Nachrichten-Identifikation erhielt er zusammen mit Rudolf Ahlswede 1990 den Prize Paper Award der IEEE Information Theory Society, eine unter Informationstheoretikern hochbegehrte Trophäe.