Ausgabe 07/2015 - Schwerpunkt Maschinen

Roberto Casati im Interview

„Ihre Dummheit ist ihre Stärke“

brand eins: Herr Casati, Maschinen werden schlauer als Menschen, heißt es. Ist das so?

Roberto Casati: Der britische Mathematiker Alan Turing, der als Vater der Künstlichen Intelligenz gilt, hat in den Fünfzigerjahren mit seinem Turing-Test versucht, Intelligenz operationell zu definieren. Aber was dabei herauskommt, ist mehr oder weniger ein Verhaltenstest, der beschreibt, was wir intelligent finden, nicht, was Intelligentsein ist (siehe auch Seite 80). Und deshalb lassen wir uns von der Maschine betrügen, weil diese, ohne ein intelligentes Wesen zu sein, das Verhalten einer intelligenten Person simulieren kann – und wir meist den Unterschied nicht erkennen können.

Mit der Annahme, es gäbe Künstliche Intelligenz, betrügen wir uns also selbst?

Ja. Sie ist als ein Simulationsprogramm der menschlichen Intelligenz entstanden. Es war ein Versuch, durch Maschinen Aufgaben zu lösen, die, wie man damals meinte, nur menschliche Intelligenz lösen könne. Das ist eine minimalistische Definition. Ein Grund dafür ist die Verwechslung von biologischem und elektronischem System. Die funktionieren eben nicht gleich, auch wenn das sehr oft suggeriert wird.

Zum Beispiel durch den Begriff „Elektronengehirn“, wie man Computer früher nannte?

Die Neurowissenschaften waren am Anfang eng mit der Erforschung der Künstlichen Intelligenz verwoben, der Artificial Intelligence (AI). Aber sie haben sich schneller weiterentwickelt. Auch sie haben keine vollständige Vorstellung von menschlicher Intelligenz. Wir wissen aber, dass jede Form von Intelligenz die Kompetenzen beinhalten muss, die für Menschen typisch sind: etwa die Fähigkeit, vernünftig zu denken, sich Aufgaben intellektueller Natur zu stellen, aber auch Fähigkeiten wie Spüren. Die AI-Forschung hat versucht, die komplexen Prozesse nachzuvollziehen, die ablaufen, wenn Menschen etwa im dichten Verkehr Auto fahren oder Entscheidungen unter Unsicherheit treffen. Das hat nicht funktioniert.

Warum nicht?

Vor allem, weil die Forscher ihre Selbstbeobachtung formalisiert haben. Doch was wir zu machen glauben, ist nicht, was wir tatsächlich tun. Das lehren uns die Kognitionswissenschaften und die Neuropsychologie. Ein weiterer Punkt ist, dass wir den Begriff der Intelligenz missbräuchlich verwenden, wenn es um Künstliche Intelligenz geht. Die Systeme, die wir meinen, sind ja sehr dumm. Ihre Dummheit ist ihre Stärke. Statt Maschinen intelligenter zu machen, sollte man diese Stärke weiterentwickeln. Solche Maschinen können vieles sehr schnell erledigen, viel schneller als wir. Sie sind großartig, um Routinen abzuarbeiten. Aber sie verstehen nicht, was sie tun, sie haben kein Bewusstsein für das, was sie durchführen.

Werden sie nicht doch allmählich schlauer, weil sie etwas können, das vor einigen Jahren nicht möglich war?

Da muss man genau hinsehen. Sie können Dinge, von denen wir früher glaubten, man benötige intellektuelle Fähigkeiten, um sie zu bewerkstelligen. Bei genauer Betrachtung stellen sie sich aber doch nur als Routinen heraus. Ist es ein Zeichen von Intelligenz, wenn ein System in allen E-Mails, die in Europa geschrieben wurden, das Wort „Peter“ herausfiltern kann? Das können Maschinen sehr gut und schnell, wenn wir es ihnen erlauben. Aber das ist nicht intelligent. Gleichzeitig gehört das Auffinden von Schlagwörtern aber auch zur geistigen Arbeit, denken sie an Archivare, Philologen, Bibliothekare. Es gibt in allen Berufen Aufgaben, die keine besondere Intelligenz voraussetzen, sondern aus Routinearbeit bestehen.

Wir müssen also unsere Vorstellungen von Intelligenz überdenken?

Das wäre ein guter Anfang. Autofahren galt immer als besonders komplexe Aufgabe, und das ist es ja auch. Inzwischen kommt auch das Google Car gut durch den Straßenverkehr. Doch es ist nicht intelligent, es hat eine komplexe Software, die eine Vielzahl von Situationen erkennen kann und den Wagen eine bestimmte Reaktion auf einen bestimmten Reiz ausführen lässt. Diese Inputs bestehen aus telemetrischen Daten, es regnet, etwas liegt auf der Fahrbahn herum, da bewegt sich was und so weiter. Das alles wird vom System registriert und verarbeitet. Dieses adaptive Verhalten ist keine Intelligenz. Das gilt auch für Programme, mit denen man Barockmusik in der Art von Bach komponieren kann. Das ist findige Imitation, nicht Intelligenz.

Was wiederum zur Frage zurückführt, was das nun eigentlich ist.

Man kann Intelligenz nicht definieren, sondern nur vage charakterisieren, nach den Vorstellungen, die wir jeweils davon haben. Intelligenz ist, was wir dafür halten. Das, was wir über uns und andere denken. Was alles gehört dazu, was nicht? Ich benutze Kontraste, um das klarzumachen. Ich fühle mich intelligent, wenn ich einige Sachen tue, ich weiß aber auch, ich bin es nicht, wenn ich etwas anderes mache. Insofern habe ich ein Intelligenzverständnis in der ersten Person. Und dann gibt es noch die Intelligenz, die an Standards gebunden ist. Ein Intelligenzquotient etwa misst unter anderem die Fähigkeit, abstrakte Formen zu erkennen sowie linguistische oder numerische Probleme zu lösen. Das kann man trainieren. Wer das tut, schneidet besser ab. Aber diese Person ist dadurch nicht intelligenter geworden.

Desweiteren ist Intelligenz auch von der Aufgabe abhängig: Was bedeutet sie, wenn ich ein Schmied bin, was, wenn ich als Programmierer arbeite? Aus all dem folgt, dass es keine vollständige Definition von Intelligenz geben kann. Ich würde es schon ablehnen, den Versuch zu unternehmen.

Werden Maschinen jemals ein Bewusstsein haben?

Seit langer Zeit wissen wir, dass Bewusstsein ein biologisches Merkmal ist; wir wissen vielleicht nicht genau, was das ist, aber es ist uns klar, dass Maschinen keines haben. Und wir haben keinen Grund dafür anzunehmen, dass sich das ändern könnte. Maschinen können nicht wissen, was sie tun. Es gibt diesbezüglich sehr interessante Gedankenexperimente, etwa das „Chinesische Zimmer“ des Philosophen John Searle: In einem geschlossenen Raum mit einem einzigen kleinen Fenster sitzt ein Mensch, vor sich hat er Körbe voller Kärtchen mit chinesischen Schriftzeichen. Er hat keine Ahnung von der Sprache, aber ein Handbuch, das erklärt, nach welchen Regeln die Symbole miteinander kombiniert werden – nur anhand ihrer Form, ohne dass er irgendeines verstehen muss. Nun reichen von außerhalb des Zimmers chinesisch sprechende Menschen kleine Stapel mit weiteren Symbolkärtchen herein, die Searle nach den Regeln des Handbuchs kombiniert und dann wieder zurückgibt. Es entsteht außerhalb des Zimmers der Eindruck, die Person spreche Chinesisch. Man könnte sagen, dass das eine Karikatur des Turing-Tests ist. Was macht die Person? Sie nimmt die Symbole, sucht sie im Handbuch, findet die Antwort und kopiert sie. Dabei versteht sie kein Chinesisch. Genau das machen Maschinen auch. Sie agieren mechanisch. Sie kriegen den Input und kalkulieren den Output. Sie wissen nichts, und ein Bewusstsein spielt dabei nicht nur keine Rolle, es ist sogar überflüssig.

Dennoch behaupten die Theorien der Technologischen Singularität, Maschinen würden sich einst selbst verbessern können …

… ohne dass ihre Vertreter dafür auch nur einen einzigen nüchternen Grund anführen könnten. Sie träumen, sie erzählen Geschichten vom technologischen Messias. Aber das hilft niemandem weiter.

Warum sollten Maschinen nicht lernen können?

Das ist kein Lernen. Maschinen lernen nur in einem sehr technischen Sinn. Ihr Algorithmus erlaubt ihnen, dass sie den Typus des Versagens, den sie bei der Abarbeitung der Datenbasis antreffen, berücksichtigen. Sie korrigieren sich, sobald neue Daten hereinkommen. Lernen ist etwas anderes. Ein Instrument spielen zu lernen umfasst jahrelange Übung und eine Vielzahl an Strategien. Das ist kein Algorithmus der Selbstkorrektur. Maschinen können ihr Verhalten dynamisch verbessern. Aber nicht mehr.

Nimmt eine Maschine die Welt wahr?

Maschinen verfügen über Systeme, die auf gewisse Umweltkonfigurationen reagieren. Bei einer bestimmten Menge Licht geht eine elektrische Schaltung auf. Wenn man nun glaubt, dass Wahrnehmung nichts anderes ist als die Fähigkeit, in Echtzeit auf Umweltreize zu reagieren, dann können Maschinen wahrnehmen. Ich glaube aber, das ist das alte Problem: Es geschieht nur etwas, das der menschlichen Wahrnehmung ähnelt. Menschliche Wahrnehmung besteht aus mehr, aus der Fähigkeit, die eigene Aufmerksamkeit auf das eine oder andere zu richten, auf bewusste Inhalte, die man sucht. Wahrnehmung ist Agieren. Aber Maschinen agieren nicht, sie bewegen sich bloß. Ein Google Car will nicht zu einem Restaurant in San Francisco fahren. Es wird nur mit dem Weg dorthin gefüttert. Wir müssen lernen, die Vermenschlichung des Maschinenverhaltens endlich abzulegen. Das sind Maschinen, und man kann ihnen einen Fußtritt geben.

Das ist hart.

Es gibt Leute, die von der Ethik von Robotern reden. Das ist Unsinn. Wenn mir eine Drohne zu nahe käme, würde ich sie mit Steinen bewerfen. Man könnte mich wegen Sachbeschädigung anzeigen. Das war’s. Maschinen sind Gegenstände mit Schaltern, sie können einiges, sie können sehr nützlich sein. Aber kämen Sie auf die Idee, sich beim Fahrstuhl zu bedanken, der Ihnen das Treppensteigen abgenommen hat?

Was werden uns die Maschinen nie abnehmen können?

Für uns zu entscheiden. Sie können uns darin allenfalls unterstützen, indem sie eine Lösung ausspucken, die wir für gut halten. Mehr werden sie nicht können, auch wenn es Leute gibt, die Emotional Computing betreiben. Sie bauen Maschinen, die affektive Zustände simulieren. Ein Lächeln erscheint auf dem Bildschirm. Das ist aber nur eine Abbildung, kein richtiges Lächeln.

Das Bewusstsein bleibt also stets der zentrale Unterschied zwischen Mensch und Maschine?

Ja. Und daraus folgend: Verantwortung, denn man kann keine Verantwortung für etwas tragen, dessen man sich nicht bewusst ist. Maschinen werden vieles imitieren können, so sehr, dass sie uns damit durchaus irritieren können. In dem Film „Her“ von Spike Jonze (siehe brand eins 06/2015, „Ich möchte ein Avatar sein“ *) imitiert eine Maschine eine Frau, und es wird suggeriert, dass der Protagonist mit ihr schläft – was genau genommen Selbstbefriedigung ist. Man muss das nüchtern sehen. Genau das tun wir nicht. Wir sind umgeben von Imitationen und Illusionen, von denen wir uns einwickeln lassen – und die wir für real halten, weil unser Gehirn Abbildungen für bare Münze nimmt und mit ihnen so agiert wie mit wirklichen Dingen. Man kann aber nicht alles digitalisieren. Nahrung und Sex kann man abbilden, aber nicht digitalisieren. Man kann Sport digital unterstützen, etwa auf einer Wii. Aber den Sport müssen wir schon selbst machen.

Gilt das auch für Arbeit?

Es gibt sehr viele nicht intelligente Bestandteile unserer heutigen Arbeit, die verschwinden. Es gibt Zyniker, die behaupten, wir könnten keine neue Arbeit mehr schaffen. Wahr ist: Die Wissensgesellschaft ersetzt nicht alle alten Arbeitsplätze durch neue. Kodak hatte in seiner Glanzzeit 145 000 Angestellte, Instagram 13, als es von Facebook für eine Milliarde Dollar gekauft wurde. 50 Leute haben bei Whatsapp gearbeitet, als Facebook das Unternehmen für 19 Milliarden Dollar übernommen hat. Ein wenig Arbeit wird erschaffen, ja, ein wenig wertvolle Arbeit für wenige Leute. Und vielleicht gehen wir, wie es der Soziologe Fabrizio Tonello sagt, gar nicht in eine Wissensgesellschaft, sondern in eine „Unwissenheitsgesellschaft“ – weil wir keinen Bedarf mehr an Wissen haben und zuletzt auch nichts mehr zu tun. Die Arbeit geht nicht aus, aber die Arbeitskräfte werden überflüssig. Das Szenario, dass wir alle Bücher lesen, während Roboter für uns arbeiten, sehe ich ehrlich gesagt nicht. Bei alldem muss man auch hinzufügen: Wir haben noch viel zu wenig Wissen darüber, ob es tatsächlich so kommen wird.

Können Maschinen unsere Intelligenz beeinflussen?

Der Autor Isaac Asimov beschrieb eine Gesellschaft, in der Menschen nicht mehr fähig sind, simple Multiplikationen durchzuführen, zum Beispiel in der Kurzgeschichte „The Feeling of Power“. Es mag sein, dass sich das menschliche Gehirn auch verändert. Wichtiger als diese Frage ist allerdings die Feststellung, dass die Veränderungen durch Automatisierung bereits einen großen Teil der Gegenwart beeinflussen. Wir neigen aber oftmals dazu, uns über interessant klingende, aber heute nicht wirklich beantwortbare Zukunftsfragen den Kopf zu zerbrechen.

Wir betrachten also die falschen Probleme?

Wir gewichten die Probleme im Umgang mit Maschinen falsch. Es gibt viele Leute, die glauben, dass die Intelligenz der Kinder durch Computer beeinträchtigt wird. Mag sein. Aber es ist ein kleines Problem im Vergleich dazu, wie wir Experten und Maschinen mit immer mehr Vollmachten ausstatten. Eine Folge ist die radikale Reduzierung der Wirklichkeit. Bei Facebook wird aus sozialer Komplexität ein Auswahlsystem mit elf Möglichkeiten: Bist du Single? Verheiratet? In einer Beziehung? Ist: „Es ist kompliziert“ tatsächlich eine Kategorie? Ich will damit sagen: Wir bedienen die Maschine, nicht sie uns. Wir beschreiben uns selbst so, dass die Systeme damit arbeiten können. Wir erteilen den Programmierern und Gestaltern dieser Welt ständig Vollmachten, es noch einfacher und weniger komplex zu machen. Ich fürchte: Das 21. Jahrhundert wird das Zeitalter der Bevollmächtigung sein, in dem wir Entscheidungen, die wir fällen sollten, an Systeme weitergeben – und zwar ohne dass dies den meisten Menschen bewusst ist.

Das muss nicht unbedingt negativ sein.

Es gibt natürlich auch Nutzen. Wenn man etwa mit einem GPS-Navigationssystem reist, dann reduziert das eheliche Konflikte. Ich habe allerdings auch Freunde, die sich entschieden haben, sich geolokalisieren zu lassen – man kann also immer sehen, wo sie gerade sind. Das geht mit einer entsprechenden App auf jedem Smartphone. Falls ihnen in einsamen Gegenden etwas zustieße und sie Hilfe bräuchten, ist Geolokalisierung natürlich eine gute Sache. Im philosophischen Sinne ändert man damit aber mehr. Wenn bis auf einen alle geolokalisiert sind, dann macht sich dieser eine verdächtig. Er wird verdächtig, indem er etwas nicht macht. Er weicht ab. Und das wird nicht akzeptiert. Wir brauchen hier effizienteren Schutz.

Übertreiben Sie nicht?

Im Gegenteil. Ich bin kein Apokalyptiker. Aber natürlich muss man aufpassen und sich etwa gegen Gesetze wehren, die in die Privatsphäre eingreifen, wie es zurzeit ja geschieht. Dagegen muss man angehen. Und das auf eine sehr traditionelle Weise: Man muss eben arbeiten. ---

Roberto Casati, 53,ist ein italienischer Philosoph. Er ist Forschungsleiter beim CNRS, dem Nationalen Zentrum für wissenschaftliche Forschung in Paris und größten europäischen Wissenschaftsbetrieb, und beschäftigt sich mit Kognitionswissenschaft, Bildung und Technik

* b1.de/klimek_avatar

Mehr aus diesem Heft