Ausgabe 07/2015 - Schwerpunkt Maschinen

Künstliche Intelligenz

Das Bit der Weisen

• Bislang war es ein reines Gedankenexperiment. Daniel Polani, Professor für künstliche Intelligenz an der englischen University of Hertfordshire, hatte es in seinen Vorlesungen immer wieder durchgespielt: Wie lässt sich sicherstellen, dass der Pilot eines Passagierflugzeugs nicht durchdreht? Als dann der Absturz des Germanwings-Fluges 4U 9525 auf traurige Weise bestätigt hatte, dass es keine letzte Sicherheit gibt, lag die Frage ganz nahe: Ließe sich ein solches Drama mithilfe künstlicher Intelligenz verhindern?

Im Auto gewöhnen sich die Menschen gerade an den maschinellen Beifahrer in Form von Assistenz-Systemen. Er fordert zu einer Rast auf, wenn er beim Fahrer Zeichen von Müdigkeit erkennt, achtet auf den richtigen Abstand zum Vordermann und wird schon bald bei unmittelbar drohenden Kollisionen sogar in die Lenkung eingreifen. Das Versprechen lautet: Intelligente Fahrzeuge können helfen, die Zahl der Unfalltoten im Straßenverkehr zu senken.

Vieles spricht dafür, dass Datenverarbeitung tatsächlich zu weniger Verkehrsunfällen beitragen kann. Doch was wird sein, wenn der erste Mensch von einem Roboterauto überfahren wird? Was ist, wenn der Unfall selbst nicht mehr zu verhindern ist und das autonome Fahrzeug, das den Ministerpräsidenten und seine Ehefrau befördert, nur noch die Wahl hat, in eine Gruppe kleiner Kinder zu fahren oder den Wagen von der Brücke stürzen zu lassen? Kann eine Maschine so intelligent sein, dass wir ihr solche Entscheidungen anvertrauen?

Das sind extreme Beispiele, aber das ist das Thema ja an sich. Intelligenz ist schwer zu fassen. Obwohl der Begriff einen zentralen Aspekt menschlicher Identität erfasst, gibt es keine allgemein akzeptierte Definition dafür. Von Ingenieuren, gewohnt mit klaren Normen und Standards zu arbeiten, wird der Begriff daher zumeist gemieden. Ebenso dort, wo es unmittelbar um Leben und Tod geht, bei Militärrobotern.

Diese Maschinen sollen nie selbstständig über den Einsatz tödlicher Waffen entscheiden, fordert nicht nur Verteidigungsministerin Ursula von der Leyen, die sich zudem für eine internationale Ächtung autonomer Waffensysteme einsetzen will. Aber kann man ächten, was sich nicht klar fassen lässt?

Und wie autonom ist eine Drohne eigentlich? Führt sie nicht, wie jeder Automat, letztlich ein von Menschen formuliertes Programm aus? Was scheinbar eindeutig beantwortbar ist, führt zu langwierigen Debatten, an deren Ende die Teilnehmer erschöpft und ohne greifbares Ergebnis zurückbleiben. Kaum scheint eine klare Unterscheidung zwischen menschlicher und maschineller Intelligenz gefunden zu sein – untergräbt sie der technische Fortschritt wieder.

Der britische Mathematiker Alan Turing schlug 1950 einen Intelligenztest für Maschinen vor, bei dem die sprachliche Kompetenz im Mittelpunkt steht. Ein Mensch sollte über Fernschreiber mit einem anderen Menschen und einem Computer kommunizieren. Wenn er nach fünf Minuten nicht sicher entscheiden könne, welcher seiner Kommunikationspartner der Computer ist, müsse dieser als intelligent angesehen werden.

Ist klug, wer sich viel merken kann?

40 Jahre später versprach der US-amerikanische Unternehmer Hugh Loebner dem Programmierer, dem es zuerst gelänge, den „Turing Test“ zu bestehen, eine Prämie von 100 000 Dollar. Solange dieses Ziel nicht erreicht ist, gibt es bei dem alljährlich ausgeschriebenen Loebner Prize 3000 Dollar für das Programm, das einem menschlichen Gesprächspartner am nächsten kommt.

Loebners Initiative wurde von der Forschergemeinde zunächst freudig begrüßt. Doch der erste Wettbewerb endete enttäuschend. Sieger wurde eine einfache Variation von „Eliza“, einem aus etwa 200 Zeilen bestehenden Programm, mit dem Joseph Weizenbaum bereits im Jahr 1966, angelehnt an die von dem Psychologen Carl Rogers entwickelte Gesprächspsychotherapie, einen menschlichen Gesprächspartner imitiert hatte (siehe auch S. 86). In den 25 Jahren danach, so das Resümee des Wettbewerbs, hatte es offenbar keinen nennenswerten Fortschritt gegeben.

Seither wird der Turing Test nicht mehr als Kriterium für wirkliche Intelligenz, sondern als bloße Vortäuschung von Intelligenz angesehen. Auch Kevin Warwick, Professor für Systems Engineering, der 2008 an der britischen University of Reading den Loebner Prize ausgelobt hat, sieht den Test heute nicht mehr als entscheidenden, wohl aber „wichtigen Meilenstein auf dem Weg zur künstlichen Intelligenz, die bis heute nicht erreicht worden ist“. Und er verweist in diesem Zusammenhang auf ein bemerkenswertes Muster: Demnach würden Aufgaben, die zunächst als Zeichen von Intelligenz gewertet wurden, als irrelevant eingestuft, sobald sie bewältigt seien. Das sei beim Sieg eines Computers über den Schachweltmeister so gewesen, den der Computer demnach nicht seiner Intelligenz, sondern seiner überlegenen Rechenkapazität verdankte. Und das werde beim Turing Test nicht anders sein.

Auf ähnliche Weise gälte ein Verkäufer, der Kunden mit individuell auf deren Vorlieben zugeschnittenen Angeboten zum Kauf verführen kann, gewiss als intelligent, zumindest talentiert. Wenn ein Empfehlungsalgorithmus einen Internetnutzer mit gezielt präsentierten, animierten Bildchen zur Bestellung verleitet, mag das dagegen zwar recht verblüffend sein. Es geht aber letztlich auf ein raffiniertes Spiel mit Daten zurück, die auf vielfältige und fantasievolle Weise zueinander in Beziehung gesetzt werden. Ist es demnach also keine Intelligenz, sondern nur eine Matrizenrechnung?

Einen Menschen mit enzyklopädischem Wissen, der ohne zu zögern zu einem beliebigen Thema den aktuellen Kenntnisstand zusammenfassen kann, empfänden wir vielleicht als ein wenig sonderbar, aber sicherlich auch als intelligent. Wenn ein Roboter das Gleiche leistete, wäre es weniger wert: Der holt sich das ja nur aus Wikipedia.

In solchen verbreiteten Argumentationsmustern wird Intelligenz letztlich zum Unerklärlichen, nicht Greifbaren verklärt. Sobald ein Vorgang zu erklären und zu reproduzieren ist, könne es sich nicht um Intelligenz handeln. So lässt sich auch eher verkraften, wenn Computer den Menschen bei geistigen Leistungen übertreffen. Denn dahinter steckt ja letztlich nur eine gewaltige Rechenleistung, und die Maschine beherrscht auch nur diese spezielle Aufgabe und nichts anderes.

Niemand weiß, ob sich künstliche Intelligenz entwickeln lässt. Niemand weiß, ob die Forschung irgendwann an eine unüberwindbare Grenze stoßen wird oder nicht. Alles, was bis dorthin geschieht, muss sich also auf Annahmen stützen. Die einen glauben, dass es intelligente Maschinen geben kann, die anderen, dass sie niemals selbstständig denken, sondern immer nur vom Menschen formulierte Programme ausführen werden. Was aber, wenn dieses Programm lautet: „Gehe in die Welt und lerne?“

Der Weg zur Antwort führt nach Magdeburg.

Dort denkt auch Paul Plöger beim Stichwort Maschinenethik zuerst an den Absturz der Germanwings-Maschine. Er tut das in einer Spielpause bei den RoboCup German Open in Magdeburg, wo Plöger die Kämpfe der Haushaltsroboter leitet. Seit 1997 ist der Wettbewerb eine Art Schaulaufen in Sachen künstlicher Intelligenz – und hier macht einem niemand etwas vor. Wenn die Roboter in die Arena oder aufs Spielfeld gebracht werden, haben sie alle gleiche Bedingungen. Dann zeigt sich, was machbar ist und wo die Probleme liegen.

Vor allem aber hat sich in diesem Wettbewerb ein grundlegend neues Verständnis von künstlicher Intelligenz entwickelt, das der Forschung seit den Neunzigerjahren zu neuem Schwung verhilft. Biologen und Informatiker waren unabhängig voneinander zu dem Schluss gekommen, dass das Denkvermögen nicht als abstrakte, unabhängige Größe zu betrachten ist, sondern als Ergebnis der Auseinandersetzung eines Organismus mit seiner Umwelt: Intelligenz braucht einen Körper. Wer künstliche Intelligenz – hier von allen KI genannt – schaffen will, muss Roboter bauen, die sich in der realen, physischen Welt sinnvoll verhalten können.

Als Entwicklungsumgebung für diese „embodied intelligence“ etablierte der RoboCup zunächst das Fußballspiel, später kamen nach und nach andere Wettbewerbe hinzu. In der RoboCup@home League etwa müssen Haushaltsroboter sich in einer Wohnumgebung orientieren können, müssen mit Möbeln und Menschen zurechtkommen, Gesichter erkennen, Sprachbefehle verstehen oder bestimmte Objekte finden und greifen.

Oft genug finden sie nichts, hören nicht richtig hin oder rühren sich gar nicht erst von der Stelle. Und selbst wenn es gut läuft, kann es lange dauern, bis der Roboter seine Umgebung gescannt, die Schranktür geöffnet und die Getränkedose gegriffen hat. Dennoch werden die Roboter – kaum merklich – immer besser.

In der Rescue Arena etwa, einem unübersichtlichen, unwegsamen Labyrinth, das die Situation nach einem Erdbeben simuliert, ging noch vor zehn Jahren nichts ohne Fernsteuerung. Mittlerweile fahren viele Roboter autonom durch viele Bereiche der Arena, erstellen dreidimensionale Karten und markieren darin exakt die Positionen der durch Puppen symbolisierten Opfer.

Das alles ist keine Spielerei. Der Automatisierungsanbieter Festo treibt die Logistics League voran, der Roboterhersteller Kuka engagiert sich bei der RoboCup@work League. Für alle steht fest: Ohne maschinelle Intelligenz haben Robotik und Automatisierung keine Zukunft. Aber wie weit kann, wie weit darf das gehen? Darf ein Autopilot die falsche Entscheidung eines Menschen korrigieren – und wird er dann wie ein Held gefeiert, wenn er sich dem menschlichen Befehl entgegenstellt? Die KI wird zur Vertrauensfrage, in der das Risiko Mensch durch das der Maschine ersetzt wird. Das verlangt Entwicklungsschritte.

Paul Plöger, Professor für Autonome Systeme an der Hochschule Bonn-Rhein-Sieg, sieht wie viele seiner Kollegen keine natürliche Grenze: „Häufig wird die menschliche Intelligenz als Maßstab genommen und gefragt, ob KI dieses Niveau jemals erreichen kann“, sagt er. „Dabei wird es erst richtig spannend, wenn KI diesen Punkt erreicht hat.“

Gesucht: eine Relativitätstheorie des Denkens

Ein Minimum an technischen Voraussetzungen soll ausreichen, um Intelligenz hervorzubringen. Für Daniel Polani wäre es schon zu viel, einem Roboter eine Motivation oder ein Ziel einzuprogrammieren, bei deren Verfolgung er Intelligenz entwickeln kann: „Das wäre dann eine Konditionierung, die die Möglichkeiten einschränkt.“ Es sei besser, so etwas nicht vorzugeben, sondern sie durch das System selbst entdecken zu lassen. „Sonst bekommt man nur heraus, was man vorher hineingesteckt hat.“ Die natürliche Intelligenz habe sich schließlich auch ohne Programmierer entwickelt.

Was Polani und etwa hundert weitere Forscher umtreibt, die sich im Frühjahr 2013 in Leipzig zur ersten Konferenz über konzeptuelle und mathematische Grundlagen verkörperter Intelligenz versammelten, ist nichts Geringeres als die Suche nach dem Grundbaustein des Denkens. Im Mittelpunkt der Diskussionen steht das Wechselspiel von Wahrnehmung und Aktion: Ein Organismus (oder Agent, wie die Wissenschaftler sagen) empfängt Signale aus der Umwelt, wirkt auf sie ein, nimmt die veränderte Welt erneut wahr und so weiter. Intelligenz erwächst demnach nicht aus der bloßen Wahrnehmung der Welt, sondern aus dem Wechselspiel von Wahrnehmung und Einwirkung auf die Welt.

Das nennt sich sensomotorische Schleife, und offen ist die Frage, wodurch sie in Gang gesetzt wird. Ließe sich der Prozess mathematisch beschreiben? Es gibt verschiedene Konzepte, Rechenverfahren, Zugänge. Und immer geht es um Vorhersagen über die Zukunft, ein traditionell heikles Gebiet. Meist bleibt die Annahme, dass ein lernender Agent mit der Zeit eine immer bessere Vorstellung von der Welt und sich selbst erhält.

Niemand weiß, ob es gelingen wird, die kleinste Einheit der Kognition, das „Bit der Weisen“, zu finden, auf dem alles andere aufbaut. Es wäre eine spezielle Relativitätstheorie für das Denken. Und so wie eine Folge von E = m c 2 die Atombombe war, könnte das in der KI zur Explosion einer Superintelligenz führen. Das würde die Welt ebenso grundlegend verändern wie die Freisetzung der Kernenergie und „die Menschheit von der Spitze der Denkerkette vertreiben“, sagt Nick Bostrom, Leiter des Future of Humanity Institute an der University of Oxford.

Bostrom steht mit dieser Einschätzung nicht allein. Bei einer Tagung des europäischen Forschungsnetzwerks EUCog zu sozialen und ethischen Aspekten kognitiver Systeme Ende 2013 in Brighton zogen mehrere Forscher den Vergleich zur Atombombe. Tony Prescott, der an der University of Sheffield gerade dabei ist, dem humanoiden Roboter iCub eine umfassende Selbstwahrnehmung zu vermitteln, warnte vor „slippery slopes“ der technischen Entwicklung, rutschigen Abhängen, bei denen ein vermeintlich unscheinbarer Entwicklungsschritt unabsehbare und unaufhaltsame Prozesse in Gang setzen kann.

Bostrom hat in seinem Buch „Superintelligenz“ eine Fülle von Szenarien zusammengetragen, die auf solche schiefen Ebenen führen können. Darunter sind auch solche, bei denen sich der Übergang zur höheren Intelligenzstufe über Jahrzehnte oder Jahrhunderte erstreckt, auf den sich die Menschen sozial und kulturell nach und nach einstellen könnten. Den Schnellstart innerhalb von Monaten oder sogar nur Minuten hält Bostrom jedoch für wahrscheinlicher. Insbesondere wenn eine Schwelle erreicht sei, ab der nicht mehr menschliche Programmierer, sondern das System selbst weitere kognitive Verbesserungen bewirkt, könnte der Rückkopplungseffekt zu einem exponentiellen, nicht mehr kontrollierbaren Wachstum der Intelligenz führen. Bostrom spricht von der Entwicklung eines „Singletons“, einer „Weltordnung, in der es auf der globalen Ebene nur noch einen einzigen Entscheidungsträger gibt“.

Es ist natürlich viel Spekulation und Science-Fiction im Spiel. Weder lässt sich die Wahrscheinlichkeit für die Entstehung einer Superintelligenz berechnen noch ein ungefährer Zeitpunkt benennen, wann es dazu kommen könnte. Bostroms Buch ist ein einziger Konjunktiv.

Im Film werden solche Visionen weitergesponnen. So schildert der Brite Alex Garland dieses Jahr in seinem Film „Ex Machina“ ein subtiles Duell zwischen Mensch und Maschine, bei dem die Sympathien für den Zuschauer nicht leicht zu vergeben sind. Auch Kazuaki Takano beschreibt in seinem jetzt auf Deutsch erschienenen Roman „Extinction“ die Begegnung mit einer überlegenen Intelligenz, die mal irritierend, dann wieder beglückend sein kann. 

Mal angenommen, die Entstehung von Superintelligenzen wäre unvermeidlich. Ließe sich dann irgendwie gewährleisten, dass die KI im Sinne ihrer Schöpfer handelt, auch wenn sie diese intellektuell längst überflügelt hat?

Der Schriftsteller Isaac Asimov hat diese Frage vor mehr als 70 Jahren mit seinen berühmten drei Robotergesetzen beantwortet (siehe Kasten). Sie haben seitdem viele Autoren zu zahllosen Geschichten inspiriert.

In die Entwicklung realer Roboter sind sie allerdings bislang nicht eingeflossen. Asimovs Regeln ergeben ohnehin nur dann Sinn, wenn sie nicht auf die Roboter selbst bezogen werden, sondern auch auf deren menschliche Entwickler. In deren Verantwortung liegt es ja zunächst, Maschinen zu bauen, die Menschen keinen Schaden zufügen, ansonsten menschlichen Befehlen folgen und für ihre Selbsterhaltung sorgen. Die bislang offene Frage ist, wie diese Forderungen umgesetzt werden können.

Bei Asimov selbst wie auch bei vielen anderen Autoren herrschte lange Zeit die Vorstellung, die Gesetze könnten den Robotern schlicht einprogrammiert werden. In Paul Verhoevens Film „RoboCop“ (USA 1987) etwa wurde der Cyborg mit vier Regeln programmiert, die sich an Asimovs Robotergesetze anlehnen. Seitdem hat sich das Verständnis künstlicher Intelligenz jedoch grundlegend gewandelt. Die drei Regeln haben keinen Sinn, wenn man davon ausgeht, dass intelligente Maschinen lernfähig sind und sich selbst vervollkommnen, also ihren eigenen Programmcode verändern können.

Träte dies ein, ließe sich – wie beim Menschen auch – bei der Maschine ethisches Verhalten nicht garantieren.

Je intelligenter die Maschinen, je umfassender ihre kognitiven Fähigkeiten, desto mehr müssten sie angelernt, trainiert und erzogen werden. Maschinenethik fällt damit letztlich auf den Menschen selbst zurück und auf seine Motivationen bei der Entwicklung von Technologie. ---

Die drei Robotergesetze

In seiner 1942 erschienenen Kurzgeschichte „Runaround“ formulierte der US-Schriftsteller Isaac Asimov erstmals drei Gesetze, denen Roboter zu folgen haben und die auch von anderen Autoren immer wieder aufgegriffen wurden:

1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen Schaden zugefügt wird.

2. Ein Roboter muss menschlichen Befehlen gehorchen – es sei denn, ein solcher Befehl verstieße gegen Regel eins.

3. Ein Roboter muss seine Existenz beschützen, es sei denn, dies verstieße gegen Regel eins oder zwei.

Die Robotergesetze zeigen bislang wenig Wirkung: Die US-amerikanische Occupational Safety and Health Administration hat allein in den USA in den vergangenen 30 Jahren 33 Tote durch Industrieroboter gezählt. Die Zahl der Todesopfer durch fliegende Militärroboter (Drohnen) ist nicht genau bekannt, geht aber in die Tausende.

Mehr aus diesem Heft

Maschinen 

Hurra, Maschinen erledigen meine Arbeit!

Realpolitik heute: Arbeit für alle. Realpolitik morgen: Technikdividende für alle. Fünf Modelle.

Lesen

Maschinen 

Auf der zweiten Hälfte des Schachbretts

Lothar Schröder, Vorstandsmitglied von Verdi, über den bevorstehenden Automatisierungsschub in den Dienstleistungsberufen.

Lesen

Idea
Read