Partner von
Partner von

Wie lernen Maschinen?

Ganz ähnlich wie Menschen: indem sie üben, üben, üben – und gesagt kriegen, was richtig ist.





• Im Jahr 1986 präsentierten die amerikanischen Psychologen David Rumelhart und James McClelland ein Computermodell, das Sprache ähnlich wie ein Kleinkind erlernte. Das System imitierte die Funktionsweise des menschlichen Gehirns mit einem künstlichen neuronalen Netz, in dem Informationen mit den Mitteln der Statistik ständig neu gewichtet wurden.

In den Computer wurde folgende Aufgabe eingegeben: Bilde die Vergangenheitsform von englischen Verben! Eingetippt wurden nur die Infinitive, also beispielsweise „to start“, „to walk“ oder „to go“. Die Wissenschaftler brachten dem System keine Regeln bei, es musste probieren und bekam positives Feedback zu seinen Lösungen und Beispiele anderer Verben, aber nicht die korrekte Lösung.

Die Vergangenheitsformen der Verben mit der Endung „-ed“ wurden schnell gebildet, also „started“ oder „walked“. Diesem Muster folgend, bildete die Maschine die unregelmäßigen Verben und machte daraus „goed“, „buyed“ und „readed“. Daraufhin wurde sie von den Wissenschaftlern belehrt, dass sie bei unregelmäßigen Verben anders denken müsse. Je mehr Vergangenheitsformen unregelmäßiger Verben sie beherrschte – „went“, „bought“, „read“ – desto schneller kam der Computer auf die richtige Lösung bei anderen unregelmäßigen Verben. Nach rund 200 Durchgängen beherrschte er alle 400 Verben, die Rumelhart und McClelland ihm vorgegeben hatten – das System hatte Regeln und Muster selbst erkannt. Darum ging es bei dem Experiment: Es sollte lernen, selbst zu lernen.

Gut 30 Jahre später stehen wesentlich komplexer programmierte neuronale Netze hinter vielen Anwendungen der sogenannten künstlichen Intelligenz (KI). Sie finden Anwendung in der Sprach-, Bild- und Gesichtserkennung, in der Diagnose von Krankheiten, bei der Erkennung von Kreditkartenbetrug, es gibt Chatbots, die Kunden beraten, und es gibt AlphaGo, die Software von Google, die die weltbesten Spieler bei dem Brettspiel Go schlägt.

Die neuronalen Netze von heute arbeiten anders als beispielsweise Schachcomputer. Die beherrschen die Regeln des Strategiespiels und können ihre Aufgabe mathematisch lösen. Sie rechnen alle Möglichkeiten durch und vergleichen die Ergebnisse. Beim maschinellen Lernen hingegen lernen Computersysteme aus Beispielen und können die Erkenntnisse verallgemeinern.

Das KI-System lernt also nicht einfach auswendig, sondern erkennt Muster und Gesetzmäßigkeiten. In der Regel bekommt es dafür zunächst einen großen Satz Trainingsdaten zur Verfügung gestellt. Je öfter ein Algorithmus – die mathematische Handlungsanleitung des Computers – dann die Lösung für das ihm gestellte Problem gefunden hat, desto genauer kann er die Aufgabe beim nächsten Durchgang erledigen.

Im Idealfall kann ein KI-System die Daten, aus denen es lernt, sogar selbst erzeugen. So lernte das AlphaGo-Programm, indem es viele historische Partien aus der Datenbank verarbeitete. Mit diesen Grundkenntnissen trainierte es dann, trat gegen sich selbst und andere Go-Programme an. Nach dem Versuch-und-Irrtum-Verfahren konnte es erkennen, welche Strategie in welcher Spielsituation besonders erfolgversprechend ist. Im Unterschied zu einem Schachcomputer rechnet AlphaGo also nicht alle Spielzüge durch. Es erkennt Muster aber besser als Menschen und leitet daraus bessere Strategien ab.

Eine entscheidende – und oft übersehene – Rolle bei lernenden Computersystemen haben sogenannte Feedback-Daten. Um intelligenter zu werden, müssen sie wissen: Die jüngste Einschätzung oder Entscheidung war richtig oder falsch. Das teilautomatische Fahr-Assistenzsystem von Tesla lernt beispielsweise jedes Mal ein bisschen dazu, wenn ein Fahrer in einer bestimmten Verkehrssituation lenkt oder bremst. De facto bringt die Masse der Menschen dem Auto das Fahren bei. Und wenn die Maschine das eines Tages besser kann als der Mensch, können wir das Fahren wieder verlernen und uns sinnvolleren Aufgaben widmen. ---