Aljoscha Burchardt im Interview

Warum wir nicht wissen, wie künstliche Intelligenz funktioniert.





• Aljoscha Burchardt, 42, hat Computerlinguistik an der Universität des Saarlandes studiert, eine Kombination von Sprachwissenschaft und Informatik. Seit 2010 arbeitet er im Berliner Projektbüro des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), wo er als Manager im Forschungsbereich Sprachtechnologie Projekte leitet zur maschinellen Übersetzung und der Einbindung von Menschen in die Entwicklung künstlicher Intelligenz.

brand eins: Wie funktioniert künstliche Intelligenz in der Maschinellen Übersetzung?

Aljoscha Burchardt: In der MÜ wird grundsätzlich mit drei Systemen gearbeitet. Die regelbasierte Übersetzung, die schon seit den Sechzigerjahren existiert, fußt auf Wenn-dann-Regeln, die einzeln eingegeben werden und jederzeit geändert werden können.

Daneben gibt es die statistische Übersetzung, die seit fast 20 Jahren existiert. Diese Systeme werden nicht traditionell programmiert, sondern lernen selbstständig aus Daten, mit denen wir sie füttern. Bei der MÜ sind das Satzpaare: Original und Übersetzung. Der Kontextrahmen, in dem so ein System arbeitet, liegt bei drei bis vier Wörtern – mehr kann es nicht überblicken. Aber immerhin ist es schon in der Lage, selbstständig zu lernen. Damit ist es ein Anfang von künstlicher Intelligenz.

Die neue Generation der statistischen Übersetzung basiert auf neuronalen Netzen, die unserem Gehirn nachempfunden sind. Dafür vernetzen sich die einzelnen Bausteine im Computer während des Trainings selbst miteinander. Diese Systeme können einen ganzen Satz in einem Schritt übersetzen, aber wir können nicht kontrollieren, wie sie zu ihren Ergebnissen kommen. Ein neuronales System ist für uns eine Black Box.

Wir wissen nicht, wie diese Maschinen funktionieren?

Nein, das wissen wir nicht genau, weil es keine sichtbaren Zwischenschritte gibt. Deshalb können wir derzeit auch noch nicht sagen, wo im Detail die Probleme liegen, warum ein System mit einigen Sachen nicht zurechtkommt und was man dagegen tun kann.

Und woher wissen wir, dass das Ergebnis stimmt?

Texte kann man überprüfen und gegebenenfalls korrigieren. Und das geht auch in vielen anderen Bereichen, in denen KI genutzt wird. Nehmen Sie die Hautkrebsdiagnose: Wenn eine neuronale KI sagt, dieses oder jenes Muttermal scheint gefährlich zu sein, erklärt sie nicht, wie sie zu dem Ergebnis gekommen ist. Aber das ist okay, denn der Hautarzt kann die Einschätzung in sein Gesamturteil einfließen lassen. Schwierig wird es, wenn so eine Korrektur nicht möglich ist. Im Hochsequenzhandel beispielsweise ist das der Fall, da vertrauen wir den Maschinen blind.

Das heißt, die Maschine kann Fehler machen, und niemand merkt es?

Es kann auch sein, dass sie nach völlig unzureichenden Kriterien urteilt. Mir hat eine Versicherung von einem KI-System erzählt, bei dem sie irgendwann gemerkt haben, dass es ausschließlich auf der Basis von Geodaten entschieden hat, also nur nach Wohnort des Antragstellers.

Wie kommt man dazu, Maschinen zu konstruieren, von denen niemand weiß, wie sie funktionieren?

Die Idee, Computer zu bauen, die sich selbst vernetzen, gibt es schon lange. Aber erst jetzt haben wir die Möglichkeit, diese Systeme mit so vielen Daten zu füttern, dass sie eine solide Basis haben, um sich selbst zu vernetzen. Außerdem helfen uns diese Maschinen enorm, etwa bei der Suche im Web. Der Google-Übersetzer dolmetscht am Tag mehr als 100 Milliarden Wörter. Das könnten wir gar nicht anders organisieren.

Und was hat das mit menschlicher Intelligenz zu tun?

Noch nicht viel. Beim heutigen maschinellen Lernen geht es erst mal nur um einen selbstständigen Reiz-Reaktions-Mechanismus. Das ist wie bei einem Papagei, der Sätze aufsagt. Das ist im Lernprozess begründet: Wenn ein Mensch studiert, wie man Hautkrebs erkennt, beginnt er mit dem biologischen Hintergrund, mit der Theorie. Danach beschäftigt er sich mit den Hauptmerkmalen: Farbe, Struktur, Oberflächenbeschaffenheit und so weiter. Dann guckt er sich Beispiele am Menschen an. Und aus all diesem Wissen entwickelt er ein Gesamtbild, das mit der Zeit zur Intuition wird. Die Maschine dagegen schaut nur Beispiele an: Sie erhält die Information, einige Muttermale seien gefährlich, einige wiederum nicht. Das speichert und reproduziert sie mit einer erstaunlichen Trefferquote. Aber sie weiß eigentlich nicht, was sie tut.

Die Maschine weiß es nicht, wir wissen es nicht – und trotzdem sollen wir ihr blind vertrauen?

Man kann heute nicht garantieren, dass die Maschine nach einem bestimmten Input auch den für uns richtigen Output liefert. Technisches Versagen ist nicht ausgeschlossen. Das gilt zum Beispiel auch für autonome Autos: Die lernen fahren, indem sie mit Kameras beobachten, wie der Mensch fährt. Hinzu kommen Geodaten und so weiter. Aber es gibt keine Garantie, dass so ein Auto nie in etwas hineinsteuern wird, das es nicht kennt. Andererseits muss man einem Menschen am Steuer auch vertrauen. Und das neuronale System hat zumindest keinen schlechten Tag, es ist nie betrunken oder übermüdet. Das ist auf jeden Fall sicher. ---

„Künstliche Intelligenz

ist ein Teilgebiet der Informatik, welches sich mit der Automatisierung intelligenten Verhaltens befasst. Der Begriff ist insofern nicht eindeutig abgrenzbar, als es bereits an einer genauen Definition von Intelligenz mangelt. Dennoch wird er in Forschung und Entwicklung verwendet.

Im Allgemeinen bezeichnet künstliche Intelligenz den Versuch, einen Computer so zu programmieren, dass er eigenständig Probleme bearbeiten kann.“ (Quelle: Wikipedia)