Ausgabe 07/2016 - Schwerpunkt Digitalisierung

Der Golem und du

Jede hinreichend fortgeschrittene Technologie ist von Magie nicht zu unterscheiden.

 – Arthur C. Clarke, Profiles of the Future (1962)

1. Original und Kopie

Es gibt Zeiten, in denen wir aus der Geschichte nichts lernen können, aber vielleicht von Geschichten. Zum Beispiel von Stanley Kubricks 1968 gedrehtem Film „2001: Odyssee im Weltraum“. Darin gibt es eine Szene, die man sich heutzutage nicht oft genug ansehen kann.

Der Astronaut Dave sitzt nach einem Außeneinsatz in einer kleinen Kapsel draußen im Weltall vor der Luke seines Raumschiffs – und will wieder rein ins Warme. Los, Tür auf! Doch HAL 9000, die Blüte der Ingenieurskunst seiner Zeit, ist nicht kooperativ: „Es tut mir leid, Dave. Das kann ich nicht tun.“ Und warum nicht? Weil er kann.

Das Werkzeug, das der Mensch schuf, um ihm zu dienen, ergreift die Macht. Im Film geht das noch mal gut. Der Zweikampf im All endet, nachdem der Mensch den Computer noch einmal austrickst, weil er klüger ist. Und dann macht Dave genau das Richtige: Stück für Stück zieht er HAL seine Zähne, sein Gedächtnis – am Schluss lallt der renitente Android im digitalen Delirium „Hänschen klein“.

Diese Heldensaga von der echten, der natürlichen Intelligenz schrieb der britische Autor Arthur C. Clarke. Natürliche Intelligenz ist, wenn einem in größter Not und Desorientierung immer noch was einfällt. Unser Hirn rettet unseren Hintern. Das gilt auch, wenn das, was uns bedroht, unser eigenes Werkzeug ist.

Clarkes Geschichte erinnert an die alte jüdische Golem-Legende. Im Hebräischen bedeutet Golem so viel wie ungeboren, hilflos, dumm und unfertig. Es ist etwas, dessen Form und Charakter noch nicht erkennbar ist.

Das ist der Stand der Digitalisierung.

Unter den vielen Golem-Legenden ist jene aus dem spätmittelalterlichen Prag die bekannteste. Der Rabbi Löw schafft sich aus Lehm, Wasser, Feuer und Luft und vor allen Dingen einem mystischen Code ein Wesen, das ihm dient. Der Golem arbeitet ohne Unterlass, wenn man es ihm befiehlt, und er verteidigt die jüdische Gemeinde gegen die Angriffe der Christen, die sich regelmäßig an deren Eigentum vergreifen und Pogrome provozieren – indem sie tote Kinder in die jüdischen Gassen bringen und behaupten, die Juden hätten wieder einen Ritualmord begangen. Der Golem wacht darüber, dass das nicht mehr geschehen kann. Bald sagen die Prager: Dreh dich nicht um, der Golem geht um. Das heißt: Du stehst unter Beobachtung. Die Juden können in Frieden leben. Doch die Gemeinde hat auch Angst vor dem Golem. Ist es nicht eine Frage der Zeit, bis er, der pausenlos arbeitet, wenn man es ihm befiehlt, merkt, dass er von nutzlosen Essern umgeben ist? Wann wird sich der Golem seiner Macht bewusst – und aus einem Werkzeug ein Feind?

Rabbi Löw befördert den Golem ins Jenseits, indem er den Zauberspruch, der ihn zum Leben erweckt hat, rückwärts aufsagt. Solche Rückbaumaßnahmen sind im wirklichen Leben aber immer ein wenig schwieriger als bei Sagen und Legenden. Und es klappt nur, wenn wir den Golem als das sehen, was er ist: unser Doppelgänger, der dennoch klar als Kopie erkennbar ist. Früher nannte man das „Homunkulus“, übersetzt „Menschlein“, dem es an Verstand fehlt und vor allem an der Fähigkeit, selbst Entscheidungen zu treffen. Er tut, was man ihm sagt. Es gibt ein Original. Es gibt eine Kopie.

Es gibt eine analoge Wirklichkeit – und deren digitale Simulation. Die Digitalisierung ist unser Werkzeug. Das sind die Verhältnisse, und sie sollten eigentlich klar sein.

2. Alarm

Feststellungen wie diese waren unter aufgeklärten Leuten einmal kein Problem. Heute allerdings bewegt man sich mit so was auf dünnem Eis. Wer die Digitalisierung nur für ein weiteres Werkzeug der Menschheit auf dem Weg in eine bessere Zukunft hält, begeht beinahe Gotteslästerung.

Die Digitalisierung, sagen Größen wie der Unternehmer, Erfinder und Google-Entwicklungschef Ray Kurzweil, wird uns nicht nur verändern, sondern überflüssig machen: Singularität nennt er den Vorgang, bei dem sich künstlich intelligente Roboter als Fortsetzung der Evolution präsentieren. Noch ein paar Jahre, dann es ist so weit. Das ist, neben vielem anderen, der bisherige Höhepunkt westlichen Kulturpessimismus. Wir sind so schlecht, dass wir uns – durch unsere Kopie – selbst abschaffen wollen.

Ins gleiche Horn bläst auch der Entrepreneur, Tesla-Gründer und Raumfahrtpionier Elon Musk. Laut warnt er vor den möglichen Folgen der künstlichen Intelligenz, die das Mittel zum Zweck macht und bei der die totale Kontrolle des Menschen zum Normalfall wird. Die künstliche Intelligenz sei die „vermutlich größte Gefahr für unsere Existenz“, so Musk, der vorsorglich seine Initiative Open AI (Artificial Intelligence, also künstliche Intelligenz, KI) gestartet und mit einer Milliarde Dollar Startkapital versehen hat. Der Zweck der Übung ist es, den Umgang mit der künstlichen Intelligenz zu lernen – und sie vor allem in ihrer Entwicklung zu kontrollieren. Das ist ehrenwert. Sinnvoller wäre aber wohl Grundbildung in Naturwissenschaften und Informatik, damit solche Ängste erst gar nicht entstehen. Doch das ist nicht spektakulär genug – wer will schon was lernen? Und so gilt: Wo die natürliche Intelligenz nicht auf der Höhe ist, muss die künstliche ran.

Wo es mehr Gläubige als Wissende gibt, entstehen Glaubensgemeinschaften. So halten die meisten Nutzer Smartphone-Sprachsteuerungssysteme wie Siri für eine Variante intelligenten Lebens. Auch die altehrwürdige IBM ruft das Zeitalter des „kognitiven Computings“ aus, eine „Ära“, so die IBM-Chefin Ginni Rometty, die „die Beziehung zwischen Mensch und Maschine neu definieren“ soll. Denn schon jetzt glauben nach einer Umfrage des Marktforschungsinstituts Marplan aus dem Jahr 2015 fast die Hälfte der Deutschen, dass die KI bereits gelegentlich oder häufig im Alltag eingesetzt wird. Zieht man von der anderen Hälfte all jene ab, die gar nicht wissen, was KI sein soll, dann sind die Zweifler bereits in der Minderheit. Wir leben in einer Ära der elektrischen Wunder – willkommen im Digitalismus.

Dieser Glaube füllt die Lücke, die durch die Stagnation der angewandten Informatik entstanden ist. Es ist lange her, dass wirklich Neues und Revolutionäres geschah. Neun Jahre etwa sind vergangen, seit Apple mit dem iPhone die Ära der Smartphones eröffnet hat. Das Digitaluhrenprojekt iWatch hingegen gilt als gescheitert.

Und Big Data? Jahrelanges Marketing-Bombardement hat es nicht vermocht, die Kunden in Scharen von der Idee von noch mehr Speicherkapazität in digitalen Wolken so zu überzeugen, dass daraus eine sinnvolle Anschlussverwendung für die alte Hard- und Softwareindustrie geworden wäre, deren besten Tage lang vorbei sind.

Ähnliches zeichnet sich beim ehrgeizigen Industrie-4.0-Projekt der Bundesregierung, der Branchenverbände Bitkom und ZVEI sowie des Maschinenbauerverbandes VDMA ab. Außer „Gremienarbeit und Maßnahmenempfehlungen“, so der T-Systems-Manager Reinhard Clemens im Februar vergangenen Jahres, habe man „nichts hinbekommen“. Und 4.0 wird allmählich zur Chiffre für alle ungeklärten Fälle der alten Industriegesellschaft – von Arbeit bis zur Produktion – ein Symbol der Orientierungslosigkeit und des Abwartens.

Die KI soll es nun richten. Wenn schon die Menschen nicht intelligent genug für die Zukunft sind, dann sollen es wenigstens ihre Werkzeuge sein. Das ist absurd, zumal kein Forscher auch nur halbwegs genau weiß, was menschliche Intelligenz, Kreativität und Bewusstsein sind, geschweige denn, wie sie funktionieren. Wie soll man aber kopieren und simulieren, was man nicht kennt? Original vor Kopie ist ein Naturgesetz, das sich nicht umkehren lässt. Tut uns leid, HAL. Das können wir nicht tun.

3. Das Elektronengehirn

Kühler Ingenieursgeist mag die Technik gebären, aber erzogen wird sie durch Mythen. Das gilt für den Computer und seine Abkömmlinge ganz besonders. Im Jahr 1936 schrieb das englische Computergenie Alan M. Turing seinen Aufsatz „On Computable Numbers“, in dem er das Konzept der „Turingmaschine“ entwickelte. Dieses theoretische Modell beschreibt die Arbeitsweise aller seitdem erdachten Computer, die als „Universalmaschinen“ definiert sind. Das bedeutet nichts weiter, als dass man mit diesen Maschinen jedes mathematische Problem lösen kann, das sich durch einen Algorithmus lösen lässt – und das sind längst nicht alle. Doch das wird ignoriert. Bald nach Turings Geniestreich bricht der Zweite Weltkrieg aus. Turings Wissen hilft im berühmten Forschungszentrum Bletchley Park bei London, mit dem Rechnersystem „Colossus“ deutsche Funksprüche zu decodieren. Es ist der erste große Erfolg der Informatik.

Die USA, die seit Ende 1941 gegen die Achsenmächte kämpfen, verfügen schon damals über die weltweit führenden naturwissenschaftlichen Institute, und viele ihrer Spitzenwissenschaftler sind vor den Nazis nach Übersee geflohen. Sie geben ihr Bestes.

Kanonen machen den Anfang. Damit Geschütze richtig treffen, muss ihre ballistische Bahn, die etwa von Wind und Wetter beeinflusst wird, immer neu berechnet werden. Diese Arbeit wird von großen Teams aus Kopfrechnern erledigt, die man „Computer“, „Berechner“ nennt. Doch Menschen rechnen langsam. Schon 1937 hat John Atanasoff ein praktikables Konzept für einen Computer entwickelt, der ab 1942 an der Universität von Pennsylvania realisiert wird. In Deutschland werkelt Konrad Zuse an seiner Z3 – doch der amerikanische „Electronic Numerator Integrator and Computer“ (ENIAC) wird allen Ruhm einheimsen. Zu Recht: Das Ding ist fast vollständig frei programmierbar, digital und elektronisch. Vor allem aber ist es nach dem Konzept des Mathematikers John von Neumann gebaut, der gleichzeitig einer der führenden Mitarbeiter des „Manhattan Projects“ zum Bau der ersten Atombombe und Vater der Spieltheorie ist.

Nach von Neumanns Prinzipien arbeiten alle Computer seit dem ENIAC. Den Krieg entscheidet der Großrechner aber nicht mehr. Erst 1946 wird er der Öffentlichkeit präsentiert. Umso mehr betonen nun die Army und die Wissenschaftler seine Bedeutung. Noch gehört der Computer dem Militär, aber bereits 1951 nehmen die ENIAC-Pioniere John Mauchly und John Presper Eckert einen Computer namens Univac in Betrieb, der sensationell startet: Die Maschine berechnet die Trends zur US-Präsidentschaftswahl 1952 verblüffend genau. Ist das nicht der Beweis, dass Computer „intelligent“ sind?

Nun war die Aufmerksamkeit von Geldgebern und Kunden geweckt. Große Konzerne, die bis dahin auf Schreibmaschinen und mechanische Tischrechner setzten, begannen sich für Computer zu interessieren.

Schon 1950 hatte der Büromaschinenkonzern Remington Rand Univac übernommen, zwei Jahre später steigt die IBM ins Geschäft ein, und in Deutschland gründet ein junger Physiker namens Heinz Nixdorf sein Unternehmen.

Es ist die Zeit des Wirtschaftswunders, des „anything goes“. Großtechnologien sind gleichbedeutend mit Wohlstand und Fortschritt. Das Atomzeitalter, wie man es nennt, ist technikverrückt. Je mehr Knöpfe, desto besser. Dazu kommt der Kalte Krieg, der spätestens seit der Entwicklung der ersten Atombombe nicht mehr von Generälen, sondern von der besseren Technik entschieden wird. Wer den größeren Computer hat, hat die besseren Überlebenschancen.

Die junge Konsumgesellschaft kann alles, ihr Optimismus ist ungetrübt, was machbar ist, wird auch getan. Die Technikgläubigkeit ersetzt die Religion, was deshalb so leicht geht, weil sich nur ein paar Begriffe ändern, sonst nichts. Alle sind überzeugt: Bald kann der Computer denken.

Ausgerechnet der kühle Alan Turing liefert dafür den wissenschaftlichen Anstoß. Wie, so fragt er 1950, kann man eigentlich feststellen, ob eine Maschine denkt? Sein nach ihm „Turing-Test“ genanntes Verfahren besteht aus einem Chat, bei dem die Testperson mit zwei anonymen Gesprächspartnern via Tastatur und Bildschirm kommuniziert. Wenn die Testperson nicht mehr unterscheiden kann, wer von den beiden Mensch oder Maschine ist, dann hat der Rechner den Turing-Test bestanden.

Davon wurde eine ganze Generation Science-Fiction-Autoren und Informatiker gleichermaßen beflügelt. Ganz besonders aber waren es die Marketingleute der jungen Computerindustrie, die sich über den Turing-Test und seine populäre Interpretation freuten. Der Hersteller Westinghouse Electric machte im noch jungen Fernsehen einen klobigen Roboter populär, der unaufhörlich „Mein Gehirn ist größer als deines!“ schnarrte. Viele glaubten das. Der Begriff „Elektronengehirne“ war allgegenwärtig – und wurde in Deutschland noch lange als Synonym für Computer benutzt. Einem Elektronengehirn traute man viel mehr zu als der eigenen Birne.

4. Die Mensch-Maschine

Tatsächlich waren die Rechner in diesen Jahren vor allen Dingen sehr teuer und wenig effizient. Das änderte sich, weil zusehends einfache Routinetätigkeiten und Prozesse von den Rechnern simuliert werden konnten; aber das Hauptargument für den Rechnerkauf war eindeutig der Prestigegewinn des Käufers. Man war ganz vorn mit dabei, nahm die Zukunft offen auf. Auch der Fortschrittsglaube ist eine Religion – sein erstes Gebot lautet: Sofort dabei sein ist alles.

Dazu kam, dass mit dem Eintritt der IBM ins Geschäft die damals weltbeste Verkäufertruppe im Büromaschinenbereich aktiv wurde. Das Versprechen war: Unternehmen können nutzen, was bis jetzt nur der obersten Regierungsebene und den Militärs vorbehalten war. Es war, als ob das Herrschaftswissen durch einen magischen Vorgang auf die Computer überging. Wer sich einen leisten konnte, gehörte zur Elite und verfügte über Macht. Der Rest war eine Glaubenssache, die Berge versetzen konnte. Junge Leute, die sich der Technologie verschworen, konnten sehr schnell ganz groß rauskommen. Und es galt, was immer gilt: Je größer die Klappe, desto mehr wird geglaubt.

Im Sommer 1955 treffen sich ein Dutzend Forscher am Dartmouth College in Hanover im US-Bundesstaat New Hampshire, darunter John McCarthy, Herbert Simon, Claude E. Shannon und Marvin Minsky.

Im Dartmouth Proposal, dem Förderantrag an die Rockefeller-Stiftung, die die Anschubfinanzierung schultern soll, beschreiben die Forscher ihr Ziel: das „Lernen und alle anderen Merkmale der Intelligenz so genau zu beschreiben, dass mit diesen Erkenntnissen eine Maschine gebaut werden kann, die diese Vorgänge simuliert“. Dazu müsste man etwa Computer erdenken, die automatisch ihre Arbeit tun und mehr über sogenannte „Neuronale Netze“ erfahren, also jenes Geheimnis hinter der Kommunikation des menschlichen Gehirns lüften. Dann müsse man die intelligenten Maschinen dazu bringen, sich selbst ständig zu verbessern und zu optimieren. Natürlich müsse ein intelligenter Computer auch die Fähigkeit zur Abstraktion, zur Kreativität und zum Umgang mit Zufällen und Abweichungen haben.

Das entspricht der Gesamtleistung der Evolution bis zum Homo sapiens sapiens, dem verständigen, verstehenden und vernünftigen Menschen. Die Natur brauchte für diesen Vorgang einige hundert Millionen Jahre und Unmengen an Ressourcen. Die KI-Truppe vom Dartmouth College konnte das preiswerter und schneller anbieten: Mit den Gehältern für sechs Forscher, ein paar Praktikanten, einer Sekretärin und ein paar Zugtickets für drei Monate – umgerechnet 13 500 Dollar – würde man das in einem Sommer gut hinkriegen.

Das erinnert an „Businesspläne“ von Start-ups in der Internetblase des späten 20. Jahrhunderts. Realität, Zeit und Geld spielen keine Rolle. Die Technologie wird zum Lösungsmittel für alle ungelösten Menschheitsprobleme. Was man nicht entscheiden will, wird an die Technik delegiert. Das ist einer der Gründe, warum so viele auf künstliche Intelligenz abfahren – sie erspart eigene Denkarbeit und die Verantwortung, die damit verbunden ist.

Bis heute ist kein einziges der Ziele, die die Dartmouth-Gruppe in einem Sommer lösen wollte, erreicht worden. Das Bewusstsein, die Funktionsweise des Gehirns, Intelligenz und Kreativität sind nach wie vor in ihrer Funktion nicht ausreichend gut beschrieben, um nachgebaut werden zu können. Aber der Geist in der Maschine lebt trotzdem, weil das Maschinenzeitalter nicht zu Ende ist – im Kopf. Seit der Aufklärung wurde das mechanistische Konzept vom „Mensch als Maschine“ propagiert, wie es der Philosoph Julien Offray de La Mettrie 1748 formulierte. Im Industrialismus wurde das zum Dogma. Wenn man den Menschen für eine Maschine hält, dann kann man diese Maschine nachbauen, und wer den Bauplan hat, kann alles steuern, kontrollieren und manipulieren. Das ist der ultimative Größenwahn.

5. Eliza oder wie es sich anfühlt, tot zu sein

Kurz nach der Dartmouth-Konferenz, 1957, schrieben der spätere Wirtschaftsnobelpreisträger Herbert Simon und der Informatiker Allen Newell ihr Konzept des „General Problem Solvers“ (GPS), das mit KI alle vorstellbaren Fragen beantworten sollte. Er ist zum Synonym für einen Irrweg der KI geworden. Natürlich funktionierte das Konzept nie. Stattdessen begannen die KI-Forscher kleinere und vernünftigere Brötchen zu backen. Sogenannte Expertensysteme sammelten das Fachwissen einer Disziplin. Doch entscheiden und kreativ verändern konnten sie das nicht. Es waren und blieben Datenbanken, die Vorläufer jener Big-Data-Idee, die heute ebenfalls schrill als Grundlage einer neuen Maschinenintelligenz verkauft wird. Die Dartmouth-Forscher machten Karriere, als Regierungsberater oder einflussreiche Wissenschaftler an führenden Institutionen wie dem Massachusetts Institute of Technology (MIT). Dort wirkte auch ihr schärfster Kritiker, der aus Berlin stammende Informatiker Joseph Weizenbaum, der sich selbst „Dissident“ nannte. Tatsächlich stand der Forscher, der an der Entwicklung des Internet-Vorgängers Arpanet gearbeitet hatte, im krassen Gegensatz zu seinen mechanistischen Kollegen. Im Jahr 1966 veröffentlichte er das „Psychotherapeutenprogramm“ Eliza, das ihn schlagartig berühmt machte. Eliza simulierte einen intelligenten Dialog mit Menschen, ganz so, wie sich Alan Turing das in seiner Testanordnung vorgestellt hatte. Weizenbaum war entsetzt, was die Tester dem Programm alles anvertrauten, weil sie glaubten, die Maschine sei tatsächlich schlau und würde bei der Bewältigung von Alltagsproblemen helfen. Doch das war nur Show. Tippte man beispielsweise „Ich bin tot“ ein, fragte Eliza: „Und wie fühlt es sich an, tot zu sein?“

Joseph Weizenbaum verdanken wir den ersten lauten Zwischenruf gegen den mechanistischen Maschinenglauben im Zeitalter der Digitalisierung. Die Titel seiner Bücher sprechen für sich: „Die Macht der Computer und die Ohnmacht der Vernunft“ (1977) wird ein weltweiter Bestseller, und 1993, in der aufkommenden Internet-Euphorie, legt Weizenbaum sein lesenswertes „Wer erfindet die Computermythen?“ nach. Weizenbaum geht es um persönliche Verantwortung: Niemand kann sie an ein Programm oder eine Maschine delegieren. Das Original soll die Kopie nutzen, aber sich nicht hinter ihr verschanzen. Kritik braucht Vernunft und Zweifel. Alles andere ist fauler Zauber.

Manchmal geht es ums Kleingedruckte. Die Dartmouth-Forscher wollten eine Maschine bauen, die „Intelligenz simuliert“. Das lateinische Wort „simulatio“ bedeutet so viel wie „Täuschung“ und „zum Schein“.

Der amerikanische Philosoph John Rogers Searle hat die Unterscheidung zwischen schwacher und starker KI vorgeschlagen. Schwache KI ist eine klare, unmissverständliche Simulation von dem, was Menschen können – ein verlängerter Arm, der, wie ein Industrieroboter, einen von Menschen erhaltenen Auftrag erfüllt. Die Entscheidung bleibt in jedem Fall beim Menschen. So gesehen ist Digitalisierung ein ganz gewöhnlicher Abschnitt der Entwicklung. Selbst wenn der Roboter denkt – es ist immer noch der Mensch, der lenkt.

Eine starke KI würde diese Grenze überschreiten. Sie würde, wie in Ray Kurzweils Singularitätskonzept, es darauf anlegen, den Menschen durch Maschinen zu ersetzen, und das als Teil der Evolution definieren. Nicht dass das wahrscheinlich wäre. Aber schon der Weg dorthin richtet geistige Kollateralschäden an.

6. Der Bot, der Hitler liebte

Ein Beispiel liefert die „Maschinenethik“. Um sich dafür starkzumachen, muss man der Illusion erliegen, dass Computer und Roboter in jedem Fall eine eigene Intelligenz entwickeln könnten. Als mündig gilt, wer sich seines eigenen Verstandes bedienen und Entscheidungen auf der Grundlage seiner kritischen Intelligenz treffen kann. Beim Menschen ist das in die Ethik seiner jeweiligen Kultur eingebettet. Und die Maschine? Muss jetzt auch lernen, was gut und böse ist. Wie jeder Irrsinn klingt das erst mal einleuchtend. Wenn die Blechkisten so weit sind, dass sie selbst denken, wer garantiert uns, dass sie uns leben lassen?

Schon 1942 stellte der Science-Fiction-Autor Isaac Asimov seine Robotergesetze vor. Sie bestehen aus drei klaren Regeln.

1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen wissentlich Schaden zugefügt wird.

2. Ein Roboter muss den menschlichen Befehlen gehorchen, es sei denn, der Befehl widerspricht Punkt 1.

3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel 1 oder 2 kollidiert.

Das klingt ausreichend vernünftig. Die neue Maschinenethik gibt sich damit aber nicht zufrieden – sie will den Computern eine bestimmte Moral, ein dezidiertes Gut-böse-Bild einpflanzen. Mit Ethik hat das nichts zu tun, aber mit ideologischem Größenwahn von Gestern. Welche Politik, welche Ideologie sagt denn, was gut und böse ist? Wer programmiert? Werden Moral-Bots bald durch die Netze marschieren und die menschlichen digitalen Blockwarte, die aufmerksam Abweichungen von ihrer Moral registrieren und anprangern, ersetzen?

Microsoft weiß mehr darüber. Der Software-Konzern versuchte, in bester Absicht, im März 2016 ein KI-Projekt in den sozialen Netzwerken zu starten. Der Chat-Bot Tay, repräsentiert durch einen weiblichen Teenager, zielte auf ein junges Publikum bis 24 Jahre ab. Das Programm gehört zur Kategorie der „lernfähigen Intelligenz“-Software. Je mehr man sich mit diesen Systemen „unterhält“, desto mehr „lernen“ sie. Die Frage ist nur, was. Schon einige Stunden nach dem Start twitterte Tay plötzlich „I just hate everybody“. Dem folgten Hass-Tweets gegen Feministinnen – mögen sie „sterben und in der Hölle schmoren“ – und vier Minuten später die Ansage: „Hitler was right. I hate the Jews.“ Dann postete Tay munter Bilder vom Nazidiktator.

Bei Microsoft gab es roten Alarm. Was war geschehen? Tay hatte in der Tat gelernt, allerdings von denen, die sich am stärksten mit dem Bot beschäftigten – Rechtsradikalen im Netz. Es hätten aber genauso gut Dschihadisten oder Linksextreme sein können, ein Haufen Satanisten oder Leute, die gegen den Einfluss Außerirdischer Aluhüte tragen. Ein selbst lernender Bot lernt, was man ihm sagt. Er entscheidet selbst gar nichts, sein Gedächtnis ist kein kritischer Verstand, der zweifelt oder auch nur die Chance dazu zulässt. Womit man den hohen Stand der KI beweisen wollte, führte zum genauen Gegenteil: Es gibt keine denkenden Maschinen. Der Stand der Dinge ist eindeutig: KI-Systeme sind bestenfalls nützliche Idioten, bei denen es nur zum Nachplappern reicht. Mitläufer. Gefährliche Kopien.

7. Power to the People

Der Digitalismus und alles, was mit ihm zusammenhängt, ist unserem eigenem Vergessen geschuldet. Wo kommen wir her, und wo wollten wir eigentlich mal hin? Im Jahr 1976, vor 40 Jahren, wurde Apple gegründet, ein Unternehmen, das wie die meisten seiner Generation den großen Konzernen und Machtstrukturen in der Informatik den Kampf ansagte. Der Personal Computer heißt so, weil er die Entscheidung darüber, was Digitalisierung ist, von der anonymen Ebene der Armee, der großen Konzerne und Regierungen zurückholte zum Einzelnen. Der PC war von Anfang als ein Werkzeug der Zivilgesellschaft gedacht, ein Gegensatz zu den Großrechnern und „Elektronengehirnen“ der Mächtigen. Personal Computing, das bedeutete immer: Power to the People.

Mit dem Erfolg dieser Idee verblassten in den Siebziger- und Achtzigerjahren scheinbar auch die Allmachtsfantasien der starken KI. Je mehr sich der „Computer für jedermann“, wie Apple-Mitbegründer Steve Wozniak es nannte, verbreitete, desto geringer wurde der Einfluss der Science-Fiction. Mit dem Internet wiederholte sich das ein Jahrzehnt später. Die großen Institutionen, Militärs und Forschungseinrichtungen hatten es verkümmern lassen. In der Zivilgesellschaft der frühen Neunzigerjahre blühte das Ding auf. Es ging um Selbstermächtigung – die Digitalisierung diente der Emanzipation des Einzelnen. Doch tatsächlich nahmen nur wenige diese Revolution persönlich. Sie hatten keine Gelegenheit dazu. De facto wurde die Arbeit am Computer befohlen. Man ersetzte Schreibmaschinen durch Textverarbeitungen, Buchungsblätter durch Tabellenkalkulationen, Briefe durch E-Mails, Printmedien durch Websites. Die Digitalisierung kopiert, macht nach. Was man für originell hält, häuft hauptsächlich Digitalisat an, digitales Material, in Binärcode übersetzte Kopien der analogen Originale. Es geht darum, noch mehr vom Gleichen zu machen. Schnellere Roboter, schnellere Fließbänder, mehr Output und Routinearbeit – statt endlich eine menschengerechte, individuelle und den Fähigkeiten der Einzelnen angemessen Arbeitswelt zu schaffen. Das aber ist die Hoffnung, die die Digitalisierung weckt und nährt, das Versprechen, auf dessen Einlösung alle warten. Manche verlieren die Geduld, andere das Vertrauen.

Nur 19 Prozent der Deutschen finden, nach einer Umfrage des Allensbacher Institutes für Demoskopie vom April 2016, den Begriff „Industrie 4.0“ sympathisch, und das Wort „Digitalisierung“ weckt nur bei 42 Prozent positive Gefühle. Das ist ein Problem. Die Theorie der Wissensgesellschaft baut darauf, dass Wissen originelle Lösungen hervorbringt, keine Kopien. Wissen, so schreibt Nico Stehr, einer der Vordenker der Wissensgesellschaft, bedeutet vor allen Dingen eines: „Etwas in Gang zu setzen.“ Neues schaffen.

8. Die Digitalisierung in der Ausnüchterungszelle

Ernüchterung ist der Anfang der Veränderung. Bis heute besteht die Webcommunity nicht aus selbstständigen Entscheidern, sondern aus digitalen Verbrauchern. Die meisten haben keine Ahnung von dem, was die Kommunikationswissenschaftlerin Nele Heise „Digitale Staatsbürgerkunde“ nennt, „Code Literacy“ also, Grundwissen darüber, was Computer, Netze und Algorithmen sind und was nicht. Wissen statt Glauben.

Sascha Lobo zitiert Arthur Clarkes: „Jede hinreichend fortgeschrittene Technologie ist von Magie nicht zu unterscheiden.“ Lobo ist Blogger, Autor, Redner und Klassensprecher der deutschen Webgemeinde – und längst auch einer ihrer schärfsten Kritiker. Er erzählt, wie sehr ihn die NSA-Affäre in seinem Glauben an ein unabhängiges Web erschüttert habe. Vor zwei Jahren schrieb er in der »Frankfurter Allgemeinen Sonntagszeitung«: „Das Internet ist kaputt“ und watschte die Community auf deren Jahreshauptversammlung Republica ab: „Eure Eltern überweisen, ihr twittert.“

Lobo übt sich auch in Selbstkritik. Seine Generation, die das Internet vor 20 Jahren in Gang gebracht hatte, ignoriere die Realität weitgehend: „Unser eigentliches Problem ist der ungeheure Daten-Determinismus, die Maschinengläubigkeit, bei der die Leute ihre Eigenverantwortung abgeben.“ Das Web werde konsumiert, nicht gestaltet und damit „Entscheidungen an die Technologie delegiert, also in eine ferne Zukunft verschoben, mit der man nichts zu tun hat“, so Lobo. Schlechte Code Literacy trifft auf Bequemlichkeit. Auch hier kopiert der virtuelle Raum Vorlagen aus der Realität.

Doch Sascha Lobo lässt nicht locker. Es geht nicht um mehr Computer und Bandbreite und mehr tolle Spiele, sondern um „Selbstermächtigung. Das ist das Ziel, das ist ein machtvolles Instrument, um durch harte Zeiten zu kommen und Probleme zu lösen“, sagt er. Auf der diesjährigen Republica rief er dem Publikum zu: „Macht mehr Wirtschaft!“ und „Werdet Unternehmer!“.

Die Selbstverantwortung, von der Lobo redet, hat nichts mit analog oder digital zu tun, sondern ist eine Frage der Persönlichkeit. Sie baut darauf, dass der Einzelne die Verantwortung übernimmt. Und sich nicht der Illusion hingibt, dass das andere – und seien es künstliche Intelligenzen, Golems, HALs und wie sie alle heißen – für ihn erledigen.

Das Digitale wird langsam erwachsen, vielleicht auch, weil sich all die künstlich Intelligenten und moralisch Geregelten so kindisch benehmen. Wenn die Krise, die Dummheit, am größten zu sein scheint, ist der Wendepunkt schon erreicht. Beim Menschen nennt man das Pubertät. Da muss man durch.

Das Schlimmste dürfte bald ausgestanden sein oder, wie der Techniksoziologe Ortwin Renn, Direktor des Potsdamer Institute for Advanced Sustainability Studies (IASS) sagt: „Da ändert sich gerade einiges. Wir sind nicht mehr so naiv wie noch vor ein paar Jahren.“ Die Krise der Digitalisierung habe viele Parallelen mit dem Atomzeitalter. An dessen Höhepunkt herrschte eine heute gespenstisch anmutende Euphorie um die neue Technik – bis die Realität für Ernüchterung sorgte. Bei der Digitalisierung sei es ähnlich, so Renn: „Wir träumen immer noch vom digitalen Vollautomaten, der uns alle Probleme abnimmt, aber das ist nur eine weitere Illusion, die sich gerade legt. Kreativität ist etwas anderes als Algorithmen – deren Grenzen wir heute kennenlernen. Das Pendel schlägt in eine andere Richtung, in Richtung Pragmatismus und Vernunft.“

9. Ent-Täuschungen

Das hört der Zukunftsforscher Matthias Horx gern. Erst vor Kurzem warnte er vor dem „digitalen Brei“, der die Weltsicht trübe – und dazu führe, dass die Leute gar nichts mehr glauben. Über Jahre hindurch, so Horx, sei jede Form von Inhalt – im digitalen Neusprech Content genannt – regelrecht „vergiftet“ worden: Es sei nur noch um die Vermarktung gegangen, was man da in Umlauf brachte, sei völlig egal gewesen. Die Wissensgesellschaft könne von solchen Luftblasen nicht leben – zum Erwachsensein der Digitalisierung gehöre es, sich auf geistige Arbeit zu konzentrieren – „auf das Wesentliche“.

Matthias Horx ist sich da ganz einig mit Sascha Lobo: „Es geht darum, dass ich entscheide, ob ich on- oder offline bin, wann ich digital bin oder analog. Das sind Grundkompetenzen, die wir gerade lernen.“ Digital ist nicht einfach besser, weiß Horx. Er lebt mit seiner Familie in einem futuristischen „Zukunftshaus“ in Wien. „Vor ein paar Jahren haben wir alles digital gesteuert und kontrolliert.“ Hauptsache, digital. Heute schmeißt er allen Kram raus, der nicht funktioniert. Egal, ob analog oder digital.

Die einzige Frage lautet: „Was kann die Technik tun, um mein Leben schöner und praktischer zu machen?“ Das spreche sich heute herum, „vor allem unter den Leuten, die Wichtigeres zu tun haben als Digitales zu bedienen“. Der Vormund will wieder seine Mündigkeit zurück. Das Original kommt zuerst. Im Digitalismus funktioniert Selbstvertrauen wie eine Firewall. Dann tut der Golem, was wir sagen.

Das kann ich nicht tun, Dave?

Aber sicher, Freundchen, du kannst.

Und zwar ein bisschen dalli. ---

Mehr aus diesem Heft

Digitalisierung 

Wirtschaftswunderland

Das winzige Israel ist ein Paradies für Hightech-Firmen. Dank einer einzigartigen Zusammenarbeit von Wirtschaft, Forschung, Staat und Militär.

Lesen

Digitalisierung 

Wir züchten uns ein Haus

Jeff Kowalski ist Cheftechniker von Autodesk. Sein Job besteht darin, weit in die Zukunft zu schauen. Ein Gespräch über smarte Produkte und Schnittstellen zwischen Mensch und Maschine.

Lesen

Idea
Read