Partner von
Partner von

Echt digital

Alle reden von der Digitalisierung. Aber was ist da eigentlich drin?






„What You See Is What You Get“ gilt hier nicht …

1. Mythos Digitalisierung

Alle reden von der Digitalisierung.

Bei viel Gerede wird stets Wichtiges übersehen, zum Beispiel, dass Menschen glauben, was sie sehen. Das ist ein Problem.

Nein, es geht hier nicht ums digitale Fälschen und Betrügen, Manipulieren und Tricksen – jedenfalls nicht in voller Tatabsicht. Es geht um den Mythos, der um das Digitale gesponnen wurde – und um die dazugehörigen Irrtümer. Es geht um die Frage, was das Digitale nützt – wirklich, ernsthaft, ohne Übertreibung und Zweckoptimismus.

Zuvor aber ist zu klären, was das eigentlich ist, Digitalisierung. Was hat sie bis jetzt geleistet? Und was könnte sie vielleicht noch für uns tun? Diese einfachen Fragen sind die Voraussetzung dafür, dass wir in der Wissensgesellschaft besser als bisher lernen, das Original – den Menschen und seine Welt – von den Kopien, die das Digitale hervorbringt, zu unterscheiden, ganz gleich, wie echt und authentisch sie wirken.

Bei der Universalmaschine Computer und ihren Abkömmlingen ist das schwieriger als bei allem anderen, was Menschen bisher an Werkzeugen geschaffen haben. Denn wo eine Maschine potenziell alles kann, scheint alles möglich – was letztlich ziemlich unübersichtlich ist. Da wär’ es schon nicht so schlecht zu wissen, was das Digitale kann und was die wirkliche Welt.

Weil das gern offengelassen wurde, hat es bei der Digitalisierung von Anfang an auch so viele gegeben, die die sichtbare Technik für wichtiger genommen haben als ihren eigentlichen Kern: das, was sie kann und wozu sie führt. Aufgeklärte Menschen aber fragen nach dem Sinn und Zweck dessen, was sie selbst und ihre Werkzeuge zustande bringen. Sie fragen nach dem Nutzen, der Brauchbarkeit von Technik. Gute Frage. Wir sind übrigens nicht die erste Generation, die auf so etwas kommt.

2. Simulationen

Im Jahr 1891 erlebte die Stadt Frankfurt am Main eine Sensation: Mehr als 1,2 Millionen Menschen waren in die Stadt gekommen, um auf der Internationalen Elektrotechnischen Ausstellung (IEA) die damals ungeheure Anzahl von eintausend Glühlampen und einen von einer elektrischen Pumpe angetriebenen künstlichen Wasserfall zu erleben. Mit 15 Mark – nach heutiger Kaufkraft mehr als 100 Euro – war der Eintrittspreis sehr hoch bemessen. Doch man musste dieses Wunder gesehen haben.

Dass viele der Glühlampen und Motoren in vertraute Dinge, Gebäude und Geräte eingebaut wurden, erhöhte die Faszination beim Publikum noch mehr. Da strahlte eine Glühlampe in der Fassung einer Petroleumleuchte unglaublich viel heller als der ölige Glühstrumpf. Da liefen Elektromotoren ohne Krach und Dreck, saubere Maschinen – ein Wunder. Wer es sah, wurde gläubig. Noch ein paar Jahrzehnte hielt das Faszinosum alles Elektrischen an, bis in die Zwanziger-, Dreißigerjahre des 20. Jahrhunderts, um dann so gewöhnlich zu werden, dass niemand mehr nach einer IEA fragte und erst recht nicht bereit war, einen derart horrenden Eintritt dafür zu bezahlen.

Allmählich verschwanden die Vorläufer des Elektrischen, die stinkenden, brandgefährlichen Kerzen und Petroleumlampen, die offenen Feuer, die Dampfmaschinen und was es sonst noch gab, aus der Lebenswelt der Menschen. Die Erinnerung verblasste zusehends. Man hatte sich an das Neue gewöhnt, das zuerst als reine Kopie des Alten erschien. Nun konnte man sich an jene Lösungen und Fragen machen, die man heute nativ nennt, vom lateinischen nativus, was so viel bedeutet wie angeboren und natürlich. Nutzen ist ein Kind der Gewöhnung, der Normalität. Wenn das Neue nicht mehr außergewöhnlich scheint, seine Form nicht mehr alles entscheidet, schlägt die Stunde der Inhalte.

Das gilt auch für Messen. Die hannoversche Cebit, die im vergangenen Jahr zum letzten Mal stattfand, war auf ihrem Höhepunkt im Jahr 2002 die weltgrößte Computermesse. Man konnte sehen und fühlen, wie Computer und Zubehör immer alltagstauglicher wurden. Zuerst war die Technik da, dann kam der Nutzen. Je mehr Menschen den erkannten, desto unnützer wurde die Cebit selbst, das alte Klassenzimmer der Ära des Personal Computers. Damit endete auch ein wichtiger Streckenabschnitt der Digitalisierung, der in den späten Siebzigerjahren begann.

Personal Computer simulierten über ihre Software die Welt der mechanischen Bürotechnik, die im Lauf des späten 19. und 20. Jahrhunderts entwickelt worden war: Rechen- und Schreibmaschinen sowie Datenbanken, die Karteikästen und Ablagen ablösten, aber auch Programme, die Messgeräte und Maschinensteuerungen ersetzten.

Zur Unterhaltung packte man obendrauf jede Menge Spiele, mit denen sich der monotone Arbeitsalltag an der Universalmaschine Computer erträglicher machen ließ. Der Erfolg des Personal Computers war lange Jahre umso größer, je besser es gelang, Vertrautes aus der dinglichen Welt auf den Bildschirm zu bringen. WYSIWYG – die Abkürzung für What You See Is What You Get – war das entscheidende Argument für den Verkauf von PC-Systemen in den Achtziger- und noch frühen Neunzigerjahren. Es war ein Konzept, das federführend in den Siebzigerjahren am Palo Alto Research Center von Xerox entwickelt und später von Apple und Microsoft (Windows) übernommen worden war. Der damit verbundene Begriff des Desktop-Publishing bedeutet nichts anderes, als dass der real existierende Schreibtisch, das ganze Büro und die Organisation, virtuell wurden, die gewohnte Welt sich auf neuartige Weise nutzen ließ. Der Vorteil war: Kaum jemand musste dabei noch die Frage nach der Effizienz der Systeme stellen, denn die lieh sich das Neue sozusagen als Erbteil von all den Dingen aus, die bereits vorhanden waren und die man nun – für Jahre mehr schlecht als recht – auf dem PC simulierte.

Einen ähnlichen Kunstgriff, wenngleich auf weit abenteuerlichere Art, unternehmen heute all jene, die behaupten, natürliche Intelligenz lasse sich mit den Mitteln maschinellen Lernens künstlich herstellen. Aber What You See Is What You Get gilt hier nicht, denn das, was man simulieren und in den Computer bringen könnte, ist in seiner natürlichen Form zu wenig verstanden, um es kopieren zu können.

3. Normalität

Wir leben in Zeiten, in denen sich das Digitale normalisiert. Informationstechnik ist ein so selbstverständlicher Teil unseres Alltags geworden, dass ihr nichts Sensationelles mehr anhaftet. Es ist wie beim Strom: Man darf eigentlich erwarten, dass er aus der Steckdose kommt. Niemand kriegt vor Freude rote Bäckchen, weil das Zimmer hell wird, wenn man auf einen Schalter drückt.

Jede Innovation muss laut sein, um gehört zu werden, aber beim Digitalen wurde stets laut herumgebrüllt. Pöbeln ersetzt Argumente, man kennt das. Das zeigt schon, dass es hier an Konkretem oft mangelte, konkrete Anwendungen meist nicht oder nur sehr vage vorhanden waren. Die Digitalisierung war, was ihren erkennbaren Nutzen angeht, lange, lange Jahre eine Mangelwirtschaft. Hier ging was nicht, da war noch nichts ausgereift, dort hieß es „Vorsicht, Beta!“ oder „Version 0.2“ oder, bis heute und nahezu als zuverlässiger Dauerzustand: „Nach dem Update wird es besser.“

Ein bisschen Welpenschutz sollte immer sein, aber so viel wie beim Digitalen war selten nötig. Die Baustellen, die das Digitale seinen Nutzern zugemutet hat, hätte sich kaum eine andere Branche erlauben dürfen. Echter Nutzen hingegen ist ruhig. Wenn sich jemand oder etwas nützlich macht, dann ist das meistens eine ganz unauffällige Angelegenheit. Heinzelmännchen machen ihre Arbeit, Werkzeuge erledigen ihren Job. Das Praktische ist ein eher ruhiger Typ. Das macht es aber auch schwer, die Grenzen der alten Digitalisierung, die nur simulierte, was da war, und der neuen, die an und für sich Innovation schafft, zu erkennen. Dennoch ist diese neue Digitalisierung vorhanden, sie entsteht durch eine Vielzahl an alltäglichen Anwendungen. Menschen geben der Technik Sinn und Zweck, in kleinen Schritten. Und wer ganz genau hinschaut, der weiß, dass das abseits der großen Sprüche und Versprechungen der IT auch beim Computer nie anders war.

4. Der Umzug der Welt

David Gugerli weiß dazu mehr. Der Professor für Technikgeschichte an der ETH Zürich hat im vergangenen Jahr ein bemerkenswertes Buch darüber geschrieben, wie klein, mühsam und unberechenbar diese Schritte wirklich ablaufen. Und diesmal ist es keine schnell dahingesagte Übertreibung, dass es bei der Digitalisierung immer schon ums Ganze ging. Also die ganze Welt. Der Technikhistoriker hat ein altes Werbeplakat für den Univac aus dem Jahr 1956 ausgegraben. Da ragt aus der Bedienkonsole eines Computers ein dicker Kabelschlauch heraus, der eine Weltkugel umklammert und durchbohrt – als ob der Rechner den Inhalt der Welt in sich hineinsaugen würde. So heißt auch das Buch: „Wie die Welt in den Computer kam“. Es ist eine Geschichte der Geschichte davon, „warum die Welt neu formatiert wurde – und immer noch wird“, wie der Historiker schreibt, denn so war es wirklich: Nicht der Computer kam in die Welt, sondern umgekehrt. Alles, was in dieser Welt existiert, an Werkzeugen, Ideen, Methoden, Verfahren, Informationen und Daten, ganz gleich, ob es sich dabei um schnelleres Rechnen, die Erledigung von Büroarbeiten, Raumflüge oder medizinische Messtechnik handelte, musste erst in mühevoller Kleinarbeit aus der alten „analogen“ Welt in die des Digitalen gebracht werden. Es handelte und handelt sich bei der Digitalisierung also um eine „große Verschiebungsaktion“, wie Gugerli es treffend nennt.

Die Spediteure und Lastesel waren unzählige Menschen, die – meist ohne konkrete Ziele und Nutzungsmodelle – „die Mühen des Umzugs für sich und andere in Kauf genommen“ haben. Die Wahrheit ist also: Die gewaltige Arbeit der Digitalisierung wurde begonnen und wird fortgesetzt, weil man hofft, dass sie zu etwas führt – eine Innovation sucht sich ihren Nutzen. Aber fest stand erst mal gar nichts. Der Computer wurde, wie vieles auf der Welt, entwickelt, weil es ging.

Zu Beginn der Fünfzigerjahre wurden die ersten kommerziellen Computer an Unternehmen ausgeliefert. Was versprachen sich die Käufer der teuren Maschinen? Nein, es geht nicht um die vielen, im Nachhinein gebildeten stimmigen Legenden. Fast alle Innovationsprojekte werden von solchen Sinn- und Zweckmythen begleitet, die der Realität jedoch meist übergestülpt werden. Das dem IBM-Präsidenten Thomas Watson senior zugeschriebene Zitat aus dem Jahr 1943 – „Die Welt braucht nicht mehr als fünf Computer“ – ist wahrscheinlich nicht echt, aber sein Inhalt gibt die Stimmung der führenden Experten dieser Zeit wieder. Es war also keine krasse Fehlprognose, wie man sie dem Chef des später größten Computerkonzerns der Welt unterstellt, sondern Stand der Dinge.

Legenden der Nützlichkeit werden ex post geschmiedet, um nicht dumm dazustehen – und für die, die solche Projekte betreiben, ist das Vorspiegeln unendlicher Bedeutsamkeit wichtig, um an Mittel zu kommen. So funktionieren Organisationen – und Menschen, die glauben, was sie glauben wollen. Den Historiker Gugerli hingegen interessierte eine Perspektive, bei der „die Probleme so dargestellt werden, wie sie sich den Zeitgenossen präsentiert haben und wie diese sie angegangen sind“. Man könnte etwas altmodisch auch sagen: die Wahrheit.

5. Nerds

Fakt ist: Der Sinn und Zweck des Computers war in den ersten Jahren keineswegs klar, von abstrakten und reichlich abgehobenen Rechenproblemen von Mathematikern mal abgesehen. Doch für die Spleens der Mathe-Nerds hätte niemand so viel Geld ausgegeben. Für komplexe Berechnungen standen längst auch mechanische Rechensysteme zur Verfügung oder eben Rechenschieber, die bis in die Siebzigerjahre genutzt wurden. Man stand also vor dem Problem, dass es eigentlich kein Problem gab, jedenfalls keines, das sich nicht auch konventionell hätte lösen lassen.

Das war dem Vorstand der Remington-Rand-Gruppe, die seit 1951 mit dem Univac den ersten kommerziellen Computer anbot, durchaus klar. Remington Rand nannte in einem Werbefilm folgende Aufgaben für den Computer: Die Maschine sei ideal für alles, bei dem „sortiert, klassifiziert, gerechnet und entschieden“ werden müsse.

Besonders die ersten drei Aufgaben passten gut zum Arbeits- und Weltbild industriellen Managements. Es zielte auf effiziente Routinearbeit ab, auf Automatisierung, Beschleunigung und Abarbeitung des Vorhandenen.

Hier ließen sich jede Menge Anwendungen finden und aus der realen Welt in den Computer bringen. Man musste nur nach allem Ausschau halten, was sich automatisieren ließ. Das ist bis heute so geblieben und bestimmt auch unser Zukunftsbild. Der Computer ist eine Universalmaschine, er kann alles Mögliche, aber das heißt eben noch lange nicht, dass die Ideen gleich mitgeliefert werden. Das galt noch stärker, als mit der Massencomputerisierung seit den späten Siebzigern – Home und Personal Computer tauchten auf – die Frage nach den sinnvollen Anwendungen immer drängender wurde.

Die meisten Käufer von damals hatten weniger einen konkreten Nutzen im Sinn – auch wenn sie den gern vorschoben –, sondern sie wollten einfach auch einen Computer haben, den Inbegriff des Fortschritts und der Moderne. Es war also weniger der Nutzen als die Aussicht auf soziale und kulturelle Anerkennung. In dieser Phase war Dabeisein zwar nicht alles, aber kaufentscheidend. Es ging weit öfter um Potenziale als um konkrete Problemlösungen, nützliche Angelegenheiten also. Im Netzzeitalter hat sich diese Entwicklung noch verstärkt. Als das Internet ins Laufen kam, wurde enthusiastisch darüber gesprochen, dass nun jeder jederzeit alles machen könne. Doch die Suche nach sinnvollen Anwendungen ist nicht weniger anstrengend geworden. Gute Ideen fallen nicht vom Himmel – und das Potenzial der Technik wird gern mit praktischen Problemlösungen verwechselt. Wirklich Neues ist schwer zu denken, und so wird Vorhandenes, Reales, Analoges schlicht digitalisiert. In dieser Phase ändert sich nicht der Inhalt, sondern die Darbietungsform. Das ist der Stand der Dinge. Wer also von der Digitalisierung so redet, als sei sie längst etwas Eigenständiges, der sagt nur die halbe Wahrheit: Denn von ihren eigenen Werken wissen wir bis heute recht wenig. Bisher hat das Digitale das Analoge, unsere Welt, nur kopiert. Manche hoffen aber, dass sie sich dadurch verändert.

6. Die Blackbox

Drei der vier Versprechungen aus dem Remington-Rand-Werbefilm der Fünfzigerjahre sind praktisch Realität: Computer sortieren, klassifizieren und rechnen. Hier stiftet die Digitalisierung also Nutzen, bildet eine neue Normalität. Aber was ist mit dem vierten Versprechen, dem Entscheiden? Die Welt, die in den Computer kommt, besteht eben – vielleicht sogar in ihrer Hauptsache – nicht nur aus klassifizierbaren Routinen, die man wegsortieren und ausrechnen kann. Was ist mit dem großen Rest? Welchen Nutzen erhoffen wir uns, wenn es um Unsicherheiten geht, um Risiken, um den Teil der Welt, den wir nicht im Griff haben?

Die Moderne hat die Naturgesetze als ihren eigentlichen Sinn und Zweck entdeckt und zur Grundlage aller weltlichen Entscheidungen gemacht. Dabei geht es um die Berechenbarkeit der Welt, um alles, was das Ungewisse so klein wie möglich hält, bestenfalls ausschließt, um Sicherheit also, Gewissheit, die man nun auch der Universalmaschine abverlangt. Eine wirklich nützliche Maschine muss nicht bloß schneller rechnen können als wir, sondern auch besser entscheiden.

Der Computer sagte Wahlergebnisse und Wahrscheinlichkeiten voraus. Bald nannte man ihn „Elektronengehirn“, womit die bis heute in der Diskussion um die künstliche Intelligenz anhaltende Begriffsverwirrung ihren Anfang nahm. Dahinter steckt die Hoffnung, dass der Geist der Maschine den fehlerhaften und irrenden Menschengeist ersetzen könnte. Wenn wir es schon nicht hinkriegen, dann wenigstens unsere Werkzeuge. Und wenn die sich irren, sind wir wenigstens nicht schuld. Das ist eine so weit verbreitete, so grundlegend falsche Vorstellung von den Möglichkeiten der Digitalisierung und der ihr zugrunde liegenden Universalmaschine, dass man sich mit den Ursachen dafür näher beschäftigen muss.

Wie macht man anschaulich, was in einem digitalen System, einem Computer, einem Netzwerk abläuft? Wenn die Welt erst mal im Computer ist, dann verliert sie sich in dem, was David Gugerli die Blackbox nennt. Das ist ein Problem.

Schon der Blick in die turnhallenfüllenden Schaltschränke der ersten Großrechner zeigte ein unüberschaubares Wirrwarr an Drähten und Röhren, Relais und Vorrichtungen – und dennoch nur einen winzigen Teil der Komplexität des Gesamtsystems. Die winzigen Schaltkreise aktueller Systeme sind längst nicht mehr zu sehen. Unhörbar, unsichtbar wird die Welt durch sie simuliert. Das ist kein Grund zur Panik. Alle komplexen Systeme verfügen heute über eine Blackbox, in der Routinen und Prozesse abgearbeitet werden. Daraus besteht die Ordnung der Dinge. Niemand muss, wenn er im Laden etwas einkauft, die ganze Kette an Prozessen im Blick haben, die er damit im Hintergrund auslöst. Aber dass es ein solches System gibt und wie es grundlegend funktioniert, das gehört zur Grundbildung in der Wissensgesellschaft.

Dabei geht es nicht darum, alle Benutzer zu Technikern zu machen. Die meisten Menschen wissen heute aber wohl noch nicht einmal, dass eine Blackbox überhaupt existiert. Was machen wir mit der Digitalisierung? Was kann die Welt in der Blackbox für uns tun – und was nicht? Es herrscht, was Karl Marx im Industriezeitalter Entfremdung nannte – was hat die Technik mit meinem Leben, mit meinen Lebenschancen zu tun? Welchen Zweck hat das? In der Euphorie des Digitalisierens kommt diese simple Frage – Was nutzt mir das? – zu kurz. Es geht darum, ein neues Verständnis von digitalem Nutzen zu entwickeln, das sich nicht am Stand der Technik orientiert, sondern an den Bedürfnissen der Menschen, die damit zu tun haben. Vom Bediener zum Benutzer sozusagen. Das ist immer noch ein weiter Weg.

7. Denken, just in time

Orestis Terzidis, der Leiter des Instituts für Entrepreneurship, Technologiemanagement und Innovation am Karlsruher Institut für Technologie, weiß aber, dass man sich aufmachen muss. Terzidis ist gelernter Physiker, war lange Jahre Leiter des Forschungszentrums von SAP und hält die Frage der selbstbestimmten und selbstbewussten Nutzung digitaler Technik für entscheidend. Damit das Bildungsziel – Verstehe, was in der Blackbox steckt – nicht schon ganz am Anfang an seiner Überkomplexität scheitert, empfiehlt Terzidis Respektlosigkeit vor dem System: „Man muss mal die Übertreibungen auf ein vernünftiges Maß zurechtstutzen“, sagt er. Will sagen: „Die Welt wird sich auch im Digitalen nicht völlig verändern. Diese Übertreibungen, etwa in den Möglichkeiten künstlicher Intelligenz, schaffen Unsicherheit und helfen niemandem. Digitalisierung ergänzt die Welt, die wir haben.“

Ein Beispiel: Der Einzug industrieller Methoden in die Landwirtschaft hat dort viel verändert, aber eben nicht mit allem radikal gebrochen. Die Industrie hat die Möglichkeiten und das Poten- zial der Nahrungsmittelproduktion erheblich erweitert. Hardware, Software und Daten seien, so sagt Terzidis, „Haus, Hof und Stall der digitalen Gesellschaft“. Ein guter Landwirt hat eine Nase dafür, wo sich Modernisierung und Transformation lohnen und wo nicht. Das war so und ist auch in Zeiten der Digitalisierung und außerhalb der Agrarwirtschaft nicht anders.

Terzidis nennt diese Fähigkeit „unternehmerische Intelligenz, also die Fähigkeit, sich vorstellen zu können, wie man bestehende, analoge Strukturen mit der digitalen Technologie erweitert. Das ist eine Art Bauernschläue der Digitalisierung.“ Man stellt einfache Fragen ohne zu viel Ehrfurcht vor der Technik und ihren Hohepriestern. Statt nach dem Ruf „Digitalisiert euch!“ einfach brav, wie man es gelernt hat, mitzumachen und bloß nicht durch Nichtwissen aufzufallen, lautet die richtige Frage: Was kann man damit machen? Überhaupt: Die Wissensgesellschaft braucht Leute, die sich trauen, laut und deutlich zu fragen. Verstehen wollen ist die Grundlage des neuen Gesellschaftsvertrags.

Das hat eine eingebaute soziale Funktion. Leute, die wissen, was die Technik für sie tun kann, haben meistens auch eine Ahnung, was sie für andere tun könnte. Es ist das alte Werkzeug, das Besteck der Aufklärung: kritisches Denken und konstruktives Zweifeln. Der Schlüssel zur Blackbox lautet: Was nützt mir das?

Für Terzidis geht es um eine Kernkompetenz der Digitalisierung: sich entscheiden zu können. Wissen, was man braucht und was nicht. Es geht um Fokussierung und Konzentration. Die alte Technikkultur, die immer noch vorherrscht, behauptete, dass mehr Knöpfchen besser seien als weniger. Je mehr Spielvarianten ein System hatte, desto besser. Weglassen erschien als Mangelerkrankung. Die Blackbox schafft aber eine enorme Komplexität, die uns zur energischen Entscheidung zwingt. Selbstverständlich kann man E-Books auch auf dem Tablet oder Smartphone lesen. Aber ist es nützlich, dass dabei ständig das Geblinke von E-Mails, Twitter-Nachrichten und anderen Nervtötern stört?


Der Computer wurde, wie vieles auf der Welt, entwickelt, weil es ging. Bisher hat das Digitale das Analoge, unsere Welt, nur kopiert. Manche hoffen aber, dass sie sich verändert.

Zum richtigen Nutzen des Digitalen gehören Nutzer, die selbstbewusst auswählen, was geht und was nicht. Wir sind damit noch ungelenk. Auch hier findet Terzidis, dass der mündige Datenbürger viel von der professionellen Wirtschaft lernen kann. „Wir müssen lernen, mit Daten, Informationen, Digitalem so umzugehen, wie wir es mit Dingen schon tun. Seit den Achtzigerjahren nutzen wir das Just-in-time-Konzept, das in der Produktion nichts anderes bedeutet, als sich nur mit so vielen Einzelteilen zu umgeben, wie man zur Aufgabenerfüllung gerade braucht. Der Rest wandert in die Blackbox.“ Dazu braucht es einen „Aufräumprozess“, wie der Professor sagt. Dieser Prozess wird uns noch viele Jahre beschäftigen: Routinen wandern dabei in die Blackbox, deren Aufgabe es ist, uns von monotonen Arbeiten zu befreien.

Das Innovative und Originelle, das Problemlösen, Nachdenken und Verbessern hingegen ist das, was wir ab sofort Arbeit nennen sollten. Wir müssen in den kommenden Jahren lernen, das auseinanderzuhalten, aber das Wesen beider Welten zu kennen. Es gehe darum, „die Welt neu zu sortieren, damit sich die Technik nützlich macht, statt uns zu sagen, wo es langgeht“.

Das ist nämlich, und das ist wirklich, wirklich neu, ab jetzt unser Job. Machen wir uns dabei so nützlich, wie es geht. ---

Lust auf mehr?

Dieser Artikel stammt aus dem brand eins Magazin zum Schwerpunkt Digitalisierung.

Digitalausgabe kaufen
Printausgabe bestellen