Kommunikation in Zahlen 2022

Wie kommunizieren wir in drei Jahrzehnten? Benutzen wir noch Smartphones, oder sind wir vielleicht gar in eine virtuelle Realität eingetaucht, das Metaversum? Wir haben einen Science-Fiction-Schriftsteller und eine Zukunftsforscherin gefragt. Und um ganz sicherzugehen auch eine Zeitreisende aus dem Jahr 2053.



Nfon 02


Der Science-Fiction-Autor:

Andreas Eschbach wurde mit seinem inzwischen verfilmten Roman „Das Jesus-Video“ bekannt. Er erwartet in den 2050er-Jahren sprechende Glas- scheiben, Simultanübersetzer – und sorgt sich um unsere Privatsphäre.

Herr Eschbach, Ihr neuer Roman „Freiheitsgeld“ spielt mehr als 30 Jahre in der Zukunft. Worin unterscheidet sich die Technik dann von unserer heutigen?
Andreas Eschbach:
Es gibt viele Roboter, es gibt selbstfahrende Bussysteme. Es gibt immer noch so etwas wie Smartphones, nur dass sie „PODs“ heißen – für „Personal Organization Device“. Natürlich können sie mehr, sind besser in die Netze integriert. Man hat keine Apps, sondern sogenannte Skills.

Wir benutzen in 30 Jahren tatsächlich immer noch Smartphones?
Ich glaube, dass das Smartphone als Konzept ziemlich ausgereift ist. Es gibt diesen Spruch: Etwas ist vollkommen, wenn man nichts mehr wegnehmen kann. Denken Sie an die alten Blackberrys und Motorola-Klapphandys. Denen hat man alles weggenommen, was nur geht. Es ist bloß noch ein Stück Glas übrig. Das wird vielleicht irgendwann durchsichtig, aber das grundsätzliche Prinzip, dass man eine glatte Fläche hat, auf der optische Impulse auftauchen, mit denen man dann interagiert – was lässt sich daran noch verbessern?

Gibt es im Jahr 2055 noch ein Internet?
Ja, ich denke schon. Aber es könnte in mehrere, getrennte Einflusssphären zerfallen sein. Facebook war schon der Versuch, ein solches Subnetz zu schaffen. China schottet sein Netz ab, Russland will eine Art russisches „Intranet“ schaffen. Ganz praktisch könnte es auch so aussehen, dass ich als Mitglied der Apple-Gemeinde vielleicht ohne Weiteres nur noch andere Apple-Nutzer im Apple-Netz erreiche. Wenn ich mit jemandem im Google-Netz Kontakt aufnehmen möchte, muss ich in beiden Netzen Mitglied sein oder eine Gebühr bezahlen.

Was ist mit neuartigen Endgeräten? Smarte Brillen und Head-up-Displays zum Beispiel, die Bilder direkt ins Sichtfeld projizieren?
Wird es neuartige Endgeräte dieser Art geben? Klar. Wenn man heute durch eine Innenstadt geht, sieht man viele Menschen, die im Gehen die ganze Zeit auf ihre Handys schauen. Da ist die Datenbrille eigentlich nur der nächste Schritt. Aber nicht alle werden so etwas benutzen. Speziell Datenbrillen sind ein zweischneidiges Schwert. Wenn jemand mit einer solchen Brille vor einem steht, muss man aufpassen, was man sagt und was man tut, weil man vielleicht gefilmt wird oder der Brillenträger Daten über einen recherchiert. Für mich ist die Vorstellung einer Datenbrille schlicht unglaublich nervig.

Warum?
Was wird denn als Erstes auf so einer Brille laufen? Werbung. Vielleicht darf man ohne eine solche Brille gar nicht mehr Auto fahren, weil die Straßenschilder nicht mehr real existieren, sondern nur eingeblendet werden.
Oder stellen Sie sich vor, im autonom fahrenden Bus sitzt Ihnen jemand gegenüber, der gerade einen Videoanruf über seine Datenbrille annimmt. Der schaut Sie dann scheinbar an und beschimpft Sie als „Idiot“, meint Sie aber gar nicht. Die neue eingeblendete Realität ist außerdem hackbar – und deshalb wird sie auch gehackt werden.

Also erwarten Sie, dass die meisten Menschen „Wearables“ tragen – vielleicht gleich mehrere – und sich ständig im Datenstrom bewegen. Andere lehnen solche Technik aber rundheraus ab?
Ich jedenfalls würde sie wahrscheinlich ablehnen. Aber im Ernst: Ich könnte mir vorstellen, dass die technische Kommunikation einen Kulminationspunkt überschreitet und dass die nächste Generation zum Teil „abschaltet“ in dem Sinne, dass sie die Geräte zwar hier und da benutzt, sie aber nicht mehr als Zentrum ihres Daseins betrachtet und „technikfreie“ Zeiten oder Zonen definiert.

Wie sieht die Zukunft der beruflichen Kommunikation aus?
Was Videokonferenzen angeht, werden die in 30 Jahren zumindest extrem hoch aufgelöst sein, wahrscheinlich sogar mit 3-D-Effekt. Die Hightech-Lösung könnte ein Konferenztisch sein, der in der Mitte endet. Wenn alles eingeschaltet ist, ist er komplett, und die andere Seite – die Verhandlungspartner – sitzt als Hologramm in Lebensgröße vor einem, körperlich und plastisch.

Und die Zusammenarbeit an Dokumenten? Sieht die in 30 Jahren noch genauso aus wie heute in Microsoft Teams oder Slack – nur eben schneller und besser?
Einerseits ja, denn: Wenn man online gemeinsam an Dokumenten arbeiten kann, sich dabei gegenseitig sehen, sich etwas zurufen und das mit Kommentaren versehen kann, dann weiß ich nicht, was noch fehlen sollte. Andererseits werden Dinge wie Sprachsteuerung und Handschriftenerkennung Standard sein. Also spreche ich – wenn ich will – mit digitalen Geräten, diktiere Texte, lasse Handschriftliches in Echtzeit in computerlesbaren Text umwandeln. 
Und es gibt auch die Simultanübersetzung per künstlicher Intelligenz (KI). Ich arbeite online mit einem Chinesen zusammen, ich schreibe und spreche Deutsch, er Chinesisch, und wir beide merken es nicht mal.

Was war die visionärste Kommunikationstechnik, die Sie je für einen Roman erdacht haben?
Einer meiner Romane aus der „Out“-Trilogie handelt von einer Technik, die dem ähnelt, was Elon Musk jetzt mit „Neuralink“ vorhat: ein Chip im Gehirn zur Kommunikation, eine Art technischer Telepathie. Unsere Nervenimpulse im Gehirn bewegen sich relativ langsam, mit ungefähr hundert Metern pro Sekunde. Wenn man da also ein Schaltelement anschließt, das die Impulse in Lichtgeschwindigkeit in ein anderes Gehirn weiterleitet, dann würde die räumliche Distanz keine Rolle spielen, und es wäre so, als wären beide Gehirne direkt miteinander verbunden. Das führt im Roman dazu, dass die Individuen verschmelzen. Es entsteht ein Wesen, das viele Körper hat, aber nur einen Geist: „die Kohärenz“, die dann natürlich die Weltherrschaft anstrebt.

Lassen Sie mich raten: Es geht nicht gut aus?
Na ja, die Kohärenz wird knapp besiegt, aber nicht ganz. Also: Nein, es geht nicht gut aus.

Future1 pantone neu

Die Zukunftsforscherin:

Karin Frick leitet das Research am Gottlieb Duttweiler Institute (GDI) in der Schweiz. Sie geht davon aus, dass die Menschen in den 2050er-Jahren mit ihren Kommunikationsgeräten zusammengewachsen sind, Gedanken lesen und Supersinne entwickeln.

Frau Frick, der Science-Fiction-Autor Andreas Eschbach glaubt, dass wir in den 2050er-Jahren noch so etwas wie Handhelds benutzen, die an heutige Smartphones erinnern. Was meinen Sie?
Karin Frick:
Auf keinen Fall! Der nächste Schritt – und das schon eher Richtung 2030 – ist Voice als Eingabemethode. Wir tragen dann ein Mikro in der Kleidung, in einer Brille oder sogar im Körper. Dazu gibt es einen Knopf im Ohr. So sind wir nicht mehr auf das Handicap einer Tastatur oder eines Touchscreens angewiesen. Für den optischen In-put baut sich vielleicht ein Hologramm vor uns auf, eine smarte Brille oder Kontaktlinse projiziert uns Bilder direkt auf die Netzhaut. Aber Hardware-Bildschirme? Die werden verschwunden sein. Wir gehen mit unseren Kommunikationsgeräten immer näher an den Körper heran und in den Körper hinein.

Wieso ist Eschbach so konservativ?
Er macht Literatur und muss an seine Leser denken. Und die können mit Bildschirmen, Knöpfen und Hebeln etwas anfangen, weil sie solche Eingabemethoden kennen. Es ist eben sehr schwer, eine Beziehung zu einer in einem Roman entworfenen Welt aufzubauen, wenn alles darin neu und fremdartig ist.

Was sagt denn die Zukunftsforschung? Was kommt nach der Sprachsteuerung?
In den 2050ern haben wir wahrscheinlich das Neuro-Inter- face, wie es Elon Musk entwickeln möchte. Dann kann ich mit meinen Gedanken googeln. Heute steuern Menschen mit Behinderungen auf diese Weise schon einfache Computeranwendungen. Ich sehe das wie die Anfänge der Digitalfotografie – bildlich gesprochen ist jetzt alles noch etwas grobpixelig. Aber denken Sie nur mal daran, wo wir mit der Digitalfotografie inzwischen angekommen sind.

Bildschirmfoto 2022-10-28 um 13.14.57

Wie wird so etwas technisch funktionieren?
Keine Ahnung. Das ist aber auch irrelevant, ich kann es mit meinen heutigen Begriffen nur über Metaphern beschreiben. Uns fehlen die Worte für das, was in der Zukunft sein wird. Denken Sie mal 100 Jahre zurück: Wir erklären Sie einem Menschen aus dieser Zeit ein heutiges Smartphone? Oder das Internet?

Einen Neuro-Chip hat sich auch Eschbach mal für einen Roman ausgedacht. Bei ihm ist das eine Horrorvision. Und auch mir fallen eine Menge Leute ein, die derlei als Albtraum bezeichnen würden.
Ich kenne auch viele Leute, die gesagt haben, dass sie niemals ein Smartphone in die Hand nehmen würden – und die jetzt alle eines benutzen. Menschen sind eine kommunikative Spezies. Und wir haben immer schon auf mehr Ebenen kommuniziert als nur über Sprache und Schrift. Nicht umsonst wechseln jetzt alle zu den Bild-Medien. Meine These: Wir wollen vor allem emotional in Kontakt bleiben. Social Media sind doch nichts anderes als eine Art digitales Fellkraulen: Ich bin da, ich denk’ an dich, ich hab’ dich nicht vergessen.

Was liest solch ein Neuro-Chip denn? Worte? Symbole? Oder Gefühle?
Auf jeden Fall auch Gefühle. Ich stelle es mir als eine Art zusätzlichen Kanal vor, der ergänzend zu den abstrakten Begriffen, die ich über Sprache transportieren kann, meinem Gegenüber auch noch vermittelt, wie es mir geht. Wir werden ohne Text und Sprache direkt miteinander kommunizieren, es ist ein unmittelbarer Austausch ohne Filter. Unsere Ausdrucksmöglichkeiten nehmen dadurch extrem zu. Wir verstehen uns ohne Worte, weil wir gewissermaßen im Körper des anderen sein können.

Beziehen Sie in dieser Vision auch die berufliche Kommunikation ein?
Unbedingt. Stellen Sie sich ein virtuelles Meeting vor, bei dem Sie nicht nur ein Hologramm vor sich sehen, sondern dank Ihrer Gehirnschnittstelle buchstäblich mit Ihrem Gesprächspartner im selben Raum sitzen. Sensoren dort vermitteln Ihnen die Temperatur im Raum, die Umgebungsgeräusche, den Geruch, die genauen Lichtverhältnisse. Und Sie sehen dabei ein perfektes, dreidimensionales Abbild vor sich. Das ist dann kein Unterschied mehr zu einem persönlichen Treffen in Präsenz.

Aber im Job will ich meinem Gesprächspartner vielleicht gar nicht das Fell kraulen ...
(lacht) Ja, das stimmt. Man wird entscheiden können, wie viel man in welcher Situation preisgeben will, und das entsprechende Intimitäts-Level wählen. Für ein Virtual-Reality-Meeting können Sie festlegen, als welche Person und in welcher Rolle Sie auftreten möchten. Eine Technik, die meine Gefühle liest, könnte in Teilen auch bei virtuellen Seminaren oder Vorträgen zum Einsatz kommen. Heute rede ich da ins Leere, sehe als Dozent im Zweifel nur lauter schwarze Kacheln. Aber wenn ich ein Feedback bekäme, wie die Stimmung im Publikum ist? Ob die gerade alle einschlafen, ganz konzentriert sind oder sogar verärgert?

Gibt es für eine solche Technik weitere denkbare Anwendungen?
Klar. Wir sind als Menschen relativ beschränkt in unserer Wahrnehmung: Wir können nicht besonders gut riechen, wir hören und sehen schlecht. Mit einer solchen Technik könnten wir unsere Möglichkeiten erweitern. Ein Wissenschaftler wäre nicht mehr darauf angewiesen, einen Messwert vom Spektrometer abzulesen, sondern könnte per Neural-Link fühlen – sozusagen riechen, wie hoch die Konzentration eines bestimmten Stoffes in einer Probe ist. Biologen könnten verstehen, wie Tiere empfinden und denken. Vielleicht verbindet sich ein Techniker auch direkt mit einem Computer.

Auf welcher Art Netzwerk basiert das alles?
Die Geräte, die wir in und am Körper tragen, beziehen ihre Rechenkapazität jedenfalls von irgendwoher. Wir haben es in 30 Jahren mit einem derart schnellen, allumfassenden mobilen Netzwerk zu tun, dass wir es gar nicht mehr als etwas von uns Getrenntes wahrnehmen. Ich bin überall Teil dieses Feldes. Die erweiterte Wahrnehmung, die mich mit anderen Menschen, Tieren und Maschinen verbindet, ist immer da. Metaphorisch gesprochen: Ich schwimme darin wie ein Fisch im Wasser und denke genauso wenig darüber nach wie über die Luft, die ich atme. 

Bildschirmfoto 2022-10-28 um 13.33.11

Die Zeitreisende:

Carola Yücel arbeitet im Jahr 2053 als Time-Taiko- nautrix bei der eurasisch-chinesischen Agentur für Raum- und Zeitreisen CENTA in Genf, dem früheren CERN. Die Münchnerin erklärt, wie Kommunikation in 30 Jahren wirklich funktioniert.

Carola, wie hast du den Zeitsprung überstanden?
Carola: Ich muss tatsächlich erst mal kurz klarkommen. Ich bin etwas zeitkrank, das liegt an der Quantenverschränkung. Und außerdem: Himmel, wie habt ihr das nur ausgehalten? Seit ich im Jahr 2022 bin, sind die Remotes weg, ich habe keinen Feed mehr, keinen Emo-Input, gar nichts ... Totenstille. Das ist ein wenig gruselig, ehrlich gesagt. Ich fühle mich wie blind und taub.

Du willst sagen, dein Neural-Chip ist nicht mehr mit dem superschnellen Internet deiner Zeit verbunden?
Neural-Chip? Wie kommst du darauf? Die Dinger sind seit der Lex Musk im Jahr 2032 bis auf wenige Ausnahmen verboten. Und zwar völlig zu Recht. Die crazy Modixe, die sich in irgendwelchen Berliner Caves zum Spaß solche Links einpflanzen lassen, haben bestenfalls eine Fifty-fifty-Chance, sich dabei nicht zu lobotomisieren. Einen Neuralink tragen heute nur Gelähmte, bei denen die Gentherapie zur Nervennachzüchtung versagt hat und die damit ihre Exosuits steuern. Oder schwer psychisch Kranke, die mit ihnen siere Hirnchemie regulieren.

Aber wo kommen dann die „Remotes“, der „Feed“ und der „Emo-Input“ her?
Die optischen Impulse blendet mir der bioelektrische Film ins Sichtfeld, den ich auf dem Augapfel trage. Audio kommt durch die Patches über meinen Schädelknochen, die den Schall per Knochenleitung ans Innenohr übertragen. Das hat den Vorteil, dass ich gleichzeitig noch hören kann, was um mich herum passiert. Mein Gem ist jetzt aber offline. Deshalb ist alles tot.

Dein „Gem“?
Ich selbst trage es um den Hals, manche Menschen tragen es lieber als Ohrring oder an einem Fußkettchen, einige haben es sich unter die Haut implantieren lassen. Damit klinken wir uns in die Remotes ein – ihr würdet wahrscheinlich Netzzugang oder so etwas sagen.
Die Remotes sind 2053 überall: in der Wandfarbe, in Baumaterial, im Straßenbelag. Es sind winzige Nano-Chips, die sich automatisch miteinander verbinden und so ein ausfallsicheres Datennetz aufbauen. Der Feed sind die Inhalte, die meine Assistenz-KI für mich zusammenstellt. Sie erscheinen in meinem Sichtfeld, oder ich höre sie.

Was sind das für Inhalte?
Ach, das kann alles Mögliche sein: Pfeile, wo ich langgehen soll. Virtuelle Holografien, mit denen sich Restaurants und Geschäfte verschönern. Schilder, akustische Hinweise auf wichtige Nachrichten. Offizielle Warnmeldungen vor Amokläufen, Hitzewellen oder Tornados. Natürlich mein Connect zu Freunden und Familie oder im Job zu meinem Team. Außerdem Video-Links, die sich entweder ganz spontan aufbauen oder nur dann, wenn ich das Gem darum bitte.

Und dann siehst du ein Bild deiner Freunde oder deiner Kollegen vor dir, mit denen du ... äh ... telefonierst?
Ja, so ähnlich. Die Assistenz-KI macht mehrmals am Tag ein Update meines Erscheinungsbildes. Ich bin ja überall von Millionen Kameras umgeben: in den Wänden, an Fassaden oder in den Bio-Augenfilmen anderer Menschen. Daraus erstellt sie dann den Avatar, den mein Kollegix von mir sieht. Ich wiederum sehe sieren Avatar. Ser steht dann ganz plastisch und dreidimensional vor mir in der Umgebung, in der ich mich gerade befinde – eingeblendet und in der Entfernung, die ich vorher eingestellt habe. Ein Avatar ist nicht von sierem Usix zu unterscheiden – solange wir unsere Avatare nicht optimieren.

Ich muss jetzt mal fragen: ser und sierem?
Entschuldigung, das hatte ich vergessen. Das sind Pronomen dritten Grades. Nur noch sehr alte Leute benutzen bei uns die beiden cis-Formen. Ihr hättet „er“ und „ihrem“ gesagt. So drücken wir das nur noch bei Dingen aus, nicht bei Personen. Man weiß ja nie, wie sich ein Mensch geschlechtlich gerade definiert.

Okay. Zurück zum Thema: Was ist der Emo-Input?
Wie soll ich das erklären? Die Patches auf meiner Haut messen den elektrischen Widerstand, die Temperatur, Puls, Blutsauerstoff, chemische Zusammensetzung, so etwas. Daraus errechnet das Gem meinen Gemütszustand, kann ableiten, ob ich vielleicht krank bin, auf jeden Fall aber, wie es mir geht. Ich kann in meinen Connects genau einstellen, wie viel mein Bruder und meine Freundixe davon mitbekommen sollen oder dier Kollegix, mit diem ich gerade connected bin.
Der Connect gibt der Gruppe permanent Updates, wenn eina von uns gerade traurig ist, oder auch, wenn sich jemand sehr freut. Je nach Einstellung bekomme ich sofort ein Bild der Situation dazu. Die meisten Menschen übertragen zusätzlich einen simplen Farbcode an alle, denen sie begegnen. Das gilt als höflich. Ich sehe durch meinen Augen-Biofilm also bei vielen Passantixen, wie sie gerade drauf sind. Wer mit einer blauen Aura leuchtet, ist entspannt und ruhig. Rot heißt: Komm mir nicht zu nah!

Die „Connects“ sind also die Nachkommen der sozialen Medien?
Na ja, „soziale“ Medien – und das muss man in Anführungszeichen setzen – gibt es nicht mehr. Die zweite Amtszeit von Donald Trump in den USA hätte fast zum Dritten Weltkrieg geführt. Dann kamen die Fake-News-Conventions der Vereinten Nationen. Und seitdem dürfen einfache Usixe keine politischen Kommentare und Nachrichten mehr verbreiten, ohne dass sie die Beweise bei der jeweiligen Clearing-Stelle hinterlegt haben. Das ist recht mühsam, weswegen es nur noch Profis auf sich nehmen. Und wir anderen beschränken uns darauf, emotional Kontakt zu halten.

Benutzt eigentlich noch jemand Bildschirme, auf denen man durch Berührung Eingaben macht?
Als ich ein Kind war, hatte mein Opa einen Kühlschrank, den man mit so einem Ding einstellen musste. Aber zum Rumtragen? Nein. Dann könnte ja theoretisch jeder meinen Feed sehen. Das fände ich dann schon etwas zu privat. •


Dieser Text stammt aus unserer Redaktion Corporate Publishing.