Hallo, wer spricht da?

Die Frage, wem man im Netz noch glauben kann, wird immer schwieriger zu beantworten. Ist das der Beginn eines kommunikativen Kontrollverlustes? Und was könnte dagegen helfen?





• Olaf Scholz ist vieles, aber keine Quasselstrippe. Der Bundeskanzler gilt als einer, der sich zu wenig erklärt. Doch jüngst hörte man ungewöhnlich viel von ihm – vor allem Ungewohntes: „Solange wir Mist bauen“, so Scholz in einem Werbevideo, das ihn am Rednerpult des Bundestags zeigt, „so lange schreibt die »Bild«-Zeitung über diesen Mist. (…) Das ist hart.“

Das Video war manipuliert. Wer ganz genau hinsah, konnte im Video ein winziges „KI generiert“ entdecken, doch wer schaut im Netz schon genau hin? Zudem gibt es auch >> Deepfakes (siehe Infokasten unten) ohne solch Kleingedrucktes. Und selbst auf seriösen Websites wie der des »Spiegel« werden Werbeanzeigen eingeblendet, die Fotos einer angeblichen Verhaftung des TV-Talkers Markus Lanz zeigen. Wer die vermeintliche Nachricht anklickt, landet auf einer Seite, die aussieht wie von Tagesschau.de und wo behauptet wird, Lanz würde mundtot gemacht, weil er eine brillante Geldanlagestrategie habe verraten wollen.

Laut Ermittlern erwirtschaften die Fälscher mit der Masche weltweit Milliarden Dollar. Ihnen beizukommen ist schwierig: Online-Anzeigen werden heutzutage automatisiert ausgespielt und nicht mehr vorab geprüft. Medien wie »Spiegel« nehmen zwar irreführende Anzeigen von ihren Seiten, wenn sie darauf hingewiesen werden, aber am Ende bleibt es ein Katz-und-Maus-Spiel mit den Kriminellen.

Desinformation gibt es, solange wir Menschen uns untereinander austauschen. In der römischen Antike ließ Octavian – beispielsweise auf Münzen graviert – korrumpierende Propaganda über seinen beim Volk beliebten Widersacher Marcus Antonius verbreiten, um diesen beim Rennen um die kaiserliche Herrschaft abzuhängen. 1835 veröffentlichte eine New Yorker Zeitung eine sechsteilige Reihe über eine nicht existente Mondkolonie – und wurde dafür mit einem sprunghaften Auflagenanstieg belohnt. Josef Stalin und Mao Tse-tung waren dafür bekannt, politische Rivalen aus Fotos herausretuschieren zu lassen. Die Liste historischer Fake News ließe sich beliebig verlängern.

Der große Unterschied: Früher war es aufwendig, Fälschungen zu produzieren und zu verbreiten. Deshalb blieben sie den Reichen und Mächtigen vorbehalten. Heute kann jeder mit ein bisschen Übung ein täuschend echt wirkendes Bild wie das des Papstes in Daunenjacke herstellen. Auch die Manipulation von Stimmen oder Videoaufnahmen ist schnell gelernt, und die dazu nötigen Werkzeuge sind frei verfügbar.

Fälscher lieben KI

Was wir derzeit erleben, gleicht mehr und mehr einem kommunikativen Kontrollverlust. Nur vier Prozent der Europäerinnen und Europäer sind laut einer Studie der Bertelsmann-Stiftung vom März 2023 „nie unsicher“ über den Wahrheitsgehalt von Informationen im Internet. 54 Prozent der Befragten gaben an, häufig oder sehr häufig unsicher zu sein. Es wird also immer schwieriger zu entscheiden, welchen Informationen wir vertrauen können. Schon allein, weil wir oft zweimal hinschauen müssen, um herauszufinden, von wem eine Nachricht wirklich stammt.

„Das Gefühl des Kontrollverlustes, das einige verspüren, entstammt vor allem der Verunsicherung über den Absender“, sagt Nils Kumkar, Soziologe an der Universität Bremen und Autor des Buchs „Alternative Fakten“. „Sei es durch KI-Fälschungen, nachgebaute einzelne Nachrichtenwebseiten, aber auch dadurch, dass in den sozialen Medien die ursprüngliche Quelle nicht immer klar ersichtlich ist.“

Wie sich digitale Desinformation genau auswirkt, ist schwer zu messen. Dass sie Folgen hat, steht außer Frage. So denkt laut einer Umfrage des »Economist« einer von fünf jungen Menschen in den USA, der Holocaust sei ein Mythos – der Bildungsgrad spielt dabei keine Rolle. Es gibt aber Zusammenhänge zwischen starker Social-Media-Nutzung und antisemitischen Haltungen. Das verwundert nicht: Der mehrfach verurteilte rechtsextreme Verschwörungserzähler Alex Jones bekam bei X (ehemals Twitter) nicht nur sein gesperrtes Konto zurück – er wurde im Dezember 2023 vom X-Besitzer Elon Musk sogar in eine Talkshow eingeladen. Geleakte Unterlagen des Konzerns Meta zeigten wiederum schon 2021, dass Facebook es nicht einmal vermag, fünf Prozent der Hass-Inhalte von seiner Plattform zu löschen.

Wohin gezielte Desinformation im Netz führen kann, ließ sich in der vergangenen Dekade beobachten: So beruhte die Entscheidung des britischen Volkes zum Brexit im Jahr 2020 auf falschen oder irreführenden Informationen und wird inzwischen von der Mehrheit bereut, was die Wortschöpfung „Regrexit“ widerspiegelt.

Es gab in den Jahren davor bereits mehrere durch Hassbotschaften in den sozialen Medien befeuerte Gewalttaten an Unschuldigen in Indien, und auch die Vereinten Nationen berichteten 2018 über die „Normalisierung extremer Gewalt“ durch Aufstachelung in den sozialen Medien, wie bei den Völkermorden in Myanmar und Äthiopien. Auch der Sturm auf das Kapitol in Washington 2021 wurde im Netz geplant, koordiniert und durch dort gestreute Falschinformationen angeheizt.

Fachleute befürchten für das Superwahljahr 2024 Schlimmes – auch weil die neueste generative KI Fälschungen so einfach wie nie zuvor macht.

Nie war Kontext wichtiger

Der Soziologe Nils Kumkar warnt jedoch davor, zornige Facebook-Posts oder Youtube-Videos überzubewerten: „Social Media macht nicht unbedingt radikaler, aber es macht die Radikalen sichtbarer. Wir sehen klarer als früher, welchen Quatsch manche Menschen denken.“ Auch die Klage, dass es wegen digitaler Fake News keine gemeinsame Realität mehr gäbe, hält er für überzogen: „Ist es wirklich eine realistische Annahme, dass irgendwann restlos alle Menschen von den Fakten überzeugt sind? Das war früher doch auch nicht so.“

Der Stammtisch und der akademische Lesezirkel waren früher noch stärker getrennte Welten beziehungsweise >> Filterblasen. Durch zunehmende Social-Media-Aktivitäten werden verschiedene Gruppen sogar öfter mit dem jeweils anderen Ende des Meinungsspektrums konfrontiert – was nicht immer harmonisch ausgeht. Der Fachbegriff für dieses Phänomen lautet „Kontextkollaps“. Der tritt ein, wenn eine Information, die für ein bestimmtes Publikum gedacht war, ein anderes Publikum erreicht, das den ursprünglichen Kontext der Aussage nicht kennt.

Das führt in harmlosen Fällen zu Missverständnissen, in den schlimmsten Fällen zu Todesdrohungen. „Jeden Tag gibt es eine Hauptfigur auf Twitter. Das Ziel ist es, nie diese Person zu sein“, so brachte ein Nutzer die Häme, den Hass und das absichtliche Missverstehen auf den Punkt, die wegen einer aus dem Zusammenhang gerissenen Äußerung über einen Menschen hereinbrechen können.

Suchmaschinen von morgen

Das Problem des Kontextkollapses könnte sich künftig abschwächen. Denn wo es früher wenige große Plattformen gab, auf denen sich – zumindest für einige Jahre – sehr viele tummelten, konkurrieren inzwischen zahlreiche Angebote. Während sich X unter Elon Musk zu einer Hochburg von Rechtspopulisten und Kryptowährungsfans zu entwickeln scheint, feiert das Netz alle paar Monate einen neuen „Twitter-Nachfolger“: erst Mastodon, dann Bluesky, jüngst den Meta-Ableger Threads. Hinzu kommen Plattformen wie Reddit, Linkedin, BeReal, Instagram, Lemon8 oder Discord. Ob eine davon jemals die Größe und Bedeutung erlangt, die Facebook oder Twitter hatten, ist allerdings zu bezweifeln.

Auch Google könnte seine jahrelang gefestigte Vormachtstellung als Standard-Suchmaschine für nahezu die ganze Welt verlieren. Wer in jüngster Zeit etwas in die Suchmaske eingetippt hat, dürfte sich oft in einer mit SEO zu Tode perfektionierten, schlecht automatisch übersetzten oder miserabel KI-generierten Wortmüllhalde wiedergefunden haben. Statt den Kundinnen und Kunden die für sie nützlichsten Ergebnisse zu liefern, hat der werbefinanzierte Konzern eine schätzungsweise 77 Milliarden Dollar schwere Industrie von Tricksern zum Leben erweckt. Und die gehen so vor:

• Google belohnt Websites, auf die viel verlinkt wird, mit einem guten Ranking? Also werden sogenannte Backlinks gekauft, die auf die eigene Seite zurückverweisen und Bedeutung vortäuschen.

• Google wünscht sich eine gewisse Häufigkeit, mit der Schlüsselbegriffe in einem Text auftauchen sollen? Also werden Texte – immer häufiger auch mithilfe von KI – erzeugt, bei denen es weniger um den Inhalt geht, sondern um die richtige Frequenz solcher Wörter.

• Google favorisiert neue Inhalte gegenüber alten? Also werden immer neue Artikel zu viel Gegoogeltem à la „Wie bindet man eine Krawatte?“ erstellt – da Google eben nicht unbedingt die verständlichste Anleitung oben anzeigt, sondern eher die neueste.

Kurz gesagt: Viele Web-Inhalte werden nicht mehr für Menschen erstellt, sondern für Googles Crawling-Programme, die das Netz durchforsten und das Gefundene bewerten. Google ist dieses Problem bewusst. Das Unternehmen hat in den vergangenen anderthalb Jahren mehrere Algorithmus-Updates namens Helpful Content veröffentlicht, die nicht hilfreiche Inhalte zurückstufen. Das Katz-und-Maus-Spiel geht also in die nächste Runde.

Ob KI-Systeme wie OpenAIs ChatGPT, Microsofts Bing oder Googles eigene Projekte Bard und Gemini die Suchmaschinen der Zukunft werden, lässt sich noch nicht sagen. Einerseits erlauben diese Systeme Nachfragen und können sich gewisse Grundanforderungen oder Vorlieben der Menschen merken – also relevantere individuellere Ergebnisse liefern. Andererseits steht zu befürchten, dass durch den Boom an generativer KI die Menge minderwertiger Netzinhalte eher noch zunimmt. Die zehn besten Gartengrills! Entdecken Sie diese Wunderkur für Ihren Darm! Die Bundesbank will nicht, dass Sie von diesem Trick erfahren! Immer mit Verkaufs-Links, die den Website-Machern und Traffic-Schauflern eine Provision einbringen.

Bewusster Rückzug

Doch was tun gegen Desinformation, gefälschte oder lieblos zusammengeschusterte Texte und immer toxischer anmutende sogenannte soziale Netzwerke? Einige Menschen suchen ihr Heil im Rückzug und ignorieren gleich alle Medien. >> News Avoidance oder News Fatigue – also die Vermeidung von oder die Erschöpfung durch Nachrichten – sind aktuell ausgerufene Trends, angeblich vor allem unter jungen Menschen. Doch ist jemand, der sich ab und zu für ein Weilchen ausklinkt, aus dem permanenten >> Doomscrolling von Nahostkonflikt bis Klimakrise, wirklich ein Nachrichten-Muffel? Oder sind solche Pausen nicht eine sinnvolle Kulturtechnik, die es zu erlernen gilt, wenn man mit der modernen Informationsgesellschaft zurechtkommen möchte? „Früher gab es morgens die Zeitung und abends die Tagesschau“, sagt der Soziologe Kumkar. „Wer heute eine solche Nachrichtendiät pflegt, gilt bei den meisten vermutlich schon als schrulliger Eremit.“

Auch die Kommunikationswissenschaftlerin Friederike Herrmann, die an der Katholischen Universität Eichstätt lehrt, schwankt zwischen Sorge und Verständnis. „Natürlich nutzt ein Overkill an schlechten Nachrichten niemandem. Aber wenn die Nachrichtenvermeidung zulasten der politischen Meinungsbildung geht, wird es bedenklich.“ In jedem Fall sieht sie auch die Medien in der Pflicht: „Wir brauchen einen konstruktiven Journalismus, der sich nicht nur auf Skandale und Katastrophen fokussiert. Diese dürfen sicherlich auch nicht ausgeblendet werden, benötigen aber Kontext und Hintergrundinformationen.“

Technische Lösungen wie Wasserzeichen, mit denen KI-erzeugte Inhalte markiert werden sollen, halten Kumkar und Herrmann für sinnvoll, aber nicht ausreichend. Denn: „Es wird immer Gruppen geben, die alles tun, um ihre Desinformation zu tarnen“, sagt Herrmann. Seriösen Medien empfiehlt sie, vorsichtig mit KI umzugehen und ausnahmslos kenntlich zu machen, wenn sie die Technik zum Erstellen von Inhalten verwenden.

Überschätzt: Fakten

Ein anderes Mittel gegen Propaganda und Desinformation sind Faktenchecks. Sie haben in den vergangenen Jahren einen Aufschwung erlebt und sind zu einem eigenen Genre geworden. Doch auch sie sind kein Allheilmittel (siehe Interview mit Thomas Laschyk, dem „Volksverpetzer“).

Zum einen wird bei den meisten Faktenchecks die Falschinformation vor der Richtigstellung noch einmal wiederholt, erfährt also zusätzliche Verbreitung. Zum anderen besteht die Gefahr, dass die Diskussion um Details kreist, statt um die wirklich relevanten Fragen. Wenn Friedrich Merz mit seiner Aussage, Asylsuchende nähmen den Deutschen die Zahnarzttermine weg, gezielt Stimmung gegen Fremde macht: Wie sinnvoll ist es dann, minutiös nachzurecherchieren, in welchem Monat nach Asylantrag welche Zahnbeschwerden ab welcher Schmerzschwelle wie schnell behandelt werden?

Nils Kumkar bezeichnet in seinem Buch „Alternative Fakten“ solche Debatten als „diskursive Nebelkerzen“, die es zu erkennen und benennen gelte. „Es ist sicherlich wichtig, die Fakten richtigzustellen und beispielsweise zu verhindern, dass Menschen Chlorbleiche trinken, weil ihnen jemand weismacht, das helfe gegen Corona“, sagt er. „Aber wir dürfen uns von Faktenchecks nicht abhalten lassen, über die eigentlich relevanteren Themen zu diskutieren.“

Friederike Herrmann arbeitet gerade an einem Forschungsprojekt zum Thema Desinformation. Detaillierte Ergebnisse gibt es noch nicht, die Studie läuft noch. Fest stehe aber bereits, dass Emotionen Menschen anfällig für Desinformationen machen, sagt sie. In der Corona-Pandemie seien es oft Angst oder Ohnmachtsgefühle gewesen. Der Migrationsdebatte lägen Neid oder Abstiegsängste zugrunde. „Diese Emotionen kennen wir alle, geben sie aber nur ungern zu“, sagt Herrmann. „Sie bereiten Desinformation den Boden, und man kommt mit Fakten auch nur bedingt dagegen an.“ Journalisten sollten also auch überlegen, welche Emotionen ein Beitrag auslösen kann. „So wie seriöse Medien keine Unwahrheiten schreiben, nur um Klicks zu schinden, sollte es auch selbstverständlich sein, dass sie keine Dinge publizieren, die zwar nicht falsch sind, aber nur darauf ausgelegt, Emotionen zu triggern.“

Und nun? ¯\_(ツ)_/¯

Es führt selten weiter, die Vergangenheit zu idealisieren, wenn es um Herausforderungen der Gegenwart geht. Blindlings glauben, was in Großbuchstaben auf Zeitungstiteln prangte, konnte man früher auch nicht. In manchen Fällen ist die Verunsicherung, die wir aktuell empfinden, das typische Ergebnis eines Technologiesprungs. Etwas Ähnliches erlebte die Menschheit vor fast 600 Jahren mit dem Buchdruck. Heute ist es die generative KI, die täuschend echte Videos vom Bundeskanzler erstellt oder Fotos vom Papst in weißem Daunenmantel. In beiden Fällen braucht es Zeit, bis unsere gesellschaftlichen Konventionen und unsere innere Verfasstheit mit diesen technischen Neuheiten mithalten. Manchmal sind gesetzliche Regelungen vonnöten, wie bei der Vergabe von Rundfunklizenzen oder dem Verbot von Holocaust-Leugnung oder rassistischen Äußerungen. In anderen Fällen wird es technische Lösungen geben, die uns helfen. So wie Spam-Filter die Antwort darauf waren, dass E-Mails es möglich machten, anderen Menschen den digitalen Briefkasten nahezu kostenfrei vollzumüllen.

Mit gewissen Unsicherheiten wird die Menschheit leben müssen. Sie hat gelernt, dass etwas nicht wahr oder klug ist, nur weil es in einem gedruckten Buch steht. Ebenso, dass afrikanische Prinzen, die per E-Mail Reichtümer versprechen, in der Regel keine Prinzen sind. So werden die Menschen auch lernen, dass hinter einem Anrufer, der genau wie ein naher Verwandter klingt und von Geldnot berichtet, auch eine Sprach-KI stecken kann. Sie werden lernen, nicht sofort auf den Teilen-Button zu klicken, wenn sie sich über etwas ärgern, das sie „im Netz“ gelesen haben. Sondern sich zu fragen, worüber sie sich gerade aufregen und wer ein Interesse daran haben könnte. Eine gesunde Skepsis, digitale Medienkompetenz und das Erlernen eigener Verifikationstechniken werden noch wichtiger und irgendwann selbstverständlich werden.

Das kann eine Weile dauern, und Rückschläge sind zu erwarten. Die gute Nachricht: Es kann gelingen, so wie es schon früher gelungen ist. Die schlechte Nachricht: Neue Techniken werden neue Herausforderungen bringen. So war es, und so wird es immer sein. Oder wie Nils Kumkar es formuliert: „Kommunikation ist immer Kontrollverlust.“

GLOSSAR

>> Deepfakes
sind manipulierte Medieninhalte, in denen beispielsweise eine Person täuschend echt durch eine andere ersetzt wird. Oder in denen Personen Dinge tun oder sagen, die sie in Wirklichkeit nicht getan oder gesagt haben. Um solche Bilder, Audio- oder Videoaufnahmen zu erstellen, nutzt man Deep Learning, eine Form von künstlicher Intelligenz. Deepfakes kommen in Desinformationskampagnen vor oder zielen darauf ab, den Ruf einzelner Menschen zu beschädigen. Es gibt aber auch legitime Deepfakes, zum Beispiel in der Unterhaltungsindustrie. Im fünften Teil der „Indiana Jones“-Filmreihe konnte der beim Dreh 80-jährige Harrison Ford mithilfe von KI die Rolle des rund 40 Jahre jüngeren Indiana Jones noch einmal glaubwürdig übernehmen. Voraussetzung für seriöse Deepfakes: Alle Beteiligten müssen einverstanden sein.

>> Filterblasen
Die Filterblasen- oder Filterbubble-Theorie wurde vom US-amerikanischen Internetaktivisten Eli Pariser geprägt, der 2011 ein gleichnamiges Buch veröffentlichte. Pariser beschreibt, wie durch personalisierte Such- und Empfehlungssysteme im Internet eine geistige Isolation entstehen kann. Immer leistungsfähigere Empfehlungsalgorithmen sorgten dafür, dass Menschen irgendwann keine Informationen mehr sehen, die nicht zu ihrer Meinung passen. Inzwischen wird die Theorie der Filterblasen zunehmend infrage gestellt. So ließ sich etwa zeigen, dass Menschen bei Facebook durchaus mit Informationen konfrontiert werden, die von ihrer eigenen Haltung abweichen – sie nehmen diese nur nicht immer zur Kenntnis. Auch die These, Menschen mit unterschiedlicher politischer Haltung, würden unterschiedliche Google-Ergebnisse angezeigt, ließ sich nicht bestätigen.

>> Doomscrolling (Doomsurfing)
Das Kofferwort („doom“ bedeutet Untergang, „scrolling“ das Blättern auf Smartphones oder anderen digitalen Geräten) steht für exzessives Lesen von meist negativen Nachrichten im Internet. Menschen neigen dazu, Krisen durch ständige Informationsaufnahme besser verstehen oder ein Gefühl von Kontrolle erlangen zu wollen. Doch übermäßiges Doomsurfing kann negative Auswirkungen auf die Psyche haben und ein Gefühl der Hilflosigkeit auslösen. Während Printmedien und Nachrichtensendungen im Rundfunk einen Anfang und ein Ende haben, sind viele Apps und Websites mit einem endlosen Fluss neuer Nachrichten so gestaltet, dass sie ein zeitlich unbegrenztes Doomscrolling ermöglichen.

>> News Avoidance
bedeutet bewusstes Vermeiden von Nachrichten – vor allem solche, die als belastend empfunden werden. Das Phänomen hat in den vergangenen Jahren an Bedeutung gewonnen. Unterschieden wird zwischen dem Vermeiden aller Arten von Nachrichten und nur solchen zu bestimmten Themen. Erhebungen legen nahe, dass Frauen sowie jüngere, schlechter gebildete und viel soziale Medien nutzende Menschen sich häufiger dafür entscheiden, Nachrichten zu vermeiden. In Deutschland versuchen laut einer Umfrage des Hans-Bredow-Instituts, rund 10 Prozent der Menschen, oftmals Nachrichten zu vermeiden. 65 Prozent tun dies gelegentlich.



WIE WIR ARBEITEN: DER BRANDEINS-FAKTENCHECK

Jeder Text in unserem Magazin wird vor Erscheinen von unserer Dokumentationsabteilung auf sachliche Richtigkeit geprüft. Stimmen Namen, Daten, Ortsangaben, Zahlen und Fakten? Sind Zitate korrekt belegt? Beruhen Tatsachenbehauptungen auf unabhängigen und / oder glaubwürdigen Quellen? Stimmt der Kontext, enthält der Text logische Widersprüche? All dies schauen sich unsere Kolleginnen und Kollegen genau an und korrigieren die Artikel, falls nötig, in Rücksprache mit den Autorinnen und Autoren.