Partner von
Partner von

Die Welt in Zahlen

Alles wird zu Daten. Auch die Reputation. Das schafft vor allem Probleme.




Herr Mau, wie lässt sich etwas so Subjektives wie die Reputation empirisch erfassen?

Steffen Mau: Reputation ist keine feststehende, individuelle Eigenschaft, sondern eine soziale Zuschreibung. Andere beobachten und beurteilen uns, daraus entsteht unser Ansehen. Wie solche Zuschreibungen entstehen und wie sie kommuniziert werden, das kann man beobachten.

Wie zum Beispiel?

Status-Daten spielen dabei eine große Rolle, etwa die Zahl der Follower auf Social-Media-Plattformen oder Sterne-Ratings. Diese Daten vermitteln Informationen darüber, wo jemand steht und welche Reputation er besitzt. Das ist aber nicht mehr die lokal gebundene, subjektive, auf Hören-Sagen und persönlicher Wahrnehmung beruhende Zu- schreibung von Reputation, sondern eine Form der Quantifizierung, die für viele Menschen einsehbar ist.

Reputation wird in Zahlen übersetzt?

Ja, genau. Diese Zahlen sind so etwas wie geronnenes soziales Kapital. Das hat Vor- und Nachteile: Zahlen verdichten Information und erlauben Vergleich- barkeit. Im Amerikanischen sagt man „numbers can travel“. Das bedeutet, dass Zahlen den Ort, an dem sie erhoben wurden, also ihren Ursprungsort, verlassen können, ohne dabei ihren Informationsgehalt zu verlieren. Allerdings ist der Preis dafür, dass komplexe Sachverhalte auf eine Zahl reduziert werden.

Um die Qualität eines Sachverhalts wirklich zu erfassen, brauche ich aber oft Kontextwissen. Und das entfällt, wenn ich nur eine Zahl habe. Kennzahlen und Indikatoren machen es relativ einfach, über alles eine Bewertung zu entwickeln, ohne die Materie im Detail zu durchdringen. Aber auch das hat Vor- und Nachteile.

Können Sie das konkretisieren?

Nehmen Sie meinen eigenen Bereich, die Wissenschaft. Die Reputation einer Wissenschaftlerin oder eines Wissenschaftlers hängt heute unter anderem von der Zahl der eigenen Veröffentlichungen ab und vom Ansehen der Journals, in denen sie publiziert wurden. Hinzu kommt der sogenannte Impact, die Wirkung der Texte. Sie wird aus der Zahl wissenschaftlicher Aufsätze abgeleitet, die daraus zitieren. Das wird wiederum in Zitations-Indizes erfasst, die so ebenfalls wissenschaftliche Reputation in Zahlen übersetzen – und die Geschäftsgrundlage von Fake-Journals sind, die allein dazu dienen, dass Wissenschaftler Veröffentlichungen nach- weisen können.

Nichtsdestotrotz werden diese Zitations-Indizes in Berufungsverfahren benutzt, um die Eignung eines Bewerbers für eine Professur zu bewerten. Natürlich ist allen Beteiligten klar, dass die Qualität und Bedeutung wissenschaftlicher Arbeit nicht auf solche Kennzahlen reduziert werden kann. Aber schon weil niemand alle Veröffentlichungen im Detail überprüfen kann, werden die Zitations-Indizes in Evaluations-Prozessen herangezogen.

Eine Finanz-Tochtergesellschaft der chinesischen Alibaba Group hat andere Reputations-Kennzahlen entwickelt. Das Sesame Credit ist ein Punktesystem zur Erfassung der Kreditwürdigkeit von Personen, ähnlich wie Schufa-Daten. Doch diese Kennzahl wird anscheinend nicht nur für die Beurteilung der Kreditwürdigkeit herangezogen.

Die Zahlen dieses Credit-Scoring-Systems werden zum Beispiel auf Online-Partnerbörsen oder bei der Wohnungssuche benutzt. Eine gute Bewertung durch Sesame Credit erhöht die Chancen oder wird sogar zur Voraussetzung, um auf entsprechenden Plattformen Partner oder Wohnungen zu finden. Auch diese „numbers can travel“.

Meine Kreditwürdigkeit charakterisiert und bewertet mich dann auch in völlig anderen Zusammenhängen?

Sozialanalytisch ist das eine Form der Entdifferenzierung. Eigentlich funktionieren unterschiedliche soziale Subsysteme wie Kreditmarkt, Heiratsmarkt, Arbeitsmarkt, Wohnungsmarkt nach einer jeweils eigenen Logik. Doch die Zahlen aus dem Credit-Score-System führen zu neuen Kopplungen und integrieren unterschiedliche Lebensbereiche. Die Informationen, die aus einem bestimmten Bereich kommen und eigentlich nur darauf zugeschnitten und zudem relativ voraussetzungsreich sind, werden auf andere Bereiche übertragen.


Bei Menschen mit niedrigem Score und hohen Schulden hört man bei Telefonanrufen zuweilen sogar eine amtliche Ansage: ,Sie sprechen jetzt mit einer Person, die verschuldet ist.‘

Das gilt auch für Bewerbungen: Es ist für einen Arbeitgeber vielleicht nicht nur interessant, welche fachliche Qualifikation jemand hat, sondern auch, wie viele und welche Follower er in sozialen Netzwerken hat, wie der Gesundheits-Score aussieht oder der Credit-Score. Sogar der Zugang zu öffentlichen Dienstleistungen wird immer häufiger über den Score gesteuert.

Der Sesame-Credit-Score ist ein Produkt des autoritären chinesischen Staatskapitalismus. Wie sehen im demokratischen Westen Reputations-Scores aus?

Es gibt zahlreiche Anbieter für unterschiedliche Reputations-Scores. Ich war bis Juli Fellow in Harvard. Wenn man in den USA einen Babysitter engagieren will, wird man relativ schnell darauf hingewiesen, dass es riskant ist, unbekannten Menschen die eigenen Kinder anzuvertrauen. Doch es gibt die Website Mylife.com, auf der man sich für fast jede in den USA lebende Person einen Reputations-Score von 0 bis 5 anzeigen lassen kann. Dafür werden alle möglichen Online-Profile durchsucht und frei zugängliche Informationen erfasst wie die bisherigen Wohnorte, mögliche Schulden, Geschwindigkeitsübertretungen im Straßenverkehr oder Vorstrafen. All das führt zu einer bestimmten Reputationsbewertung, die ein Signal zum Beispiel für Eltern auf der Suche nach einem Babysitter sein können. Der Algorithmus, der den Score berechnet, ist ein Geschäftsgeheimnis.

Wenn jemand aus sozial schwachen Wohngegenden mit höheren Kriminalitätsraten kommt oder etwa Verwandte hat, die wegen Bagatell-Delikten vorbestraft sind, sorgt das für eine schlechtere Reputations-Bewertung?

Das ist so. Auch wenn diese Person sich nichts hat zuschulden kommen lassen und vielleicht ein wunderbarer Babysitter wäre. Wer einmal durch eine negative Bewertung, wie immer sie auch entstanden sein mag, eine digitale Narbe hat, wird in solchen Rankings schlecht abschneiden.

Eltern werden dazu tendieren, Baby- sitter mit einer guten Mylife.com-Zahl auszuwählen, und sich die anderen gar nicht ansehen. Bewerber mit einem ungünstigen Score werden aus dem Markt gedrängt. Sie sitzen in einer digitalen Reputations-Falle, denn sie haben keine Möglichkeit, zu beweisen, dass sie etwa vertrauenswürdige Babysitter sind. Die Mylife.com-Bewertung wird für alle möglichen Job-Bewerbungen benutzt, aber auch bei der Auswahl von potenziellen Mietern.

Sie beschreiben Mechanismen einer digitalen Diskriminierung.

Das ist ein möglicher Effekt solcher gut sichbarer Reputations-Scores. Sie stellen relativ starre, undifferenzierte Hierarchien und Reputations-Festschreibungen her. Wenn sie wie Mylife.com einfach verfüg- bar sind und millionenfach benutzt werden, kann das weitreichende Folgen haben. Für den Einzelnen besteht immer die Gefahr, dass bestimmte Fehlleistungen in der Vergangenheit oder auch unglückliche Zufälle überbewertet werden und zu einer Stigmatisierung führen, der man schwer entkommen kann.

Die Algorithmen, die den Score bei Sesame Credit oder Mylife.com berechnen, sind nicht transparent. Und trotzdem machen Millionen Menschen, die diese Zahlen nutzen, um einen Babysitter, einen Mieter oder ein Partnerbörsen- Date zu finden, ihre Entscheidungen davon abhängig.

Solche Bewertungssysteme nutzen Daten aus der Vergangenheit einer Person zur Prognose des wahrscheinlichen Verhaltens in der Zukunft. Haben Sie dafür noch andere Beispiele?

Viele amerikanische Gerichte nutzen die Software „Compas“ (Correctional Offender Management Profiling for Alternative Sanctions). Sie soll die Rückfälligkeitswahrscheinlichkeit von Ange- klagten und Strafgefangenen mit einem individuellen „Risk Score“ von 1 bis 10 berechnen. Dieser Risk Score hat signifikanten Einfluss auf Gerichtsentscheidungen über Strafmaß oder vorzeitige Haftentlassungen. Compas ist bei US-Gerichten relativ weit verbreitet und wird standardmäßig genutzt. Auch hier fließen viele Daten in die Bewertung ein, auf die der Betreffende nur bedingt Einfluss hat, etwa Vorstrafen und andere Auffälligkeiten in seiner Familie.

Der digitale Schatten aus der Vergangenheit kann zur Folge haben, dass auch vergleichsweise harmlose Delikte bei ungünstigen Prognosen mit zum Teil drakonischen Haftstrafen geahndet werden. Unabhängige Studien haben gezeigt, dass die Prognose-Qualität von Compas nicht besonders gut ist. Schwarze beispielsweise werden im Risk Score schlechter bewertet, auch wenn ihre tatsächlichen Rückfallquoten geringer sind als Compas berechnet. Auch bei Compas ist der Algorithmus, der den Risk Score berechnet, nicht hinreichend transparent.

Weshalb ist das Programm bei amerikanischen Gerichten so beliebt?

Weil es scheinbar objektive Entscheidungsgrundlagen in Form von Zahlen liefert. Ein Teil der Gerichtsentscheidung wird an den Algorithmus delegiert. Das kann man auch in anderen Bereichen beobachten. Eine US-Politikwissenschaftlerin hat das in einer aktuellen Studie untersucht, sie spricht von „digitalen Armenhäusern“.

Die Einführung der Digitalisierung im Bereich der Sozialhilfe in einigen amerikanischen Bundesstaaten führt zu stark automatisierten Prozeduren und Entscheidungen, etwa über Gewährung oder Kürzung von Sozialhilfe oder die Einweisung von Kindern in Heime. Algorithmische Bewertungsverfahren ersetzen so menschliche Entscheidungen. Doch es ist eine Illusion, zu glauben, dass Entscheidungen, die auf Algorithmen basieren, immer objektiv, rational und fair sind. Ein scheinbar objektives Kriterium wie die Kriminalitätsrate in einer Wohngegend etwa führt als Indiz für die Rückfallwahrscheinlichkeit zu sozialer und rassistischer Diskriminierung. So werden Klassifizierungen, Hierarchien und unter Umständen sozialer Ausschluss produziert, und da das Zustandekommen einer solche Bewertung für den Betroffenen in der Regel nicht transparent ist, sind die Möglichkeiten zum Widerspruch sehr beschränkt.


Es ist eine Illusion zu glauben, dass Entscheidungen, die auf Algorithmen basieren, immer objektiv, rational und fair sind.

Gilt das auch für das chinesische Social-Credit-System, das die Regierung seit vier Jahren entwickelt und zunehmend flächendeckend einsetzt?

Das System soll für jeden einzelnen Bürger alle relevanten Daten erfassen, vom Verhalten in der Öffentlichkeit über die Konsumaktivitäten bis zur Systemtreue. In die Bewertung sollen möglichst alle sozialen Interaktionen und Aktivitäten eingehen: ob jemand bei Rot über die Straße geht, ob er oder sie Überstunden macht, regelmäßig die Eltern besucht, online die New York Times liest oder in der Öffentlichkeit Alkohol trinkt.

Diese Daten werden dann zu einer Bewertungszahl, dem Social-Credit-Score, zusammengeführt. Dabei ist es offensichtlich möglich, dass politisch unerwünschte Verhaltensweisen und Einstellungen, etwa die Nutzung bestimmter Internet-Seiten, mit Punktabzug bestraft werden.

Das Ziel des chinesischen Social-Credit-Systems ist die Installierung einer umfassenden digitalen Kontroll- und Überwachungsgesellschaft, die die Bürger auf bestimmte Verhaltensparameter konditioniert. Die Kommunistische Partei Chinas nennt das die „Mentalität der Ehrlichkeit“ in der „harmonischen Gesellschaft“ mit wohlerzogenen, nicht verhaltensauffälligen, politisch angepassten Bürgern.

Es geht nicht nur um Beobachtung, sondern auch um Verhaltenssteuerung?

Sonst könnte das Social-Credit-System ja unsichtbar arbeiten wie früher die Stasi. Aber der Score ist öffentlich. Es genügt nicht, dass die Staatsorgane den Score kennen – man möchte ein reaktives System. Jeder Bürger soll wissen, wie er selbst und die anderen bewertet werden, welches Verhalten mit Plus- oder Minuspunkten honoriert oder sanktioniert wird. Der Social Score soll Eingang finden in die alltägliche zwischenmenschliche Kommunikation. Das geht bis zum öffentlichen Blaming und der Bestrafung von Bürgern mit niedrigem Score.

Angekündigt wurde das Projekt 2014, derzeit wird es in einigen Städten und Regionen erprobt. Ist der Versuch einer feinmaschigen Kontrolle aller Aktivitäten von 1,4 Milliarden Menschen also schon eine digitale Realität?

Technisch ist das offenbar machbar. In China gibt es kaum Gegenbewegungen, die den Schutz von Persönlichkeitsrechten einfordern. Offenbar findet es sogar eine frappierend große Zustimmung der Bürger. Die großen chinesischen Internetkonzerne wie Alibaba oder Tencent kooperieren mit den staatlichen Stellen. In der nächsten Stufe wird in Verbindung mit biometrischen Erfassungssystemen wie Iris-Scan oder Gesichtserkennung jeder Passant im öffentlichen Raum identifizierbar sein. Wenn man all diese permanent generierten Daten zusammenführt, sind das pro Person Hunderttausende Daten, die in die laufende Berechnung des Scores eingehen können.

Was bedeutet das für den Einzelnen?

Die Folgen sind weitreichend. Weil der chinesische Staat starken Einfluss auf den Zugang zu Gütern, Dienstleistungen und Ressourcen hat, etwa bei Wohnungen, Arbeitsplätzen oder Studienplätzen, hat er viele Möglichkeiten, ein digitales Bestrafungs- und Belohnungssystem zu implementieren. Schon jetzt durften aufgrund ihres schlechten Scores mehr als 15 Millionen Chinesen weder Schnellzüge noch Flugzeuge benutzen – ihnen wurden keine Fahrkarten oder Flugtickets verkauft. Ihr Score führte also zu massiven Einschränkungen der Bewegungsfreiheit.

Bei Menschen mit niedrigem Score und hohen Schulden hört man bei Telefonanrufen, so wird berichtet, zuweilen sogar eine amtliche Ansage: „Sie sprechen jetzt mit einer Person, die verschuldet ist.“ Das zeigt, wie der Score die Alltagskommunikation durchdringen soll. Offenbar stoßen solche Sanktionen in China aber durchaus auf Akteptanz und keine allzu große Gegenwehr.

Sorgt das für neue Formen der Konkurrenz um eine vorteilhafte Bewertung durch Social-Score-Systeme?

Das ist nicht nur ein Effekt des chinesischen Social-Credit-Systems. Ganz allgemein können solche Reputations-Bewertungssysteme zu einer Hyperindividualisierung und gesellschaftlichen Entsolidarisierung führen. Die Daten stellen eine Vergleichsperspektive her und erlauben eine Universalisierung des Wettbewerbs: Alle vergleichen sich und konkurrieren mit allen. Jeder muss sich permanent darum bemühen, gute Bewertungen und Reputations-Scores zu erhalten, schon weil diese Zahlen Auswirkungen auf alle möglichen Lebensbereiche haben können, vom Arbeits-, Wohnungs- oder Heiratsmarkt bis zu den Konditionen für Kredite oder Versicherungen.

Ein aktuelles Beispiel für das digitale Bewertungsregime: Die US-Regierung strebt an, dass die Behörden bei Entscheidungen über die Erteilung von Visa auf Social-Media-Daten zurückgreifen können. Wer mit Leuten kommuniziert, die irgendwann mit Leuten kommuniziert haben, die aus welchen Gründen auch immer in den Augen der US-Sicherheitsbehörden verdächtig sind, bekommt unter Umständen kein Visum mehr. Harmlosere Alltagsbeispiele sind Ubertaxis oder Airbnb-Wohnungen, auf die Sie mit schlechtem Score im jeweiligen System unter Umständen nicht mehr zugreifen können.

Offenbar müssen nicht nur Unternehmen, sondern auch die einzelnen Bürger als Konsumenten, Arbeitnehmer, Versicherungskunden oder Kreditnehmer über das eigene Reputations-Management nachdenken?

Schon jetzt bieten Firmen privaten Nutzern als bezahlte Dienstleistung an, die Zahl ihrer Social-Media-Follower zu erhöhen. Wenn man die schöne, neue Datenwelt zu Ende denkt und davon ausgeht, dass Status-Daten eine immer größere Rolle spielen, liegt es im Interesse des Individuums, sich um gute Reputations-Scores zu kümmern. Wenn die zum verwertbaren Reputations-Kapital werden, muss man sich in Bezug auf die eigenen Daten unternehmerisch verhalten und zum Beispiel in bessere Bewertungen investieren.

Sind ein autoritäres Regime wie in China und die sicherheitsfixierten USA Vorreiter einer weltweiten Entwicklung?

Auch wenn Unternehmen in Deutschland auf diesem Gebiet noch vergleichsweise zurückhaltend agieren, sehen wir Reputations-Bewertungssysteme auch hier zumindest in Ansätzen bei Krankenkassen, im Bereich der Mobilität oder im Kreditwesen. Der Trend der zunehmenden Nutzung von Daten für Klassifikationsprozesse ist universell. Welche Folgen das für die individuellen Entfaltungsmöglichkeiten hat, wie es Konkurrenzprozesse verstärkt und wie stark die Reputation in einem sozialen Feld auf andere Felder abstrahlt, ist sicher sehr unterschiedlich. Das ist ein offener Prozess.

Meine Vermutung ist, dass zum Beispiel für Arbeitgeber das Auftreten von Mitarbeitern und Bewerbern in sozialen Medien oder ihre Gesundheits-daten zunehmend interessant werden. Wenn man eine private Krankenversicherung abschließen will und in der Lage ist, einen über viele Jahre gemessenen guten Gesundheitszustand mit einem Score oder Track-Record nachzuweisen, wird man auch in Deutschland in Zukunft bessere Chancen auf günstige Konditionen haben. Das ist ein allgemeiner Trend.

Europa und insbesondere Deutschland haben dabei bisher noch die Handbremse angezogen, und durch die neue EU-Datenschutz-Grundverordnung wurde das vorerst gestärkt. Als Wissenschaftler, aber auch als Privatperson hoffe ich, dass diese Handbremse noch länger intakt bleibt. //

Steffen Mau, geboren 1968, ist Professor für Makrosoziologie an der Humboldt-Universität zu Berlin. Im Suhrkamp-Verlag ist von ihm zuletzt erschienen: „Das metrische Wir. Über die Quantifizierung des Sozialen.“