So geht es weiter

Edge Computing, Blockchain, Dueling Neural Networks, Quantum Computing – sind die neuen Tools wirklich hilfreich? Oder nur ein Hype? Ein Überblick.





Worum geht’s?

Die Zahl der vernetzten Geräte nimmt ebenso zu wie die Zahl der Sensoren, die in jedem der Geräte stecken und permanent Daten generieren. Je größer die Datenmengen sind, die im Internet der Dinge (Internet of Things / IoT) kursieren, desto sinnvoller kann es sein, sie nicht mehr weit weg auf zentral gesteuerten Servern zu verarbeiten, also in der Cloud, sondern direkt vor Ort. Dieses Konzept nennt sich – analog zum Cloud Computing – Edge Computing. Zweckmäßig ist es beispielsweise dort, wo keine gute Netzabdeckung vorhanden ist und ein Hochladen in die Cloud nicht ohne Weiteres möglich wäre, etwa in der Landwirtschaft in abgelegenen Gegenden oder auf einer Offshore-Plattform.

Auf einer Ölplattform kann Edge Computing beispielsweise eingesetzt werden, um Druck-, Temperatur- oder Feuchtigkeitsdaten digital auszuwerten und bei Abweichungen, die auf einen drohenden Ausfall eines Motors oder Geräts hindeuten, vorzeitig Alarm zu schlagen. Dafür permanent alle Daten ans Festland zu funken wäre zu aufwendig, die bisherige Lösung war aber auch nicht optimal – warten, bis etwas kaputtgeht und dann telefonisch mit Experten vom Festland auf Fehlersuche gehen. Eine stetige digitale Auswertung der Daten vor Ort kann jedoch Abweichungen aufspüren, die dem menschlichen Auge entgehen, heißt es bei Noble, einem britischen Betreiber von Bohrplattformen, der die Technik jetzt einsetzt.

Edge Computing bietet sich immer dann an, wenn eine schnelle Verarbeitung von Daten nötig ist. Intel schätzt, dass ein selbstfahrendes Auto, ausgestattet mit mehreren Hundert Sensoren, auf einer achtstündigen Fahrt insgesamt etwa 40 Terabyte Daten generiert und verbraucht. Da diese Daten sofort ausgewertet werden müssen, sind selbst Übertragungsverzögerungen (die sogenannte Latenz) von einigen Millisekunden bereits kritisch.

Edge Computing ist keineswegs als Ersatz für Cloud Computing zu verstehen, sondern als Ergänzung in bestimmten Anwendungsbereichen. Kein Wunder also, dass mit Amazon, Microsoft und Google die großen Cloud-Dienstleister inzwischen auch alle Edge-Lösungen anbieten. Google zeigt, wie dabei Hard- und Software ineinandergreifen können: Mit dem Edge TPU hat das Unternehmen einen Chip vorgestellt, der speziell auf Edge-Anwendungen im Internet der Dinge zugeschnitten ist und mit der Cloud-IoT-Edge-Software zusammenarbeitet. Das ermöglicht etwa, dass eine Logistikfirma Videoaufnahmen von ihren Verladedocks von einem selbstlernenden System analysieren lassen kann und die dafür nötigen immensen Datenmengen nicht erst in die Cloud schicken muss. Das lernende System wurde zwar in der Cloud gebaut und wird auch dort trainiert, analysiert die Aufnahmen der Sicherheitskameras aber direkt vor Ort.

Im Bereich Datensicherheit muss sich mit Edge Computing allerdings ebenfalls einiges ändern. Es ist zwar vorteilhaft, wenn sensible Daten nicht mehr zu einem Cloud-Server geschickt werden müssen. Dafür müssen nun aber auch Endgeräte, denen durch Speicherung und Verarbeitung der Daten eine höhere Relevanz für die Sicherheit zukommt, besser geschützt und überprüft werden.

Wer hat’s erfunden?

Schwer zu sagen, denn im Grunde wechseln sich zentralistische Konzepte (wie Cloud Computing) und dezentrale (wie Edge Computing) in der Geschichte der Informatik immer wieder ab. Für den aktuellen Boom sind vor allem die rapide gesunkenen Kosten für Sensoren verantwortlich und die Möglichkeit, immer mehr Rechenpower auch in kleinste Geräte vor Ort zu packen.

Wie funktioniert’s?

Statt der klassischen Client-Server-Struktur, bei der ständig Daten zwischen vielen Endgeräten und einem zentralen Server hin- und hergefunkt werden müssen, findet bei Edge Computing bereits eine Vorverarbeitung am Gerät oder Sensor statt.

Wer braucht’s?

Edge Computing ist immer dann sinnvoll, wenn Daten vor Ort in Echtzeit verarbeitet werden sollen. Das ist bei selbstfahrenden Autos oder Virtual-Reality-Anwendungen wichtiger als bei einem Mülleimer, der gelegentlich meldet, wie voll er ist. Auch weit abgelegene Geräte und Sensoren mit schlechter Konnektivität, höhere Sicherheitsanforderungen und steigende Kosten können für Edge Computing sprechen.

(Entwicklung von 2011 bis 2019)

1 $
Februar 2011

10 $
Juni 2011

100 $
April 2013

1.000 $
November 2013

10.000 $
November 2017

4.000 $
November 2018

10.000 $
August 2019

Worum geht’s?

Es ist vor allem der Spekulationsblase um die Kryptowährung Bitcoin geschuldet, dass in den vergangenen zwei Jahren so gut wie jeder von Blockchain gehört hat. Das Prinzip klingt auch überzeugend: Blockchain ist ein dezentrales Verzeichnis, das von allen daran Beteiligten fortgeschrieben wird – verschlüsselt, aber öffentlich einsehbar – und das somit immun gegen Manipulation sowie unabhängig von Mittelsmännern ist. Mit der Blockchain-Technologie, sagen ihre Verfechter, ließe sich nicht nur das Bankensystem revolutionieren, sondern auch Lieferketten, Krankenakten oder Versicherungen besser, sicherer und effektiver machen.

Das Problem: Von den vielen Visionen ließ sich bisher keine uneingeschränkt und in großem Stil in die Realität umsetzen. Stattdessen zeigten sich diverse Hürden. Dank der langen Datenketten und der zahlreichen Kopien, sind die Kapazitäten und Skalierungsmöglichkeiten begrenzt, außerdem ist der Energie- und Rechenaufwand enorm. Das große Interesse an der Blockchain-Währung Bitcoin basierte auch nicht etwa darauf, dass sie sich als praktisches digitales Zahlungsmittel durchgesetzt hätte. Im Gegenteil: Transaktionen können zu Stoßzeiten mehrere Stunden dauern, weil das Protokoll maximal sieben Transaktionen pro Sekunde ermöglicht (zum Vergleich: Visa verarbeitet im Durchschnitt mehr als 1700 Transaktionen pro Sekunde und hat nach eigenen Angaben Kapazitäten für 65 000 Transaktionen pro Sekunde). Die Bitcoin-Euphorie, die den Kurs Ende 2017 auf mehr als 15 000 Euro schnellen ließ, fußte also nicht auf einem verbesserten digitalen Bezahlsystem, sondern nur auf der Hoffnung, dass der Kurs immer weiter steigen würde. Was er nicht tat. Mit ihm brachen auch die Kurse von alternativen Blockchain-Währungen wie Ethereum oder Litecoin ein.

„Number go up“ – auf diesen Slogan für ewig steigende Kurse lasse sich die gesamte Bitcoin-Euphorie reduzieren, meint der Blockchain-Experte David Gerard. „Es gibt im Grunde nur drei Arten von Blockchain-Projekten“, sagt der Autor des Buches „Attack of the 50 Foot Blockchain“: „1. Die gescheiterten. 2. Einige wenige, die mit Gewalt in Position gebracht wurden und vielleicht nichts kaputt gemacht haben, aber auch nichts Nützliches leisten. 3. Die gescheiterten, die mit massiven Verlusten und Betrug einhergingen. Wirkliche Erfolge: null.“

Auch die Analyse von 43 Blockchain-Projekten durch die drei Entwicklungsforscher John Burg, Christine Murphy und Jean Paul Pétraud ergab keinen einzigen Erfolg: „Wir fanden eine Vielzahl von Pressemitteilungen, Whitepapers und überzeugend geschriebenen Artikeln“, erklärten die Forscher. „Was wir nicht fanden, waren hingegen eine Dokumentation oder Beweise, dass die Blockchain die behaupteten Ziele auch erreicht hätte.“ Direkte Nachfragen bei den jeweiligen Firmen oder Organisationen hätten ebenfalls nichts ergeben: „Niemand war gewillt, uns seine Ergebnisse zu zeigen (…), obwohl sie sich transparente Prozesse und Abläufe auf die Fahnen geschrieben hat, bleibt die Branche selbst undurchsichtig.“ Projekte, die funktionieren, erweisen sich bei genauerem Hinsehen oft als schnöde Datenbanken. Auch Facebooks angekündigtem Libra-Projekt fehlen einige wichtige Eigenschaften einer echten Blockchain.

Das bedeutet natürlich nicht, dass sich Blockchain-Technologie nicht irgendwann tatsächlich sinnvoll einsetzen lassen wird. Doch bislang steht der Beweis, dass es sich nicht nur um ein theoretisches Konstrukt, sondern auch um eine praktikable, sinnvolle, sichere und skalierbare Lösung handelt, noch aus. Bei den größten Enthusiasten handelt es sich meist um Gründer von Blockchain-Firmen, Blockchain-Consultants, Investment-Plattformen oder Firmen, die mit Initial Coin Offerings (ICOs) Geld verdienen wollen. Unabhängige Experten sind fast immer skeptisch: „Den meisten Nutzen haben Blockchain-Pilotprojekte, wenn dadurch finanzielle Mittel für Datenbereinigung oder überhaupt für die Digitalisierung von Daten bereitgestellt werden“, sagt David Gerard. „Aber momentan liegen die Erfolge, die auch nur in die Nähe der Versprechungen kommen, noch in ferner Zukunft.“

Wer hat’s erfunden?

Der Bitcoin gilt als der Ursprung der Blockchain. Die Identität des Bitcoin-Erfinders oder der Erfindergruppe – Pseudonym Satoshi Nakamoto – konnte bis heute nicht zweifelsfrei geklärt werden.

Wie funktioniert’s?

Der vielleicht einfachste Vergleich ist das sogenannte Kerbholz: Früher wurden Schulden oft mit Kerben in zwei nebeneinandergelegten Holzstücken gekennzeichnet, von denen eines der Schuldner und das andere der Gläubiger bekam. Keiner konnte an den Kerben etwas ändern, ohne dass die Manipulation beim nächsten Anschauen aufgefallen wäre.

Wer braucht’s?

Da die Technologie extrem vielseitig ist, ließe sie sich in zahllosen Bereichen einsetzen, im Grunde überall, wo Daten verwaltet werden. Doch dazu müsste sie erst einmal wirklich funktionieren.

Worum geht’s?

Dueling Neural Networks – auf Deutsch: einander duellierende neuronale Netze – sind eine Technologie, bei der zwei lernende Systeme (im Volksmund: künstliche Intelligenzen) gegeneinander antreten und sich so immer weiter selbst verbessern. Zu diesem Zweck werden beide Systeme vorab mit Daten gefüttert, beispielsweise mit Fotos von Mäusen. System A kreiert anschließend selbst Fotos von Mäusen und verwendet dabei das, was es aus dem Datensatz über das Aussehen von Mäusen gelernt hat. System B bekommt diese künstlich generierten Fotos vorgesetzt, vermischt mit echten Mäusefotos, die nicht aus dem ursprünglichen Trainingsdatensatz stammen. Dann muss System B bei jedem Bild entscheiden, ob es sich um ein künstlich generiertes Foto handelt oder nicht. Durch dieses Bewertungs- Feedback lernen beide Systeme ständig dazu. Das Ergebnis sind Mäusefotos, die von menschengemachten Bildern kaum noch zu unterscheiden sind.

Generative Adversarial Networks (GANs), wie die duellierenden Netze auch genannt werden, lösen vor allem ein Problem: Lernende Systeme werden umso besser, mit je mehr Daten man sie trainiert – das selbstständige Herstellen der Daten steigert die Menge verfügbarer Daten und damit den Trainingseffekt potenziell ins Grenzenlose. Yann LeCun, der bei Facebook den Bereich KI leitet, hält GANs für „die coolste Idee im Bereich Deep Learning seit 20 Jahren“.

Ein Problem, das mit der Technologie einhergeht, sind die sogenannten Deep Fakes, also gefälschte Fotos oder Videos, die täuschend echt wirken. „Es ist zu befürchten, dass die Methode an einen Punkt kommen wird, an dem es kaum noch möglich ist, Echtes von Falschem zu unterscheiden“, meint Tim Hwang, früher bei Google und heute Direktor des Harvard-MIT Ethics and Governance of Artificial Intelligence Fund, einer Einrichtung zur Erforschung ethischer KI. „Und man kann davon ausgehen, dass das die Probleme noch verstärkt, die wir schon heute haben.“

Wer hat’s erfunden?

Ian Goodfellow hatte die Idee als leicht angetrunkener Student nach einer Debatte in einer Bar in Montreal. Heute ist er einer der führenden KI-Entwickler bei Google.

Wie funktioniert’s?

„Man kann es sich vorstellen wie einen Künstler und einen Kunstkritiker“, erklärt Goodfellow das Prinzip. „Das erschaffende Modell möchte den Kunstkritiker überlisten – ihm weismachen, dass die Bilder, die es erschaffen hat, real sind.“

Wer braucht’s?

Jeder, der lernende Systeme nicht nur zur Auswertung oder Analyse (etwa Bild- oder Spracherkennung) nutzen will, sondern auch will, dass sie etwas erschaffen.

Worum geht’s?

Quantencomputer bieten eine um ein Vielfaches höhere Rechenkapazität als herkömmliche Supercomputer von heute. Das liegt vor allem an der Prozessor-Architektur, die sehr viel mehr Rechenoperationen pro Sekunden erlaubt, da sie nicht auf den herkömmlichen Bits basiert, deren binäre Arbeitsweise Computer seit rund 80 Jahren prägt. Doch auch wenn etwa IBM einen ersten Quantenrechner kommerziell zugänglich machen und in der Cloud zur Nutzung durch Anwender bereitstellen will, ist die Technologie noch weit davon entfernt, wirklich einsatzfähig zu sein.

Der Rechner, den IBM Anfang 2019 vorgestellt hat, verfügt über 20 Qubits – um die Leistung herkömmlicher Supercomputer zu übertreffen, wären jedoch etwa 50 Qubits nötig. Doch wenn mehr Qubits zum Einsatz kommen, steigt die Fehleranfälligkeit exponentiell, sodass zugleich die Zahl an Qubits zur Kontrolle und Fehlerkorrektur zunehmen muss. Hinzu kommt, dass Quantencomputer höchst empfindlich sind: Vibrationen, Temperaturschwankungen und andere äußere Einflüsse können die fragile Konstruktion stören, die im Wesentlichen darauf basiert, dass die Qubits möglichst lange in einer Art Schwebezustand gehalten werden.

Das Potenzial der Quantencomputer ist gigantisch. Das erkennt man unter anderem daran, dass sie sämtliche derzeit existierenden Verschlüsselungen durch schiere Rechengewalt knacken könnten. Doch auch wenn es in den vergangenen Jahren immer wieder Fortschritte bei der Bewältigung der unterschiedlichen Probleme gab, sind alle bisherigen Modelle eher als rudimentäre Prototypen zu verstehen. Bis zu einer neuen Ära der Computertechnologie, wie sie die Quantentechnologie verspricht, werden noch einige Jahre vergehen, wenn nicht gar Jahrzehnte.

Wer hat’s erfunden?

Bereits 1959 erwähnte der Physiker Richard Feynman in einer Vorlesung die Möglichkeit, Prinzipien der Quantenmechanik für Computer einzusetzen. Seit mehr als 30 Jahren wird mit unterschiedlichem Tempo und Fokus intensiv daran geforscht.

Wie funktioniert’s?

Im Gegensatz zu normalen Bits, die nur den Zustand 0 oder 1 annehmen, können die Quantenbits (oder Qubits) durch eine sogenannte Superposition zeitweilig auch einen Zwischenzustand einnehmen. Man kann es sich vorstellen wie eine Münze, die sich um sich selbst dreht und dadurch nicht nur Kopf oder Zahl anzeigt.

Wer braucht’s?

Alle. Die möglichen Einsatzgebiete eines funktionierenden Quantencomputers reichen von der Handels- und Finanzwelt bis zur Lösung bisher nicht zu bewältigender mathematischer Probleme und sind damit genauso grenzenlos wie die Bereiche, in denen Computer schon heute eingesetzt werden. //

432.500 $
erbrachte 2018 das erste auf einer Auktion versteigerte KI-Kunstwerk. Es entstand mit Dueling Neural Networks.

146,8
Petaflops, also 146,8 Billiarden Rechenoperationen pro Sekunde, ist die Leistung des aktuell schnellsten Supercomputers der Welt. Ein Quantencomputer würde 50 Quantenbits (Qubits) brauchen, um diese Leistung zu übertreffen.

brandeins /thema ist das Heft, das Branchen und Trends auf den Grund geht, Märkte und Dienstleistungen transparent macht – und Unternehmern hilft, besser zu wirtschaften.

Zur interaktiven Karte und Bestenliste

Einzelausgabe kaufen
Abonnement kaufen