Partner von
Partner von

Die Suche nach der neuen Fortschrittsmaschine

Immer kleinere, leistungsfähigere und billigere Chips waren jahrzehntelang die treibende Kraft der digitalen Revolution. Das ist nun vorbei.





• Es war eine ungewohnte Nachricht: Intel, der erfolgsverwöhnte Chiphersteller aus Santa Clara, musste jüngst 12 000 Mitarbeiter entlassen. Tatsächlich ist das Urgestein der Computerindustrie wie die ganze Branche an einem Wendepunkt angekommen. Um Computer weiterhin schneller, energiesparender und billiger zu machen, müssen sie neu erfunden werden – und das nicht unbedingt von den alten Branchengrößen wie Intel, IBM oder Samsung.

Lange Jahre wurden Chips durch die Miniaturisierung ihrer Schaltkreise immer leistungsfähiger – und gleichzeitig billiger. Alle Jahre werde doppelt so viel Elektronik auf einen fingernagelgroßen Chip passen – und das bei sinkenden Preisen, sagte der Intel-Mitbegründer Gordon Moore im Jahr 1965 voraus. Zehn Jahre lang werde das so gehen, nahm Moore an.

Er war zu pessimistisch: Die bald Moore’sches Gesetz genannte Prophezeiung hielt ein halbes Jahrhundert lang und wurde zur treibenden Kraft der digitalen Revolution. Heute leistet ein fingernagelgroßer Computerchip mehr als ein raumfüllender Großrechner der Sechzigerjahre. Computer, einst das Privileg von Regierungen und Konzernen, stecken heute in jeder Waschmaschine.

Doch der Fortschrittsroutine droht ein jähes Aus. „Das Moore’sche Gesetz ist am Ende“, sagt Thilo Maurer von IBM. Noch ist die physikalische Grenze nicht erreicht, aber: Kleiner als Atome können Transistoren, die winzigen Schalter, die den Strom durchlassen oder sperren, nicht werden. Je mehr Transistoren auf einen Chip passen, desto schneller rechnet dieser. Zu Beginn der digitalen Revolution passten 2300 dieser Halbleiter-Elemente auf den Intel-4004-Chip. Heute sind es mehrere Milliarden Transistoren geworden, jeder kleiner als ein Virus, aber immer noch fast 100-mal größer als ein Silizium-Atom. Die Transistoren ließen sich zwar in den kommenden zehn Jahren noch verkleinern, doch das „ist nur mit immer mehr technischem Aufwand, also höheren Kosten zu machen“, sagt Andreas Koch von der Technischen Universität Darmstadt.

Es reicht nicht, die Leitungen und elektronischen Bauelemente immer weiter zu verkleinern, was allein schon immer diffizilere Produktionstechnik erfordert. Die Bauelemente werden noch dazu immer komplexer, weil die Miniaturisierung physikalische Störeffekte mit sich bringt. Elektronen schlüpfen zum Beispiel gern durch die nur noch wenige Atome dünnen Isolierungen. Diese sogenannten Leckströme müssen aufwendig unterdrückt werden.

Kein Wunder also, dass die Kosten für neue Chipfabriken explodieren. Mehr als 16 Milliarden US-Dollar investierte die taiwanische Firma TSMC, größter Chiphersteller der Welt, in seine jüngste Fabrik. „Spätestens seit dem vorletzten Miniaturisierungsschritt gilt die ökonomische Komponente des Moore’schen Gesetzes nicht mehr“, sagt Koch. Mehr Rechenpower wird teurer statt billiger.

Noch eine Barriere steht zwischen dem Computer und seiner Zukunft: sein wachsender Energiebedarf. Das gebräuchliche Rechnermodell hat einen Geburtsfehler. Das Speichern von Daten und deren Verarbeitung sind räumlich voneinander getrennt. Daten müssen ständig abgerufen, Zwischenergebnisse erneut gespeichert und wieder abgerufen werden. Der Verschiebebahnhof verschlingt elektrische Energie, umso mehr, je leistungsfähiger Computer werden.

Der Energiebedarf begrenzt den Bau von Supercomputern. Entwickler würden gern aufwendigere Simulationen ermöglichen, etwa von der Aerodynamik neuer Flugzeug-Bauformen, die noch die kleinsten Luftwirbel mit einbeziehen. Doch der dafür nötige Supercomputer bräuchte sein eigenes Kraftwerk.

Vielleicht hilft ein Konzept des britischen Start-ups Optalysys. Die Ausgründung der Universität Cambridge baut Computer, die als Informationsträger Licht statt elektrischer Signale benutzen. Dieser optische Computer werde, so die Briten, schon in vier Jahren 30-mal schneller rechnen als der derzeit leistungsstärkste Supercomputer, der chinesische „Tianhe-2“. Und das mit dem Platz- und Strombedarf eines Desktop-Computers.

Die Maschine von Optalysis verarbeitet alle Eingabedaten auf einen Schlag, ohne Zwischenergebnisse ablegen zu müssen. Grob gesagt funktioniert das so: Ein Laserstrahl durchdringt einen Flüssigkristallbildschirm. Dessen Pixel tragen die Eingabedaten in Form unterschiedlicher Lichtdurchlässigkeit. Die Lichtwellen, aus denen der Laserstrahl besteht, werden von jedem Pixel unterschiedlich abgeschwächt. Sie überlagern sich hinter dem Schirm und führen dadurch die Rechnung aus. Der Witz daran ist, dass das nicht länger dauert, wenn man den Eingabedatensatz stark vergrößert. Ob Small oder Big Data – es geht gleich schnell.

Der Haken: Es funktioniert nur bei bestimmten Aufgaben, wie dem Erkennen von Mustern in chaotisch anmutenden Daten. Ein erster Prototyp sucht nach bestimmten Informationen im menschlichen Erbgut. Laut Optalysys geht das 20-mal schneller als mit einem konventionellen Rechner und spart 95 Prozent Energie. Diese Rechner sind aber keine Universalmaschine mehr wie jene, die wir zurzeit benutzen und deren Stärke es ist, alles zu können, wofür man sie programmiert. Sind es also noch Computer?

Rechnen mit Erfahrung

Auch sogenannte Neurocomputer sind Experten: für das Lernen aus Erfahrung. An der Universität Heidelberg hat der Physiker Karlheinz Meier einen solchen Rechner konstruiert. Dessen Schaltkreise ahmen die Anatomie des Gehirns nach. Drähte, Kondensatoren und Widerstände imitieren das Netz aus Nervenzellen und den sie verbindenden Synapsen. Jede Nervenzelle ist ein kleiner Computer, der Information verarbeitet und gleichzeitig speichert. Im menschlichen Gehirn arbeiten 100 Milliarden Nervenzellen gleichzeitig. Meiers Computer ist so groß wie eine Schrankwand, besitzt aber lediglich vier Millionen künstliche Nervenzellen, „so viele wie drei Ameisengehirne“, sagt der Physiker. Aber die Maschine funktioniert schon. Berliner Forscher haben mit ihr das Riechzentrum von Insekten nachgebildet. Manche Insekten lernen, aus komplexen Duftcocktails herauszulesen, um welche Blüte es sich handelt. Ähnlich arbeitende, lernfähige chemische Sensoren seien interessant für die Industrie, sagt Meier.

Der Neurocomputer macht dasselbe wie ein neuronales Netz. Wegen der parallel arbeitenden Neuronen aber viel schneller und mit einem 100 000-fach geringeren Energiebedarf als ein klassischer Rechner. Es geht Meier darum, einen besseren Computer zu bauen, ein Werkzeug. Noch Science-Fiction ist hingegen der Quantencomputer, Schätzungen über seine Realisierung reichen von einem Dutzend bis 50 Jahre. Ähnlich wie der optische Computer von Optalysys soll er Eingabedaten auf einen Schlag bearbeiten. Grundlage dafür ist ein Phänomen der Quantenphysik: Submikroskopische Teilchen wie Atome oder Elektronen können mehrere gegensätzliche Eigenschaften gleichzeitig tragen. Ein Atom kann hier sein und gleichzeitig dort, ein Elektron rotiert links und simultan rechts herum. Ein Quantencomputer nutzt solche Teilchen zum Rechnen und existiert daher gewissermaßen selbst in verschiedenen Alternativwelten. Er kann somit eine Unzahl möglicher Wege zur Lösung einer Aufgabe, richtige wie falsche, simultan beschreiten.

Allerdings muss die richtige Lösung irgendwie identifiziert und als Ergebnis ausgegeben werden. Das funktioniert wieder nur für bestimmte Arten von Aufgaben, etwa das Ver- und Entschlüsseln von Daten, das Suchen von Information in ungeordneten Datenbanken oder das Simulieren von chemischen Reaktionen. In Physiklabors in aller Welt gibt es erste Prototypen. Diese zu leistungsstarken Maschinen auszubauen bereitet aber Probleme, weil es noch nicht zufriedenstellend gelingt, Tausende submikroskopischer Teilchen einzeln zu kontrollieren.

Indessen haben freilich auch die Platzhirsche der Halbleiterbranche ihre Lage erkannt und arbeiten selbst an neuen Konzepten. IBM entwickelt Neuro- und Quantencomputer, denn die lassen sich mit Halbleitern umsetzen.

Vielleicht aber wird der Computer der Zukunft aus lebendem Material bestehen: Biologen wollen Zellen mittels Gentechnik so umprogrammieren, dass sie Informationen verarbeiten. Die chemischen Reaktionen in der Zelle funktionieren nach bestimmten Regeln, ganz ähnlich wie Schaltkreise auf einem Chip. „In einer Zelle laufen pro Sekunde zehn Millionen chemische Reaktionen ab, die zusammen nur ein Millionstel eines Millionstels Watt verbrauchen“, sagt Rahul Sarpeshkar vom Massachusetts Institute of Technology (MIT) in Boston. Also rechne eine Zelle 10 000-mal energieeffizienter als ein Halbleiter-Transistor, so Sarpeshkar. Im Prinzip könne man Zellen zu Universalmaschinen machen, fügt der Elektroingenieur hinzu, der sich seit Jahren mit Biocomputern beschäftigt. Er räumt aber ein, dass die lebenden Winzlinge am ehesten für Simulationen in der Medizin und den Biowissenschaften taugen würden. Also wieder kein Konzept, dass bei allen Rechenfragen nutzt.

„Ein Ersatz für den Universalcomputer ist bislang nicht in Sicht“, resümiert auch Dietmar Fey von der Universität Erlangen. „Der konventionelle Rechner wird nicht komplett verdrängt werden“, sagt der Informatiker.

Die Halbleiterbranche wird demnach beim Kampf um den Computer der Zukunft zwar Marktanteil abgeben müssen, dort wo die Neuen schneller und billiger sind.

Aber am Ende ist sie noch nicht. ---