Partner von
Partner von

Apple und Birnen

Der Computer beschleunigte die Finanzwelt enorm. Aber für ihre Krisen ist er nicht notwendig. Eine Gegenüberstellung.




- Der englische Erfinder Charles Babbage hatte viele Talente, und alle waren aufs Praktische und Logische ausgerichtet. Als Mathematiker und Ökonom revolutionierte er 1826 das Versicherungswesen, indem er die Risiken erstmals auf der Grundlage der Sterbetabellen berechnete. Auch sein Meisterwerk, an dem er von 1833 bis 1846 arbeitete, folgte dem Prinzip des Reellen: Die analytische Maschine war ein Konzept einer automatischen Rechenanlage, ein Apparat, den die in Schwung geratene Industriegesellschaft dringend brauchte. Die massenhafte Produktion von Waren zog unzählige Rechnungen nach sich. Dazu braucht man einen universellen, programmierbaren Apparat, wie ihn Babbage erfand. Der Computer ist keine Maschine, weil er, anders als diese, eben nicht nur eine klar definierte Funktion erfüllt, sondern grundsätzlich alles erledigen kann, was die Software ihm auferlegt. Genau das war Babbages große Einsicht. Er scheiterte in seiner Zeit am schlechten Material und am Desinteresse des englischen Parlaments, dessen Abgeordnete sich unter dem universellen Apparat nichts vorstellen konnten.

Der Computer ist nichts für Ingenieure

Am mangelnden Interesse seiner Zeitgenossen scheiterte hundert Jahre nach Babbage auch der Berliner Konrad Zuse, der 1941 den ersten programmierbaren, binären Computer baute. Seine Entwicklungen wurden zwar keineswegs ignoriert, waren letztlich aber kein finanzieller Erfolg. Der Computer ist eben kein Kind der Ingenieurskultur, und sein Erfolg lässt sich lange nicht pragmatisch erklären. Zwar wurde der Computer immer unter dem Motiv des handfesten, gegenständlichen Problemlösens entwickelt, sein Erfolg aber ist eine intellektuelle Grenzüberschreitung. Es gibt ihn, weil er herstellbar ist.

Dass es Großbritannien und vor allen den USA gelang, sich an die Spitze der Computertechnik zu setzen, lag vor allem daran, dass Technik dort weniger "vernünftig" und "ingenieursorientiert" gedacht wurde als in Europa. In Großbritannien war es Alan Turing, der in den dreißiger Jahren die theoretischen Konzepte für den modernen Computer erdachte. In den USA war es der Mathematiker John von Neumann, dessen Konzept (die "Von Neumann Architektur" von 1945) bis heute praktisch alle Computer antreibt.

Von wegen menschliches Versagen: Der Computer ist ebenso fehlbar

Für die ersten großen Computer wie ENIAC, die zu militärischen Zwecken von den USA gebaut worden waren (1945), wurden Röhren verwendet. Sie waren riesige Maschinen mit vergleichsweise geringer Rechenkraft.

In den ersten Jahren gab es nur Maßarbeit und Einzelstücke. Computer wurden beim Militär eingesetzt. Nur wenige Banken und Versicherungen nutzen die seit 1951 durch Remington Rand in Kleinstserien angebotenen kommerziellen UNIVAC-Systeme. Ihr Nutzen war umstritten. Die meisten Maschinen erledigten relativ simple statistische Rechenjobs. Der damals geprägte Slogan vom "Elektronengehirn" war maßlos übertrieben. Die Computer waren keineswegs so schnell wie erhofft. Dass sie später dennoch beim Militär und zunehmend auch bei Banken und Versicherungen eingesetzt wurden, hatte einen anderen Hintergrund.

Computer waren, so sagte man, "unbestechlich", "objektiv" und gegen "menschliches Versagen" immun. Deshalb steuerten sie zuerst militärische Systeme, waren zuständig für die Atomwaffenarsenale der Supermächte und trafen bald "Entscheidungen" im internationalen Finanzgeschäft. Die Story vom "nüchternen, objektiven Computer" wird in der zweiten Hälfte des 20. Jahrhunderts immer wieder erzählt. Diese Geschichte ist Unfug. Computer können nie mehr als die, die sie gebaut haben.

Der Rechner fördert vor allen Dingen sich selbst

Der Computer wächst durch sich selbst. Er ist eine perfekte selbsterfüllende Prophezeiung. Und er ist nützlich. Aber was Universalmaschinen am besten können, ist, zu wachsen und zu expandieren. Alles wird schneller und dichter, weil es geht.

Dieser Prozess beginnt im Jahr 1955, mit dem Einsatz der Transistorentechnik, die kleine und kleinste Verarbeitungseinheiten in Computern erlaubte. Nun wurden Computer kleiner, und auf weniger Platz war deutlich mehr Rechenleistung möglich. Das führt zu einem bis heute entscheidenden Prinzip: Wenn sich Systeme verkleinern, dann vergrößert sich ihre Leistung automatisch, was sich vor allem durch den Zugewinn an Verarbeitungskapazität (Speicher) und Prozessgeschwindigkeit, also Tempo, zeigt. Miniaturisierung und Dezentralisierung bei Computern bedeutet immer "mehr - schneller".

Im Jahr 1964 wurden dazu die Weichen gestellt. IBM brachte ihre Serie 360 auf den Markt, benannt nach der Zahl der Grade eines Kreises. Dieses System entsprach einer Architektur, in der verschiedene, frei definierte Größen von Computeranlagen den gleichen Code verwendeten, also miteinander kompatibel waren.

Das Ziel: schneller, höher, weiter. Auch wenn das gar nicht nötig ist

Im Jahr 1964 präsentiert Texas Instruments den integrierten Schaltkreis (IC, Integrated Circuit), der die Grundlage des 1971 vorgestellten ersten Mikroprozessors (CPU, Computer on a Chip) sein wird, den Intel unter der Bezeichnung 4004 vorstellt. Dadurch war es möglich, nicht nur Großrechner zu betreiben, sondern vergleichsweise kleine, dezentrale Systeme einzusetzen. Das führte auch zu einem Schub bei Netzwerken, die nun Computer miteinander verbanden, um Rechenaufgaben schneller lösen zu können. Auch erfasste die neue Flut an Computern mehr Daten, und das wiederum verlangt schnellere Hardware mit mehr Speicherplatz und eine Optimierung der Software.

Wo viele Daten sind, muss man automatisieren, der Mensch kontrolliert also nicht mehr wirklich, was die Rechner erledigen. Dabei wird nicht primär die Frage gestellt, was man mit dem Produktivitätsgewinn anstellen kann. Fast immer wird eine Anwendung zu einer leistungsfähigeren Hardware "dazuerfunden". Man sucht also Gründe, weshalb die Systeme immer schneller und selbstständiger werden müssen, auch wenn dafür bei vielen Anwendungen überhaupt kein Grund besteht.

Automatisierte Prozesse bestimmen bald die gesamte Technologie - der "Geist der Maschine" macht sich auf den Weg. Damit beginnt die eigentliche digitale Revolution. Formuliert hat das der Intel Mitbegründer Gordon Moore 1965 in seinem Mooreschen Gesetz, nachdem sich die Zahl und Komplexität der ICs - und damit aller Chips und Prozessoren - alle 18 Monate verdoppelt. Der Intel 4004 von 1971 verfügte über rund 2200 Transistoren, aktuelle CPUs bringen auf etwa gleich so viel Platz mehr als 2,3 Milliarden Schaltkreise unter.

Der Unternehmer und Entwickler Ray Kurzweil hat das Mooresche Gesetz um eine Formel ergänzt: der Rechenleistung pro 1000 Dollar. Damit lässt sich nachweisen, dass sich seit dem Jahr 1967 die Leistung eines 1000-Dollar-Computers jährlich verdoppelt.

Der Intel 4004 markiert den Beginn der Massencomputerisierung, die mit dem Taschenrechner beginnt und Mitte der siebziger Jahre zum Bau der ersten Mikrocomputer führt (1974/75 Altair 8800, 1976 Apple I) und schließlich 1981 zum IBM Personal Computer mit dem von Microsoft lizenzierten Betriebssystem PC-DOS (alias MS-DOS) führt. Das schafft einen De-facto-Industriestandard.

Noch im Jahr 1983 sind die verkauften Stückzahlen von Mikrocomputern in Deutschland sehr überschaubar: Commodore verkauft 14 500 Einheiten, Apple 12 000, I BM 9700. Doch viele Leute kaufen sich zu Unterhaltungszwecken sogenannte Homecomputer. Bevor die professionelle PC-Welle rollt, sind schon viele Haushalte computerisiert - nicht, weil die Homecomputer wirklich nützlich wären. Meistens werden darauf grob gerasterte Spiele auf dem angeschlossenen Fernseher genutzt. Die "professionellen" Textverarbeitungen dieser Zeit sind ebenso wie die Tabellenkalkulationen eher experimenteller Natur.

Die Computerisierung ist dennoch um das Jahr 1990/91 so weit, dass es sich lohnt, aus Nischenanwendungen neue Wachstumsmodelle zu machen. 1991 veröffentlicht Timothy Berners-Lee seine Programmierarbeit, die er HTML (Hypertext Markup Language) nennt, die Grundlage des sogenannte World Wide Web. Das und die seit Ende 1993 verbreiteten Webbrowser (Mosaic, später Netscape) sorgten für ein enormes Wachstum des Internets auf der Grundlage von PCs, in Deutschland ab etwa 1996/97, der Zeitraum, in dem auch die Telekom-Aktie emittiert wurde (1996).

Jetzt ist das Spiel eröffnet. Es geht um großes Geld und nicht um Vernunft. Vielen sogenannten Dotcom-Unternehmen, die um das Jahr 2000 ihr Kapital auf dem Neuen Markt eintreiben, fehlt jede erkennbare Geschäftsidee. Im Jahr 2001 kommt es zu einem indirekt computerindizierten Börsen-Crash, weil sich die enormen Erwartungen in die Internetunternehmen nicht halten lassen.

Erst ab 2001 steigt die Leistungsfähigkeit der Netze weiter an. Der Einsatz von Breitbandtechnik wird ab etwa 2002/2003 in Deutschland zum Standard. Prozessoren und Speicher werden immer leistungsfähiger, was unter anderem ein wichtiger Grund dafür ist, dass Audiodateien, bald auch Videos, im Netz illegal distributiert werden.

Es wird immer noch behauptet, durch das Netz habe sich alles geändert. Doch tatsächlich sind es eben nur etwas mehr als eine Milliarde Computer, die vernetzt sind. Es sind, wie die meisten Inhalte im Web, Dinge, die geschehen, weil sie machbar sind. Weil es geht. -

3000 v. Chr. - In Mesopotamien werden Tontafeln beschriftet: die ersten Finanzinstrumente. 7. Jahrhundert n. Chr. - In China gibt es das erste Papiergeld. 13. Jahrhundert - Die bescheidenen Anfänge der Staatsanleihe als prestiti oder prestanze in den Stadtstaaten Norditaliens. Sie dienen dazu Söldner und Kriege zu finanzieren. Die Verbriefung von Zinszahlungen ist erfunden. 1409 - In Brügge wird die erste Börse gegründet. 1540-1640 - Das Silber der Neuen Welt führt zur "Preisrevolution" in Europa. In England erhöhen sich die Lebenshaltungskosten auf das Siebenfache, die Nahrungsmittelpreise explodieren - nach damaligen Maßstäben. 1609 - Die Geburtsstunde des bargeldlosen Zahlungsverkehrs: In Amsterdam eröffnet die Wisselbank (Wechselbank), die erste Zentralbank der Welt. Sie hilft den Kaufleuten bei Schwierigkeiten mit den verschiedenen Währungen in Europa und ist Pionier auf dem Gebiet der Girokonten, Abbuchungen und Überweisungen. 1636/37 - Die Tulpenblase hält Holland in Atem. 1720 - Die Südseeblase platzt in London. 1744 - Zwei Priester der Kirche von Schottland schaffen den ersten modernen Versicherungsfonds, der auf mathematischen und finanziellen Grundsätzen beruht. 1874 - An der ständigen Terminbörse Chicago Produce Exchange werden Terminkontrakte über Rohstoffe gehandelt: die ersten Derivate. 1890 - Für die US-amerikanische Volkszählung entwickelt Herman Hollerith die nach ihm benannte und später weitverbreitete Lochkarte und die für die Dateneingabe und -auswertung notwendigen Maschinen. Die Technik wird bis in die siebziger Jahre des 20. Jahrhunderts zur Datenspeicherung verwendet. 1923 - In Deutschland sind unglaublich viele Banknoten im Umlauf, 20 Milliarden allein im täglichen Gebrauch. Die Inflationsrate erreicht ihren Höchststand von 182 Milliarden Prozent, die Preise sind im Durchschnitt 1,26 Billionen Mal höher als 1913. 1929 - In den USA werden Aktien im Wert von sechs Milliarden Dollar aufgelegt, ein Sechstel davon im September. 24. Oktober 1929 - Schwarzer Donnerstag 28. Oktober 1929 - Schwarzer Montag 1947 - Der Finanzsektor trägt 2,3 Prozent zum Bruttoinlandsprodukt der Vereinigten Staaten bei. 1950 - Diners Club eröffnet: Der New Yorker Leihhändler Frank McNamara erfindet die Kreditkarte. Bis in die sechziger Jahre ... - ... rechnen Bankangestellte die Zinsen ihrer Kunden manuell aus. Auch deswegen gibt es zwischen Weihnachten und Neujahr für sie keinen Urlaub. 1962 - Die erste elektronische Tisch-Rechenmaschine kommt auf den Markt. 1967 - Die Barclays Bank im britischen Enfield nimmt den ersten Geldautomaten, erfunden von John Shepherd-Barron, in Betrieb. Ende der sechziger Jahre - Immer mehr Banken nutzen externe Rechenzentren, um die Lochkarten zu verarbeiten. 1970 - Rund fünf Prozent der männlichen Harvard-Absolventen gehen in die Finanzbranche (und 2,3 Prozent der weiblichen). 1972 - Terminkontrakte für Währungen und Zinssätze dürfen ausgegeben werden. 1982 - Terminkontrakte für Aktien dürfen ausgegeben werden. 1983 - Tausende Hypothekenverträge werden zu Wertpapieren gebündelt: die erste Emission von hypothekenbesicherten Anleihen und der Beginn der Verbriefung. 19. Oktober 1987 - Schwarzer Montag 1998 - Der Hedgefonds LCTM kollabiert. 2000 - Im März platzt die Dotcom-Blase. 2001 - Enron verursacht einen der größten Unternehmensskandale der US-Wirtschaft. 2005 - Der Finanzsektor trägt 7,7 Prozent zum BIP der Vereinigten Staaten bei. 2006 - Die weltweite Wirtschaftsleistung beläuft sich auf 47 Billionen Dollar, die Marktkapitalisierung auf 51 Billionen Dollar, der Gesamtwert nationaler und internationaler Schuldverschreibungen beträgt 68 Millionen Dollar, der von Derivaten 473 Billionen Dollar. 2007 - Ende des Jahres beträgt der Wert aller nicht börsengehandelter Derivate fast 600 Billionen Dollar. 2008 - Die Investmentbank Lehman Brothers meldet Insolvenz an und löst eine Finanz- und Wirtschaftskrise aus. 2008 - Das Bargeld in Münzen und Scheinen der Amerikaner macht nur noch elf Prozent des Geldmengenaggregats M2 aus - der Rest ist virtuelles oder elektronisches Geld. 2009 - Die griechische Regierung verkündet, dass ihr Haushaltsdefizit doppelt so hoch ist wie angenommen. Nämlich 12,6 Prozent. Auch Irland, Portugal und Spanien geraten in Turbulenzen. 2010 - Die Rating-Agentur Standard & Poor's senkt die Note für Spanien. Die Europäische Union beschließt die Schaffung des Europäischen Stabilitätsmechanismus. 2011 - Die EU beschließt einen Schuldenerlass in Höhe von 50 Prozent für Griechenland.