Unsichtbares Computing

Zukunftsperspektive: Unsichtbares Computing




Mein Notebook ist lebensmüde, es hat keine Lust mehr. Dreimal schon stand sein Herz heute still. Der Prozessor rührt sich nicht. Ein paar Zeilen Text standen erst auf dem Schirm. Ein paar Zeilen zu viel. Ein Jahr alt ist mein Notebook, gekauft als Blüte der Technik, heute ein Haufen historischen Materials, in dem kein Hauch von dem mehr ist, was der Hersteller, wie alle Hersteller, in der verlockenden Werbung versprach: Tempo, Performance, Power, Verlässlichkeit.

Verlässlichkeit. Anderthalb Milliarden mal schlägt ein kleines, hilfloses Quartzteilchen im Bauch des Rechners, immer schneller. Es japst nach Luft. Zu viel ist zu viel. Man muss wissen, warum. Der Personal Computer revolutionierte die Arbeitswelt, richtig. Nach 30 Jahren, in denen Computer Instrumente einiger weniger waren, in denen nur Banken, Versicherungen, Konzerne und Militärs die Segnungen der digitalen Datenverarbeitung nutzen konnten, brach Ende der siebziger Jahre, zunächst über den Heimcomputer, ab 1981 über den IBM-PC, die weltweite Computerisierung aus, die mittlerweile in 700 Millionen installierten Personal Computern geendet hat. Dabei war die Revolution technisch betrachtet kein Neuanfang. Der kleine Rechner für den Tisch, der später auch in der Aktentasche Platz fand, folgte dem Prinzip des Computers als Universalmaschine. Die Idee: Eine digitale Rechenmaschine kann alles. Theoretisch ist das völlig richtig. Praktisch gibt es da aber ein kleines Problem. Bis zur Einführung des Personal Computers, den man vielleicht besser den Massencomputer nennen sollte, waren Computer für die Erledigung einer oder einiger weniger Aufgaben gebaut worden. Banken rührten mit Großrechnern Konten, Militärs berechneten Flugbahnen, Regierungen erkannten säumige Steuerzahler. Ein massentauglicher Computer aber muss alles können, wonach den Kunden ist: Am besten sollte die ganze Welt simuliert werden. Spiele, Grafik, Text, Buchhaltung, Videosimulation, Tonaufzeichnung und Millionen anderer Dinge, die mit einem Computer möglich sind.

Waren Computer bis zur Einrührung des PCs zuverlässig, wurden sie mit der Einrührung des PCs zum Sicherheitsrisiko.

Denn niemand kann alles am besten. Die Idee der Universalmaschine ist nicht die einer Eier legenden Wollmilchsau, auch wenn das letztlich den Massenmarkt erst angekurbelt hat. Betriebssysteme wie Windows 98 oder XP müssen hunderttausende Programme, die es auf dem Markt gibt, verwalten können. Darum werden Prozessoren immer schneller gemacht. Einfach um den Problemen davonzufahren. Das ist so, wie auf einer mit Schlaglöchern übersäten Straße Vollgas zu geben, weil man hofft, es würde nicht so doll rumpeln.

Haben Sie das schon mal probiert?

Daten statt Hardware - erst langsam kommt Sinn in den Computer.

Stellen wir uns vor, die Erzeugung, Lagerung und Verbreitung von Daten wäre ein industrieller Prozess. Der universelle Personal Computer entspräche dann dem in der ersten Hälfte des 20. Jahrhunderts sehr beliebten Prinzip der totalen Fertigungstiefe. Das bedeutet, dass eine Fabrik, die etwa Autos herstellt, praktisch alles selbst entwickelt, herstellt und verwendet, was zum Bau des Vehikels nötig ist. Je höher der Anteil an Selbstgemachtem, je höher die Fertigungstiefe, desto besser.

So meinte man.

Man irrte sich.

Tatsächlich ist das Gegenteil der Fall. Man erkannte, dass der Zukauf von Teilen und Ideen von Dritten, die wiederum mit einer großen Anzahl von Zulieferern konkurrierten, viel vorteilhafter ist. Spezialisten konzentrieren sich auf das für sie Wesentliche. Das aber ist eingebettet in einem großen Ganzen, dem Bau von Automobilen oder eben Computern.

Der Markt der Hersteller bildet das Netzwerk, das all das Wissen und Können über Datenleitungen verbindet. Dazu braucht man keine PCs. Dafür eine dichte Infrastruktur an digitalen Systemen, die überall dort, wo Wissen entsteht oder gebraucht wird, aufnahme- und wiedergabefähig sind. Computer sind dann überall, aber niemand merkt es.

Das Konzept heißt mal "allgegenwärtiges Computing" (ubiquitous computing) oder dann wieder "unsichtbares Computing" (pervasive computing). Bereits heute sind die allermeisten Prozessoren - die eigentlichen Computer also - diskret versteckt in Autos, Haushaltsgeräten, Maschinen und Messgeräten, Flugzeugen, Zügen und in tausenden anderen Dingen. Sie erledigen dort Spezialisten-Jobs: Sie messen Temperaturen, prüfen die Höhe, checken, ob eine Kreditkarte echt ist, ob der Braten knusprig wird, ob der Staubsack im Staubsauger voll ist und vieles mehr. Es sind grob geschätzt hundertmal mehr Computer auf diese Art und Weise im Einsatz als PCs: 70, vielleicht mehr als 100 Milliarden Prozessoren ticken in der Welt, für jeden Menschen also ein Dutzend.

Sie sind auf die sture, zuverlässige Erledigung ihrer Pflichten abonniert. Man könnte nun tausend Anwendungen erdenken, in denen sie - in Tapeten versteckt oder als Teil des Couchtischs - sinnvolle Dinge verrichten: als Herzstück eines Mobilfunksystems, das erkennt, wenn sein Benutzer, sein Herrchen, den Raum betritt. In Autos bilden heute Prozessoren schon Informationsketten, die an den Bordcomputer melden, was an groben Problemen anliegt. Telematik (Fernwartungs-)Systeme können sich etwa einmischen, wenn ein Teilchen klappert: muss erneuert werden. Das wird dann über Mobilfunk an den Hersteller-Computer gemeldet, der checkt, in welcher Werkstätte in der Nähe das Ersatzteil ist, und - tüteltü - drei, vier Sekunden nach dem ersten Klappern sagt der Bordcomputer dem Fahrer: "Bitte mal links abbiegen, 300 Meter fahren, ja, so ist es gut, rechts blinken, stehen bleiben. Sie sind bei der Werkstatt Immerfroh, die tauschen jetzt Ihr Klapperteil. Danke." Was bei Autos geht, ist wahrscheinlich auch Benutzern von Herzschrittmachern lieb. Millionen Menschen, die heute noch regelmäßig in ambulanter Behandlung verarztet werden, könnten zum Facharzt dirigiert werden, wenn es nötig ist. Das erleichtert das Leben und spart, ganz nebenbei, einen Haufen Geld. Von Hypochondern und Krankfeier-Experten mal abgesehen, dürfte das auch ganz gut ankommen.

Die Frage, mit welcher Technik die Prozessoren betrieben werden, ist noch offen - und ziemlich nebensächlich. Werden weiterhin auf Siliziumbasis entwickelte Prozessoren verwendet, ist ihre Leistungsreserve für viele Jahre hoch genug, um die einzelnen Aufgaben bewältigen zu können. Möglicherweise werden die Systeme dann als biologische Prozessoren laufen, nach dem Vorbild der DNS, oder irre schnell mit Quanten rechnen, den subatomaren Teilchen. Wie gesagt: nicht so entscheidend. Viel wichtiger ist ihre Kooperation, die aus Fachidioten Mitglieder einer nützlichen, stets kommunikationsfreudigen Gesellschaft macht. Schauen wir mal, was es da so gibt: Die Digitalisierung wird normal und alltäglich.

Der Begriff Personal Digital Assistants, PDA, wird heute für kleine und relativ dumme Westentaschencomputer mit Adressfunktion benutzt. Ziel ist etwas anderes: In einem System, das Informationen permanent und an jedem Ort sammelt, auswertet und bei Bedarf in Wissen umsetzt, wird ein PDA zu einer Art Kompass in einer ziemlich komfortablen digitalen Welt.

Science-Fiction ist das nicht. Bluetooth, der Standard zur drahtlosen Vernetzung von Informations- und Kommunikationsgeräten, erkennt Notebooks, Kopierer, PDAs und Handys, wenn sie in ihre Reichweite kommen.

Wo Bluetooth Standard ist, ist auch Vernetzung: der springende Punkt. Denn Spezialisten, die sich nicht austauschen können, sind noch schlimmer als Systeme, die alles auf einmal machen sollen. An den Standards liegt alles. Im Laufe dieses Jahrzehnts werden in Europa überall Sendeanlagen für digitales Fernsehen installiert, die digitale Daten fürs Web ausstrahlen. Damit gibt es praktisch keine schwarzen Flecken mehr auf der Versorgungslandkarte mit digitalem Stoff. Dann beginnt die digitale Revolution, die bisher nur beschworen wurde. Und kein Rechner will mehr sterben.