Ausgabe 05/2013 - Schwerpunkt Besitz

Das Eigentum wird virtuell

1948

IBM baut in seiner Firmenzentrale in Manhattan den Selective Sequence Electronic Calculator auf. Der SSEC war fast 50 Meter lang und durfte von Wissenschaftlern zu Forschungszwecken kostenlos genutzt werden. Eine brillante Marketingidee, denn bis dahin wirkten Computer nur geheim und für militärische Zwecke. Die Forschungsförderung eröffnete ein lukratives Geschäft: Großrechner für alle, die sie sich leisten konnten.

1951

lieferte die Firma Remington Rand UNIVAC I an die US-amerikanische Volkszählungsbehörde aus und trat damit in Sachen "Mainframes", wie man die Großrechner bald nannte, mit IBM in Konkurrenz. Militärs, Geheimdienste, aber auch Fernsehstationen wie CBS nutzten nun die "Elektronengehirne". Das Geschäftsmodell stammte aus dem Maschinenbau. Man stellte einen Rechner her, verkaufte ihn an einen Kunden und schulte dessen Mitarbeiter. Es gab Wartungsverträge, aber noch keine Software-Lizenzen. Jeder Großrechner verfügte über ein eigenes Betriebssystem, das eingebauter Teil der Maschine war. Computer, dessen individuell dafür programmierte Anwendungen sowie die Daten waren Eigentum der Unternehmen.

1963

erfand Philips die Compact Cassette. Eigentlich war das neue Speichermedium für Diktiergeräte gedacht. Doch auf den Magnetbändern ließen sich auch Musik und Computerdaten speichern. Die Datenrevolution schickte ihre technischen Vorboten. Die Großrechner arbeiteten immer schneller und kamen mit komplexeren Aufgaben klar - unter anderem dank immer besserer Speichermöglichkeiten. Auch Unternehmen wie Hewlett-Packard und DEC lieferten Rechner. Für den Mittelstand waren Computer in den Sechzigerjahren freilich noch zu teuer. Aber jedem Anbieter war klar: Hier schlummerten riesige Wachstumspotenziale.

1972

machten sich fünf Mitarbeiter von IBM in Mannheim mit einer relativ einfachen Idee selbstständig. Sie trennten das Hardware- vom Software-Geschäft. Bis dahin kaufte man einen Computer und ließ sich dafür ein passgenaues Programm schreiben. Das Start-up mit dem Kürzel SAP bot nun Standard-Software für betriebliche Abläufe deutlich günstiger an. Zur gleichen Zeit machte Intel den Mikrochip serienreif. Hardware wurde damit zum preiswerten Massenprodukt. 1975 brachte "Popular Electronics" eine Titelstory über einen Bausatz für einen Rechner für 400 Dollar - der Altair 8800 war der erste bezahlbare Heimcomputer.

Massen-Hardware brauchte Massen-Software. Bill Gates gründete Microsoft 1975, Larry Ellison zwei Jahre später die Software Development Laboratories, aus denen Oracle hervorging. Allmählich wurde klar: Hardware bauen und verkaufen können viele. Mit urheberrechtlich geschützter Software, vertrieben in Form von Lizenzen, lassen sich höhere Margen erzielen.

Das kann man an der Entwicklung von Computerspielen sehen. Ataris "Pong" gab es 1972 nur mit der Hardware zusammen als Münz-Spielautomat. 1975 konnten Privatkunden die erste Spielkonsole mit integriertem Programm für zu Hause kaufen. Wenig später folgten die ersten reinen Software-Produkte für Heimcomputer. Der Bedarf wuchs rasant. Apple brachte 1977 den ersten Computer mit Farbmonitor auf den Markt.

1981

stieg IBM groß in den Markt für Mikrocomputer ein, die das Unternehmen Personal Computer (PC) nannte. Ein Jahr später brachte Commodore den C64 heraus. Atari zog mit einer eigenen Heimcomputer-Reihe (mit dem Kürzel ST) nach. Commodore, Apple und Atari arbeiteten mit eigenen Betriebssystemen. IBM hatte bereits die Lehre aus der Abspaltung von Hard- und Software bei den Großrechnern gezogen und ließ seine Betriebssysteme von Microsoft programmieren. Die Arbeitsteilung erwies sich als hoch profitabel für beide Seiten. Microsoft DOS - das von einer Diskette startbare "Disc Operating System" - wurde zum Standard und IBM bis in die Neunzigerjahre der dominierende PC-Hersteller.

Für alle anderen stellte sich fortan die Frage: Wollen wir IBM-kompatibel werden? Oder einen hochriskanten Sonderweg gehen? Der Sonderweg endete meist im Bankrott. Auf dem Spielemarkt hingegen funktionierte die Kombination von Hard- und Software weiter. Seit 1985 rannte und sprang "Super Mario Bros." von Nintendo. Das Spiel wurde zum meistverkauften Computerspiel aller Zeiten und legte den Grundstein für die Erfolge der Nintendo-Spielkonsolen Gameboy und Wii.

1989

bröckelten für den Datentransfer von Computer zu Computer die Mauern. Tim Berners-Lee begann am Genfer Kernforschungszentrum CERN mit der Arbeit an einem Programm, mit dem man Texte in einem Datennetz über weiterführende Links, als sogenannten Hypertext, speichern konnte. Hypertext-Markup-Language (HTML) wurde zur Grundlage des World Wide Web. Von nun an waren die Daten frei - auch wenn das und die damit verbundenen Aufstiege und Abstiege von Geschäftsmodellen niemand erahnen konnte. Was wird aus dem Eigentumsbegriff in einer Wissensökonomie, in der geistiges Eigentum in einem neuen, digitalen Raum geteilt werden kann?

Einen ersten Vorgeschmack auf die Komplexität der Eigentumsfrage in einer digitalisierten Welt gab der sogenannte "Browser-Krieg". Im Jahr 1993 wurde der erste Webbrowser namens Mosaic veröffentlicht, der an der Universität von Illinois von einem Team um den jungen Programmierer Marc Andreesen entwickelt worden war. Ein Jahr später gründete Andreesen ein Unternehmen namens Netscape mit und brachte einen Browser namens Navigator auf den Markt, der auf Mosaic basierte - aber als proprietäre Software verkauft wurde. Der Navigator war enorm populär, schon 1995 betrug der Marktanteil etwa 80 Prozent.

Auch Microsoft hatte sich Mitte der Neunzigerjahre eine Lizenz an der Mosaic-Technologie gesichert, die die Grundlage des Internet Explorer bildete. Den packte der in der jungen Internetgemeinde eher unpopuläre Quasi-Monopolist ab 1995 seinen Betriebssystemen bei - rechtlich proprietär, de facto wie eine kostenlose Zugabe. Für diese wettbewerbsrechtlich fragwürdige Geschäftspraxis wurde Microsoft vielfach verklagt und zahlte außergerichtlich hohe Summen für gütliche Einigung. Acht Jahre später lag der Marktanteil für den Internet Explorer dennoch bei rund 90 Prozent. Damit gewann Microsoft die Schlacht, hat aber dafür gesorgt, dass der Krieg für die proprietäre Software verloren ging. Denn das Verschenken des Browsers untergrub das eigene Geschäftsmodell. Kunden lernten: Software sollte eigentlich gratis sein. Zumal es zu kommerziellen Software-Produkten ja immer mehr kostenlose Alternativen gab, die nach einem in der Wirtschaftsgeschichte vollkommen neuen Modell der freiwilligen Zusammenarbeit entstanden. Insofern lag es in der Logik der technischen Entwicklung, dass ein kostenloser Open-Source-Browser einen maßgeblichen Anteil daran hatte, dass die Dominanz des Internet Explorer ab Mitte des vergangenen Jahrzehnts wieder bröckelte. Mozilla Firefox stand ab 2004 kostenlos zum Download bereit. Das Microsoft-Produkt, für alle kostenlos erhältlich, ist nicht mehr marktbeherrschend.

Die Browser erlaubten den Zugang zum Netz. In dieser Welt der technischen Reproduzierbarkeit gab es viel Raum für neue Firmen. Einige operierten mit klassischen Geschäftsmodellen, wie Jeff Bezos, der ab 1994 mit Amazon zunächst Bücher und später alles verkaufte, was in Kartons passt.

1995

Ebay paarte das Prinzip Flohmarkt mit dem Preisfindungs- Mechanismus Auktion und kassierte dafür eine Vermittlergebühr. Die Plattform entwickelte sich über die Jahre immer stärker zu einem Marktplatz für professionelle Händler mit Neuware für Konsumenten, was aber an der eigentlichen Stärke des Geschäftsmodells von Ebay nichts änderte: Im Unterschied zu Onlinehändlern musste die Firma Ebay niemals Ware einkaufen, bewerben, verkaufen, verpacken, verschicken und gegebenenfalls wieder zurücknehmen. Das Geschäftsmodell basierte auf einer digitalen Infrastruktur und der Fähigkeit, im Netz Verkäufer und Käufer mithilfe von guten Suchfunktionen und datenbasiertem Marketing zusammenzubringen. Die Mühe und das finanzielle Risiko trugen die Händler.

Amazon kopierte dieses Modell später mit seinem eigenen Marketplace. Es war offensichtlich: Die höchsten Margen erzielen in einer digital vernetzten Welt diejenigen, die ihre Geschäfte mit der intelligenten Verknüpfung von Informationen machen.

1998

Die Studenten Larry Page und Sergey Brin übernahmen die Vision des Internets als Mission für das eigene Unternehmen: Sie wollten das Wissen der Welt neu organisieren. Google war nicht die erste Web-Suchmaschine, aber die ihr zugrunde liegende Technik zeigte sich überlegen. Je mehr Fragen die Nutzer stellten, desto genauer wusste die Suchmaschine, welche Informationen im Netz für andere Nutzer relevant sein konnten und wo sie zu finden waren. Die Fragen selbst wurden also Teil der Reorganisation des Wissens. Damit verbesserten die Nutzer ihr Produkt laufend von selbst. Schon das ist sehr clever, wird aber in Verbindung mit dem Konzept der personalisierten Werbung bei Google zum brillanten Geschäftsmodell.

Durch die Frage verbessert die Suchmaschine nicht nur ihre "Allgemeinbildung", also das Angebot an den Kunden. Sie lernt auch den Fragenden genau kennen und spielt ihm Werbung in einem für Werbetreibende unschlagbaren Preis-Leistungs-Verhältnis zu. Diese Verbindung aus großer Mission mit der Einbindung von Nutzern in das Produkt und das Geschäftsmodell machte den Aufstieg von Google möglich. Sie war zugleich der Ansporn für Tausende Gründer, Ähnliches zu versuchen und durch intelligente Verknüpfung von Daten, Algorithmen und Kunden Mehrwert zu schaffen - und im Idealfall auch noch reich dabei zu werden. Einer von ihnen hieß Mark Zuckerberg. Der gründete Facebook im Jahr 2004.

Ein Jahr später begann Google, sein auf Datenanalyse basierendes Geschäftsmodell ins mobile Internet zu bringen - mit dem auf Open-Source-Technologie basierenden Smartphone-Betriebssystem Android. Open Source war für große Unternehmen wie IBM und Oracle geschäftsfähig geworden. In der Zwischenzeit hatte Wikipedia bewiesen, dass eine Enzyklopädie auch durch qualifiziertes Ehrenamt entstehen kann.

In der ersten Hälfte des vergangenen Jahrzehnts sah es oberflächlich betrachtet so aus, als ob rein datengetriebene Geschäftsmodelle der Königsweg in der digital basierten Ökonomie wären. Zumindest für westliche Firmen. Hardware-Produktion, so die allgemeine Wahrnehmung, können Taiwaner (Acer, Asus), Koreaner (Samsung) und Chinesen (Lenovo) besser und billiger. Im Dezember 2004 gab IBM bekannt, dass es seine PC-Sparte an Lenovo abtrat. Im Hardware-Vertrieb sanken die Margen. Bei genauerem Hinsehen wurde spätestens ab 2001 erkennbar: Die Kombination aus formschöner Hardware, speziell auf diese Hardware zugeschnittene Software und guten medialen Inhalten konnte das Spiel wieder einmal verändern.

2001

Im Oktober kam der iPod von Apple auf den Markt. Das Gerät verschaffte komfortablen Zugang zu Musik, für die Kunden plötzlich wieder bereit waren, Geld zu zahlen. Der iPod war der Prototyp für das iPhone und das iPad mit den jeweils angeschlossenen App-Stores für teilweise kostenlose, aber auch kostenpflichtige Inhalte.

2010 sprang Google auf diesen Zug auf und versuchte unter dem Markenamen Nexus eine eigene Produktreihe zu etablieren, in der wie in den guten alten Mainframes Software und Hardware wieder zu einer Einheit verschmolzen. 2012 wurde Apple nach Börsenwert zeitweise zur wertvollsten Firma aller Zeiten. Derweil steht der nächste Paradigmenwechsel bei Technologie und Geschäftsmodell an: Er trägt den Namen Cloud und ist umstritten. Viele Unternehmen wollen Datenverarbeitung wie Strom aus der Steckdose beziehen. Als Dienstleistung.

Das Versprechen der Cloud-Technologie lautet: Hardware und Software verschwinden vollkommen aus dem Blick des Nutzers. Mit dem Geschäftsmodell "Computer-Kapazitäten nach Nutzung" hat die Branche die nächste Abstraktionsstufe weg vom Eigentum eingeläutet. Die Hardware gehört dabei in der Regel nicht einmal mehr den Unternehmen, die Cloud-Computing als Dienstleistung anbieten. Das rechtliche Konstrukt Eigentum verschwindet mit den Daten in der Wolke.

Mit volkswirtschaftlicher Brille betrachtet, sind digitale Daten nach Land, Kapital und Arbeit zum vierten Produktionsfaktor geworden (siehe brandeins 06/2010: b1-link.de/meuterei). Ihr Wert stieg seit 1948 stetig, seit 1998 exponentiell. Dies fügte auch dem Eigentumsbegriff eine neue Dimension hinzu. Land und Kapital waren zumindest in bürgerlichen Rechtssystemen immer klar und unverrückbar in Eigentumsrechte gefasst. Das Verhältnis von Arbeit und Kapital fand im Arbeitsrecht seine rechtlich klar formulierte Basis. Doch wem gehören Daten? Und selbst wenn das klar sein sollte: Kann man die Eigentumsrechte sichern?

Die deutsche Debatte um die Leistungsschutzrechte von Verlagen gibt einen Vorgeschmack auf künftige Verteilungskämpfe im Spannungsfeld von geistigem Eigentum, in Datenwolken gespeicherten Informationen, klugen Algorithmen und mit Software angereicherter Hardware. Die Fortsetzung der Open-Source-Geschichte bleibt dabei besonders spannend.

Sie startete als Befreiungsgeschichte und machte sich den Umstand zunutze, dass in der digitalen Welt die Karten im Verhältnis von Arbeit und Kapital neu gemischt wurden. Mitte der Neunzigerjahre wurde der 500-Dollar-Laptop mit Internet-Anbindung zum wichtigsten Produktionsmittel. Damit konnte der Kopf, der Daten intelligent zu verarbeiten wusste, das traditionelle Kapital schlagen. Die Technikgeschichte öffnete einer alten Utopie die Tür: der Befreiung des Fortschritts von den Bremsklötzen des Eigentums mit seinem Hang zur Besitzstandswahrung (siehe auch Seite 38: "Sein und Haben")

In der Theorie war das freilich einfacher als in der Praxis. Nüchtern betrachtet blieb die Open-Source-Entwickler-Gemeinde in vielen Bereichen hinter ihren Ankündigungen zurück. Aber über ihre technischen Hebel veränderte sie die Ökonomie stärker als viele eigentumskritische Utopisten vor ihnen. Sie trug ihren Teil dazu bei, dass die Wirkungsmechanismen der digitalen Ökonomie eben nicht nur zu Konzentrationsprozessen an der Spitze führen nach dem Motto: Der Gewinner nimmt alles. Das ist zwar so - aber nur für eine bestimmte Zeit.

2013

Der Wert von digitalisierten Informationen wird weiter steigen, getrieben durch Hardware, Software, integrierte Systeme, Lizenz- und Leasing-Modelle, durch Provisionen und Analyse von Daten. Und durch Modelle, die wir noch nicht kennen.

Zum Wesen der digitalen Wirtschaft gehört ein Widerspruch: Ihre Geschäftsmodelle skalieren besser, weil sich Daten leichter kopieren lassen als Dinge. Aber weil wir es mit immateriellem Gut zu tun haben, sinken die Eintrittshürden für Leute mit guten Ideen. Deshalb ist die digitale Ökonomie so offen für Neues. Offenheit ist auch im Umgang mit ihr die einzige Option.-

Mehr aus diesem Heft

Besitz 

„Der Geist ist aus der Flasche“

Die Industrie hat die Menschen mit Gütern versorgt – nun wollen sie lieber tauschen statt kaufen. Was wird dann aus der Ökonomie? Fragen an André Reichel, Dozent an der Zeppelin Universität in Friedrichshafen.

Lesen