Ausgabe 07/2016 - Schwerpunkt Digitalisierung

Vom Code-Äffchen zum Star

• Das blaue Hemd des Microsoft-Chefs Steve Ballmer ist so durchgeschwitzt, dass die Kreise unter seinen Achseln fast bis zum Schweißlatz an seiner Brust reichen. „Developers, developers, developers!“, schreit er mit sich überschlagender Stimme und hochgerissenen Armen immer und immer wieder. Er ist außer Atem vom Herumhüpfen auf einer Bühne vor Tausenden von Softwareentwicklern. Die will er auf Microsoft einschwören – denn sie sind es, denen er und der Unternehmensgründer Bill Gates ihre Milliarden verdanken. Vermutlich wurde das Video bei einer Windows-Entwicklerkonferenz um die Jahrtausendwende aufgenommen. Der Clip symbolisiert eine Zeitenwende. Steve Ballmer hatte verstanden, dass die Programmierer, die da in endlosen Reihen vor ihm saßen, mehr waren als die zuvor oft verspotteten Nerds. Sie waren vielmehr die Konstrukteure der neuen digitalen Welt. „Code is law“ fasste es ungefähr zur selben Zeit Lawrence Lessig zusammen, Jura-Professor in Harvard: Software sei das neue Gesetz unserer Zeit.

Wie kam es dazu, dass Programmierer die Macht und Bedeutung erlangten, die sie heute genießen? Wie hat sich der vergleichsweise junge Beruf verändert? Wer sich für diese Fragen interessiert, fragt am besten Joel Spolsky, eine Art Guru der Szene. Er begann schon als Kind mit dem Programmieren. In den Nullerjahren wurde er mit seinem Blog Joelonsoftware zur wohl wichtigsten Stimme der Berufsgruppe. Er hat Bücher über das Programmieren verfasst und ist heute Chef von Stack Overflow, der weltweit größten Plattform, auf der sich Softwareentwickler austauschen und gegenseitig unterstützen.

Spolsky empfängt in einem Besprechungszimmer in Downtown Manhattan, das wegen der Ledersessel und Bücherwände an eine winzige Bibliothek erinnert. Sein schwarzes T-Shirt, die Uniform der Softwareentwickler in aller Welt, spannt ein wenig am Bauch. Spolsky fungiert als Ein-Mann-Lobby für die Programmierer. Er versteht sie wie kaum ein anderer, setzt sich für ihre Belange ein und hilft Unternehmen dabei, den steigenden Bedarf an qualifizierten Entwicklern zu decken – das ist sein Geschäftsmodell. Spolsky kann unterhaltsam erzählen – ein idealer Guide für eine Zeitreise durch die Programmierer-Geschichte.

I. Die Großrechner-Ära

Über die Frage, wann aus den mechanischen Rechenmaschinen des 19. Jahrhunderts Computer wurden, lässt sich trefflich streiten. Wegweisend waren der Z1 des Deutschen Ingenieurs Konrad Zuse aus den Jahren 1936 bis 1938 und der Univac 1101. Letzterer wurde 1950 für die US-Regierung entwickelt und gilt als erster Rechner, der ein Programm speichern und ausführen konnte. Computer füllten damals ganze Räume, und programmiert wurden sie in der Regel nur von einer Handvoll Leuten: denen, die sie erfanden und konstruierten. Diese Mainframe genannten Großrechner waren für Privatleute nicht nur unerschwinglich, sondern ohne Fachkenntnisse auch unbenutzbar. Sie standen vorwiegend in Militäreinrichtungen und Universitäten. Ein solcher Uni-Großrechner war auch der erste Kontakt, den Spolsky mit der digitalen Welt hatte: „1978 schaffte sich die University of New Mexico, an der mein Vater lehrte, einen IBM 360 Mainframe-Computer an. Ohne einen blassen Schimmer zu haben, was sie damit anfangen sollten.“

Der damals Zwölfjährige machte sich daran, die kleiderschrankgroße Maschine in Basic und Fortran zu programmieren. „Es gab ein paar Bücher, aber die wichtigste Wissensquelle war der Austausch mit anderen Professorenkindern, die auch an dem Ding herumdoktern durften. Wir brachten uns gegenseitig das Programmieren bei.“ Als er 15 war, ging die Familie für einige Zeit nach Israel. Spolsky leistete seinen Militärdienst ab und lebte im Kibbuz, doch auch dort ließ ihn seine Leidenschaft nicht los: „Im Kibbuz arbeitete ich in einer Brotfabrik. Ein riesiger Computer überwachte die Anmischung der verschiedenen Teige: helles, Brot, dunkles Brot, Brötchen und so weiter.“ Während die Fabrik eine Sorte nach der anderen herstellte, benötigten die Lkw, die die Supermärkte in verschiedenen Gegenden belieferten, von allem etwas. „Also programmierte ich den Computer so, dass die Produktion sich nach dem Lieferplan der Lkw richtete, statt sie warten zu lassen, bis die letzte Brotsorte gebacken war.“ Rückblickend die logischste Sache der Welt – dennoch brauchte es einen heranwachsenden Computerfreak, um daraufzukommen.

Ungefähr zu dieser Zeit kam der Begriff des PC auf, des Personal Computers. Die Geschichten der kalifornischen Garagen, in denen Steve Jobs und Steve Wozniak und andere begeisterte Tüftler Computer deutlich unter Wandschrankgröße zusammenlöteten, sind heute legendär. „Ein Computer auf jedem Schreibtisch und in jedem Haushalt“, so lautete 1980 das Ziel des Microsoft-Gründers Bill Gates. Dass es weit übertroffen werden würde, ahnte damals niemand. Auch nicht Joel Spolsky.

II. Die PC-Ära

Der kehrte in den Achtzigerjahren in die USA zurück und studierte Computerwissenschaften in Yale. „Als ich dort anfing, lernte ich als Erstes, dass alles, was ich zu wissen glaubte, falsch war“, sagt er. „Und als ich nach meinem Studium anfing, als Programmierer zu arbeiten, hörte ich exakt dasselbe noch einmal: Alles, was du bisher gelernt hast, ist falsch.“ Trotz seines Spotts ist Spolsky ein Verfechter einer akademischen Ausbildung für Programmierer. Denn die müssten nicht nur möglichst schnell Praxisfertigkeiten lernen, sondern auch ein grundlegendes Verständnis für die Zusammenhänge entwickeln. Ein Programmierer, dem diese Kenntnisse fehlten, arbeite so wie Shlemiel, eine israelische Witzfigur. „Shlemiels Job sind die gestrichelten Linien zwischen den Fahrbahnen“, sagt Spolsky. „Als ihn sein Boss irgendwann anschnauzt, warum er jeden Tag weniger Strecke schaffe, sagt Shlemiel nur: ,Aber ich bin doch jeden Tag weiter vom Farbeimer entfernt!‘ “

Die Ausbildung zum Programmierer wurde in den Siebziger- und Achtzigerjahren durch Studiengänge wie Informatik und Computerwissenschaften zunehmend formalisiert. Programmierer war ein normaler Beruf geworden. Denn damit in jedem Haushalt ein Computer stehen kann, müssen darauf Programme laufen, die sich auch ohne Fachkenntnisse nutzen lassen. Und diese Programme muss eben erst einmal jemand schreiben.

Mitte der Achtzigerjahre kam es noch zu einer anderen Wende: Frauen hörten auf zu programmieren. Von der Mathematikerin Ada Lovelace (siehe auch brand eins 02 /2015, „Die Zauberin der Zahlen“ *) bis in die Großrechner-Ära hatten Frauen immer eine wichtige Rolle bei der Entwicklung und Programmierung von Computern gespielt. Erst in der PC-Ära kam die Vorstellung auf, Rechner seien nur etwas für Jungen. Sie bekamen weitaus häufiger Computer geschenkt als Mädchen, wie eine Untersuchung von Jane Margolis von der University of California Los Angeles später bestätigte. Beschäftigten sich damals populäre Filme wie in „War Games“, „Revenge of the Nerds“ oder „Weird Science“ mit dem Thema Computer, so waren ausschließlich junge Männer die Hauptfiguren. „Die Programmierer-Szene leidet bis heute unter einem Frauenmangel“, sagt Spolsky. „Und weil sich das so in den Köpfen festgesetzt hat, ist es wahnsinnig schwer, dies zu ändern.“

Auch der exaltierte Microsoft-Chef Steve Ballmer zeigte seine im Video dokumentierte Show einem fast ausschließlich männlichen Publikum. Während IBM die PC-Ära auf der Hardware-Seite dominierte, prägte sie Microsoft mit seiner Software noch viel stärker. Für eine ganze Generation von Menschen bedeutete das Wort Computer im Grunde nichts anderes als die Microsoft-Anwendungen Word, Excel und Outlook.

Ende der Achtziger- und Anfang der Neunzigerjahre gab es keinen besseren Arbeitsplatz für Programmierer als Microsoft. Spolsky gehörte von 1991 bis 1994 zum Excel-Team. „Heute arbeiten ja alle mit agilen Methoden und veröffentlichen wöchentlich eine neue Version“, sagt er (siehe auch brand eins 06 /2016, „Schneller!“ **). „Damals ging das nicht. Software war ein Karton mit einer Diskette und einem dicken Handbuch drin. Das musste alles in Fabriken hergestellt werden. Eine neue Softwareversion wurde deshalb anderthalb Jahre im Voraus geplant – und Microsoft war das einzige Unternehmen, das es hinbekam, bei solchen Vorlaufzeiten trotzdem pünktlich funktionierende Software abzuliefern.“

III. Die Internet-Ära

1994 verließ Spolsky Microsoft und siedelte nach New York um. Es war der Höhepunkt der PC-Ära, doch das nächste Zeitalter – das des Internets – kündigte sich bereits an. Eine Zeitlang arbeitete Spolsky unter anderem für die MTV-Mutter Viacom. Der damals 29-Jährige begriff schnell, wie wenig Entwickler damals in Firmen außerhalb der Softwarebranche wertgeschätzt wurden. „Unser Status war in etwa vergleichbar mit dem der Sekretärinnen in der Serie ,Mad Men‘.“ Die Programmierer hatten durch ihre Software die Typistinnen und Telefonistinnen arbeitslos gemacht – und wurden nun behandelt wie diese. „Ich wurde als austauschbares kleines Code-Äffchen gesehen. Dabei war ich der Einzige in unserer 20-köpfigen Internetabteilung, der überhaupt wusste, wie man etwas online stellt.“ Sein Büro, so Spolsky, sei das einzige ohne Fenster gewesen.

Heute schaut er aus dem 28. Stock eines Gebäudes nahe der Wall Street über Manhattan und den East River, über die Brooklyn Bridge und die Freiheitsstatue. Stack Overflow – die Firma wurde nach einem häufigen Softwarefehler benannt –, ist zur weltweit wichtigsten Plattform für Programmierer geworden. Mehr als 40 Millionen von ihnen klicken jeden Monat die Seite an, um dort knifflige Fragen zu stellen und die anderer zu beantworten. „Wie vermeide ich JavaScript-Fehler, wenn ich zur Authentifizierung Adal verwende?“ oder „Warum funktionieren Post requests nicht bei Redirect von IIS auf Apache?“ Die Seite ist weit mehr als eine obskure Wissenstauschbörse einer Randgruppe: Stack Overflow gehört heute zu den 50 meistbesuchten Websites der Welt und rangiert damit in der Nachbarschaft von Paypal, Tumblr und der Apple-Website.

Auf die Frage, was den Beruf eines Programmierers heute von dem früherer Jahrzehnte unterscheidet, sagt Spolsky, es sei vor allem die Komplexität. „Niemand programmiert mehr etwas von Grund auf. Alle verwenden Hunderte von Programmbibliotheken und Subroutinen, die irgendwann jemand anderes geschrieben hat. Anders geht es nicht mehr.“ Sein Beispiel: Wenn heute jemand eine Smartphone-App programmiert, in der eine Kreditkartenzahlung möglich sein soll, dann greift er auf ein Stück Code zurück, das bereits existiert. Dieser benutzt wiederum, um Missbrauch auszuschließen, ein anderes Stück Code, dass die eingegebene Anschrift validiert. „Selbst eine vermeintlich triviale Funktion basiert heute oft auf Millionen Zeilen von Code, von denen manche über 40 Jahre alt sind“, sagt Spolsky. Dass alle paar Jahre eine neue Programmiersprache auf den Markt kommt – wie zuletzt Apples Swift oder Facebooks Hack – macht die Sache nicht einfacher.

Die Programmierer haben sich im Lauf der Internet-Ära weitgehend aus ihrem Schattendasein befreit. Sie werden gesucht, umworben, gut bezahlt. Unser Alltag – vom morgendlichen Blick auf die Wetter-App über unsere Bankgeschäfte bis hin zur Frage, welche unserer Freunde uns der Facebook-Algorithmus noch zeigt – wird von Einsen und Nullen bestimmt. „Software is eating the world“ ist zu einem geflügelten Satz geworden. Nicht nur in den USA, auch hierzulande sind Entwickler extrem gefragt: Laut der Bundesagentur für Arbeit kann ein Angehöriger des Berufsstandes beispielsweise durchschnittlich zwischen 3,5 Jobs wählen. Im Schnitt dauere es 122 Tage, eine offene Position zu besetzen – deutlich über dem nationalen Schnitt für alle offenen Stellen, der bei rund 82 Tagen liegt. „Wir haben – von Ausnahmejahren in der Wirtschafts- und Finanzkrise abgesehen – nahezu konstant einen ungedeckten Fachkräftebedarf von rund 40 000 IT-Experten“, sagte der damalige Bitkom-Präsident Dieter Kempf vor anderthalb Jahren. Unter diesen Fachleuten am häufigsten gesucht: Softwareentwickler.

IV. Die Zukunft

Wie geht es weiter? Eine Entwicklung, die sich bereits abzeichnet: Nicht nur das Programmieren selbst, auch die Ausbildung von Programmierern ist ein lukratives Geschäft geworden. War vor zehn oder zwanzig Jahren noch das Informatikstudium der gängige Weg, boomen heutzutage private Aus- und Fortbildungsplattformen wie Udacity oder Code Academy. Statt jahrelang eine klassische Hochschule zu besuchen, kann man sich in Bootcamps von Firmen wie General Assembly oder Launch Academy bereits in zwölf Wochen zum Programmierer ausbilden lassen – so zumindest deren Versprechen.

Außerdem wird sich die Branche noch weiter ausdifferenzieren. Schon heute gibt es Studiengänge für Medizin- oder Bioinformatik. Gibt es Spezialisten für Frontend- (also das, was der Benutzer sieht) oder Backend-Webentwicklung (das, was der Betreiber beispielsweise eines Onlineshops sieht), für Benutzerführung, für Datenauswertung – und für alle möglichen Programmiersprachen. Entwicklungen wie das Internet der Dinge oder selbstfahrende Autos treiben die Spezialisierung weiter voran.

Der Beruf wird weiter gefragt sein. Das US-Ministerium für Arbeit sagt voraus, dass die Zahl der Jobs für Softwareentwickler bis 2024 um rund 17 Prozent steigen wird, weitaus schneller als in so gut wie allen anderen Wirtschaftszweigen. Ebenso wird es Berufe geben, in denen Programmierkenntnisse eine vorteilhafte Zusatzqualifikation sind – und viele Tätigkeiten, wie beispielsweise das Einrichten einer eigenen Website, erfordern mittlerweile keine Programmierkenntnisse mehr.

Doch der Beruf des Entwicklers wird ein Spezialistenberuf bleiben – und einer mit immer größerer Verantwortung. Denn in den kommenden zehn Jahren, so Joel Spolsky in einer Rede bei einem Entwicklerkongress in Frankreich, „wird sich die Bedeutung, die Software in unserem Leben spielt, verzehnfachen. Wenn wir glücklich und zufrieden leben wollen, müssen wir uns dafür interessieren, wer die Entwickler sind. Denn sie reparieren den Code, sie reparieren die verdammten Algorithmen, und sie reparieren die Zukunft.“ ---

* b1.de/wg_ada_lovelace

** b1.de/agiles_management

Mehr aus diesem Heft

Digitalisierung 

Wir züchten uns ein Haus

Jeff Kowalski ist Cheftechniker von Autodesk. Sein Job besteht darin, weit in die Zukunft zu schauen. Ein Gespräch über smarte Produkte und Schnittstellen zwischen Mensch und Maschine.

Lesen

Digitalisierung