Ausgabe 12/2007 - Schwerpunkt Design

Reine Formelsache

- Zwei amerikanische Studenten entwickeln ein neues Verfahren, um bei der Internet-Recherche Treffer nach Relevanz zu gewichten. Sie nennen ihr Projekt Google. Das geschieht im Jahr 1998. Seitdem weiß die Welt, was eine Suchmaschine ist: Sie ist das Herz des Internets.

Google war nur der Anfang. Überall ist man dabei, neue Suchmaschinen zu konstruieren. Das New Yorker Unternehmen Platinum Blue hat sich darauf spezialisiert, aus einer Liste von neuen Songs diejenigen herauszufiltern, die das Zeug zum Hit haben. Die britische Firma Epagogix bietet ein automatisches Verfahren, mit dem analysiert wird, welche Zutaten einen Kinofilm erfolgreich machen. Partnerschaftsvermittler wie E-Harmony bedienen sich automatischer Suchtechniken, um Beziehungen zu stiften, die lange halten. Ein Professor der Wirtschaftswissenschaften erfindet ein automatisches Verfahren, mit dem man unter verschiedenen Bordeaux-Weinen denjenigen mit dem besten Geschmack finden soll. Und so weiter.

All diese Suchverfahren funktionieren nach dem gleichen Prinzip: Ihnen liegt ein Algorithmus zugrunde. Das heißt: eine Handlungsanweisung. Ein Algorithmus muss nicht unbedingt eine Formel sein. Auch die Art und Weise, wie man in der Schule lernt, Zahlen bei der Addition untereinander zu schreiben, ist ein Algorithmus. Die Entwicklung mathematischer Prozesse zur Lösung bestimmter Aufgaben bezeichnet man als Algorithmus-Design. Die Erfinder von Suchmaschinen sind also Suchalgorith-men-Designer. Für das Funktionieren unserer Welt ist das, was sie entwerfen, ungefähr so wichtig wie die Erfindung von Rad, Auto oder Flugzeug. Denn auch bei den Suchmaschinen geht es immer um die Frage: Wie komme ich von A nach B?

Wie man Algorithmen-Designer wird

Suchalgorithmen-Designer ist kein Beruf, für den es eine eigene Ausbildung gibt. Wer ihn praktiziert, kommt meist aus anwendungsbezogenen Teilgebieten der Mathematik oder der Computerwissenschaften. Operations Research heißt eines der Teilgebiete. Im Deutschen sagt man dazu Unternehmensforschung, auch wenn der Ausdruck das Fach, wie es sich entwickelt hat, nicht mehr ganz trifft. "Operations Research", sagt Rolf Möhring, "befasst sich mit mathematischen Modellen für Abläufe aller Art, wie sie etwa in Produktion, Logistik und im Verkehr auftreten."

Rolf Möhring, Operations Researcher und Suchalgorithmen-Designer, ist ein älterer Herr mit ratzekurz geschnittenen Haaren, Schnäuzer und runder Brille. Vom Typ her erinnert er ein wenig an einen Motorradfahrer. Aber Möhring, der als Professor an der Technischen Universität Berlin lehrt und Vizepräsident der Mathematical Programming Society ist, kommt nicht mit dem Motorrad, sondern mit der U-Bahn zur Arbeit. Und das ist auch richtig so - denn Möhring hat die Berliner U-Bahn selbst mitgestaltet. Zusammen mit einem Mitarbeiter und einigen Studenten hat er mithilfe eines selbst entwickelten Suchalgorithmus die Taktfahrpläne für die verkehrsschwache Zeit entworfen. Berlin ist eine der ersten Städte in Deutschland, die sich bei der Fahrplangestaltung eines Automaten bedient - ein Geschenk der Universität an die Berliner Verkehrsbetriebe.

Jetzt gerade kommt Rolf Möhring aus einer Besprechung, bei der es um die Entwicklung eines Algorithmus für die Erstellung von Gabelstaplerfahrplänen in der Lagerlogistik in einem Stahlwerk geht. Sogenannte Brammen, verschieden große Stahlblöcke, die aus dem Schmelzofen kommen und später zu Blechen gewalzt werden, müssen so übereinander gestapelt und zwischengelagert werden, dass für die Weiterverarbeitung der gesamte Bestand möglichst wenig umgeräumt werden muss.

In der Vergangenheit hat Möhring bereits für den Containerterminal Altenwerder im Hamburger Hafen Algorithmen zur Steuerung von automatisch getriebenen Fahrzeugen geschrieben. Bei einem anderen Projekt ging es darum, im Auftrag von DaimlerChrysler ein Modell zu erstellen, das errechnet, welchen Einfluss der flächendeckende Einsatz von Navigationssystemen auf den Verkehr hat. Das Resultat: Selbst wenn das System bei seiner Kalkulation der Route für jeden Teilnehmer sich daran orientieren würde, die Gesamtfahrtzeit aller Fahrzeuge im Straßennetz möglichst gering zu halten, ließe sich die Straßenbelastung, realistisch gesehen, um allenfalls zehn Prozent verringern.

Die Deutsche Bahn, BASF, Bayer, die Software-Firma PSI, die Managementberatung T. A. Cook, die Unternehmensberatung Artos - für sie alle hat Rolf Möhring bereits gearbeitet. Seine Absolventen kommen bei Banken, Versicherungen, Herstellern von Navigationsinstrumenten, Beratungsfirmen und in den Planungsabteilungen von Unternehmen unter. Dort gibt es überall Arbeit für Suchalgorithmen-Designer.

Sie arbeiten im Hintergrund und werden selten berühmt. Die beiden Stanford-Studenten Larry Page und Sergey Brin, die den Pagerank-Algorithmus von Google konstruiert haben, sind Ausnahmen. Der Pagerank ist ein Verfahren, das sich bei der Sortierung der Ergebnisse einer Internet-Suchanfrage eines Mechanismus bedient, der so ähnlich funktioniert wie das gegenseitige Zitieren in der Wissenschaft: Web-Seiten, auf die viele andere Seiten verweisen, werden von Googles Pagerank als höherwertig eingestuft. Verweise, die von Seiten stammen, welche selbst wiederum als hochwertig gelten, haben dabei besonderes Gewicht.

Das Google-Geheimnis gibt es nicht

Aus Gründen, über die noch zu sprechen sein wird, ist der Pagerank heute nur noch eines von vielen Bestandteilen des Google-Suchalgorithmus. Der gesamte Algorithmus gilt als eines der bestgehüteten Geheimnisse der Wirtschaftswelt. Man sagt, dass keine einzelne Person über den Gesamtalgorithmus verfügt, sondern jeder der leitenden Entwickler nur Zugriff auf 30 der insgesamt 200 Einzelelemente hat. Das mag durchaus so sein. Dennoch ist der Algorithmus einer Internet-Suchmaschine kein Betriebsgeheimnis wie etwa das Coca-Cola-Rezept. Dazu ist die Sache viel zu komplex.

Wenn man nach einem wirklich treffenden Vergleich sucht, dann ist der Algorithmus mit all seinen Feinjustierungen eher eine vom Meisterkoch zubereitete Suppe als ein Rezept. Ein Rezept kann man ausplaudern - eine Suppe nicht. Ein Industriespion müsste schon das gesamte System mitgehen lassen, um den Algorithmus nachzubauen. Und wenn die Entwickler bei Google Änderungen vornehmen, können sie deren Auswirkungen nicht präzise kalkulieren, sondern müssen ausprobieren und beobachten, wie sich das System verändert. So gesehen, ist ihre Position von derjenigen der Nutzer nicht sehr verschieden.

Besonders geheimnistauglich ist der Suchalgorithmus also nicht. Fragen danach werden von der Unternehmensführung dennoch mit Schweigen beantwortet. Man fragt sich wieso: Wer auf den Web-Seiten der Entwicklungsabteilungen von Google, Yahoo oder Microsoft nachsieht oder sich die Programme der einschlägigen internationalen Forschungskonferenzen anschaut, kann sich über das meiste informieren, woran momentan gearbeitet wird.

Erste Hürde: Inhalte mechanisch erkennen

Der Pagerank selbst, dem Google Ende der neunziger Jahre seinen geglückten Einstieg in das Geschäft der Suchmaschinen verdankte, ist von seinen Erfindern in einem Aufsatz mit dem Titel "The Anatomy of a Large-Scale Hypertextual Web Search Engine" detailliert beschrieben worden. An seinem Beispiel lässt sich studieren, was gutes Suchalgorithmen-Design auszeichnet. Der Erfolg des Algorithmus basiert darauf, dass er eine inhaltlich definierte Suche - nämlich die Sortierung von Web-Seiten nach Relevanz - in eine Aufgabe übersetzt, die sich mechanisch lösen lässt - in diesem Fall durch eine Analyse von Verweisungszusammenhängen zwischen Web-Dokumenten.

Auf die eine oder andere Weise müssen alle Suchalgorithmen-Designer dies leisten. Manche von ihnen sind dabei besonders originell, wie der amerikanische Wirtschaftsforscher Orley Ashenfelter. Als Universitätsprofessor befasst er sich damit, knifflige und moralisch sensible Fragen wie die nach dem Wert eines Menschenlebens oder jene nach dem Zusammenhang von Intelligenz, Schulbildung und Einkommen erbsenzählerisch auf Angelegenheiten zu reduzieren, über die sich in Dollar und Cent reden lässt. Kein Wunder, dass so jemand auf die Idee kommt, den Geschmack eines Weins auf eine berechenbare Größe zurückzuführen: Ashenfelter hat einen Algorithmus entwickelt, der es erlaubt, die Qualität eines Bordeaux zu messen. In die Bestimmungsformel fließen das Alter der Weinstöcke ein, die Durchschnittstemperaturen im Frühjahr und Sommer sowie die Menge des Niederschlags in verschiedenen Perioden.

Im Endeffekt soll das Verfahren es erlauben, die geschmackliche Qualität eines Weins zu bestimmen, ohne ihn zu probieren. Das mag zwar etwas freudlos erscheinen, ist aber nützlich. Zum einen hat sich in Tests immer wieder gezeigt, dass Wein-Begutachtungen von Experten weit davon entfernt sind, solide Ergebnisse zu produzieren - das Urteil ein und desselben Gutachters ist zu sehr von der Tagesform abhängig. Und zum anderen ist der Geschmack insbesondere von Bordeaux-Weinen erst nach jahrelanger Lagerung voll entwickelt. Deshalb ist es interessant, vorab zu wissen, welche Qualität ein Wein haben wird - um abzuschätzen, zu welchem Zeitpunkt es am vernünftigsten ist, einen bestimmten Jahrgang zu kaufen.

Zweite Hürde: den Algorithmus auf Effizienz trimmen

Nun mag ein Suchalgorithmus zwar erfolgreich darin sein, Fragen des Geschmacks oder der Relevanz auf messbare Größen zurückzuführen. Aber er ist nutzlos, wenn es ihm an einer weiteren Eigenschaft mangelt: Effizienz. Diese Erfahrung musste der amerikanische Mathematiker Jon Kleinberg machen. Zur gleichen Zeit, als Lawrence Page und Sergey Brin am Pagerank-Algorithmus feilten, erfand Kleinberg keine 40 Kilometer entfernt als Gastwissenschaftler am IBM Almaden Research Center den Hits-Algorithmus. Hits steht für "Hypertext Induced Topic Search".

Der Sache nach funktioniert dieser Algorithmus ähnlich wie der Pagerank. Im Unterschied zu ihm setzt er aber nicht nur auf die Häufigkeit des Zitierens, sondern versucht darüber hinaus3 festzustellen, welche Kompetenz die verweisenden Seiten in Bezug auf das jeweilige Thema haben. Dies geschieht, indem der Algorithmus bei der Bewertung der Relevanz besonderen Wert auf das Wechselspiel von Web-Seiten mit zwei besonderen Merkmalen legt: "Knotenpunkten" und "Autoritäten". Knotenpunkte oder Hubs sind Seiten, die auf viele andere Seiten verweisen. Autoritäten sind Seiten, auf die von vielen Seiten verwiesen wird. Ein guter Hub verweist nicht nur auf möglichst viele Seiten, sondern auch auf möglichst gute Autoritäten. Gute Autoritäten wiederum sind solche, auf die von vielen guten Hubs verwiesen wird.

Dass sich einem bei dem Versuch, dies zu verstehen, der Verstand dreht, ist kein Wunder. Denn der Algorithmus beschreibt einen Zirkel. Praktisch ausgedrückt, sieht die Sache so aus: Wer mittels Hits-Seiten Informationen über Fußball sucht, wird Treffer angezeigt bekommen, die auf Fußball spezialisiert sind oder die von Fußball-Spezialseiten empfohlen werden.

In der Sortierung der Suchergebnisse war Hits dem Pagerank überlegen. Es gab allerdings einen Haken: Hits erforderte einen dermaßen großen Rechenaufwand, dass er für den Einsatz in den riesigen Datenhalden des Webs nicht geeignet war. Der Algorithmen-Designer Jon Kleinberg, der für seine Arbeit viele Auszeichnungen erhalten hat, unter anderem den Rolf-Nivanlinna-Preis, eine der wichtigsten Auszeichnungen, die auf seinem Gebiet vergeben werden, ist heute immer noch Professor für Informatik an der Cornell University im Bundesstaat New York, wo er Anfang der neunziger Jahre seinen ersten Studienabschluss erhielt.

Die Geschichte ist damit jedoch noch nicht zu Ende. Denn es kam eine weitere Person hinzu: der Sohn eines Eisenwarenhändlers aus einem Bergdorf im Norden Griechenlands, der in seinem Heimatland durch sein besonderes mathematisches Talent aufgefallen und in die USA gezogen war, um dort zu studieren und eine akademische Karriere zu verfolgen. Sein Name ist Apostolos Gerasoulis.

Zu jener Zeit, als der junge Informatiker Jon Kleinberg seine Studien zum Hits-Algorithmus veröffentlichte, war Gerasoulis bereits seit fast 20 Jahren Professor für Angewandte Mathematik an der Universität von New Jersey. Und er wollte nicht glauben, was die Kollegen der Computerwissenschaften glaubten, herausgefunden zu haben: dass der Hits-Algorithmus für den Einsatz im großen Stil ungeeignet war. Gerasoulis machte sich mit seinen Studenten an die Arbeit.

Der Hits-Algorithmus erlaubte es nur, das Web mit immer der gleichen Geschwindigkeit nach Web-Seiten zu durchsuchen. Der Algorithmus, den das Team mithilfe von Hits bastelte, steigerte sein Tempo enorm: im ersten Schritt mal zehn, im zweiten mal hundert, im dritten mal tausend. "Ich habe diese Lösung nur deshalb entwickeln können, weil ich aus dem Bereich der angewandten Forschung kam und bereit war, auf Perfektion zu verzichten", sagt Gerasoulis heute. "Aus Sicht von jemandem, der auf dem Gebiet der reinen Mathematik arbeitet, musste sich die Aufgabe in der Tat als unlösbar darstellen."

Begeistert von seiner Erfindung, ließ sich Gerasoulis von seiner Universität beurlauben, fand einen Investor und gründete die Suchmaschine Teoma. 2001 wurde Teoma mitsamt ihrer Technik, die heute Expert Rank heißt, von der Suchmaschine Ask übernommen. Ask ist, abgesehen von Portalen wie Yahoo, als reiner Suchanbieter in den USA direkt hinter Google platziert. Glaubt Gerasoulis, die Konkurrenz irgendwann einholen zu können? "Kein Monopol hat ewig Bestand", sagt er. "In China ist es dem Newcomer Baidu Google auch gelungen, Google auf einen Anteil von nur 20 Prozent zurückzudrängen."

Algorithmen nach dem Vorbild der Natur

Nicht viele Algorithmen-Designer haben wie Apostolos Gerasoulis die Neigung, sich als Unternehmer zu versuchen. Doch alle stehen in ihrer Arbeit immer wieder vor der Herausforderung, Suchverfahren effizient zu gestalten. Viele haben sich bei der Suche nach Lösungswegen, die nicht optimal, dafür aber gangbar sind, an Vorbildern aus der Natur orientiert. Der Ameisenalgorithmus etwa, der vor einigen Jahren von dem in Brüssel forschenden Mathematiker Marco Dorigo entwickelt wurde, ist an die Kommunikation eines Ameisenvolkes angelehnt, das sich mittels Duftstoffen über Wege zu Futterplätzen verständigt. Damit kann man etwa die Route eines Handlungsreisenden berechnen, der nacheinander mehrere Städte in optimaler Reihenfolge besuchen muss. In der Industrie gibt es für die Methode viele Anwendungsmöglichkeiten: Unilever setzt Ameisenalgorithmen bei der Lagerlogistik von Verpackungen und Vorratsbehältern mit Chemikalien ein, die US-Fluglinie Southwest Airlines verwendet sie bei der Optimierung im Frachtverkehr.

Wie beim Hits-Algorithmus gab es auch für das Problem des Handlungsreisenden, das der Ameisenalgorithmus löst, bereits eine mathematisch exakte Lösung. Die erforderte allerdings einen zu großen Rechenaufwand. Die einfachste Lösung benötigte, um allein die Route zwischen 30 Städten zu berücksichtigen, auf den schnellsten Computern eine Rechenzeit von mehr als einer Milliarde Jahre.

Auch sonst schauen sich Mathematiker bei der Entwicklung von pragmatischen, aber effizienten Suchalgorithmen Verhaltensstrategien aus der Natur ab. So forscht man im Hewlett-Packard-Entwicklungslabor in Bristol daran, die Funktionsweise von Immunsystemen zu simulieren und auf Fragestellungen der IT-Sicherheit zu übertragen. Am University College in London gibt es sogar eine Forschungsgruppe mit dem Namen Digital Biology. Die arbeitet unter anderem an dem Einsatz von sogenannten genetischen Algorithmen für die Entwicklung von Formel-1-Rennwagen mit verbesserter Aerodynamik. Ein anderes Projekt ist ein Lifestyle-Empfehlungssystem, das bei der Beratung in Sachen Musik, Restaurants und anderen persönlichen Interessen auf einen Algorithmus zurückgreift, der den Prozessen der natürlichen Evolution nachgebildet ist.

Dritte Hürde: den Algorithmus anpassungsfähig machen

Noch in einer weiteren Hinsicht sind Vorgänge in der Natur ein lehrreiches Vorbild für Algorithmen-Entwickler: In der Naturgeschichte lässt sich verfolgen, wie Arten und Lebensräume in ihrer Entwicklung interagiert und sich einander angepasst haben - dies bezeichnet man als Koevolution. Die gleichen Phänomene spielen sich auch in der Welt der Suche ab, wenn etwa Algorithmen durch das Feedback ihrer Nutzer im Laufe der Zeit klüger werden. Gleichzeitig verändert sich aber auch das Umfeld, der Lebensraum der Suchmaschinen: So begannen findige Web-Seiten-Gestalter schon früh, ihre Seiten mit einigen Tricks auf den Ranglisten bei Google & Co. nach oben zu bringen.

Suchmaschinenoptimierung oder SEO nennt sich der in Deutschland ungefähr seit der Jahrtausendwende existierende Geschäftszweig, dem es, anders als der Name suggeriert, nicht etwa um die Optimierung von Suchmaschinen geht, sondern darum, sie auszutricksen. Es wird geschätzt, dass allein in Deutschland 10 bis 20 Prozent aller Umsätze in der Online-Vermarktung auf Suchmaschinenoptimierung entfallen. Im vergangenen Jahr betrugen diese Gesamtumsätze knapp zwei Milliarden Euro - rund 80 Prozent mehr als im Vorjahr.

Für die Optimierer ist es ein Leichtes, einen Suchalgorithmus wie den Pagerank zu beeinflussen. Dies geschieht unter anderem mit sogenannten Linkfarmen: Web-Seiten, deren Zweck allein darin besteht, durch Verweise auf andere Seiten deren Position im Ranking bei Google zu verbessern. Für die Online-Werbung spielt das eine wichtige Rolle. Werbeanzeigen auf populären Seiten wie Spiegel-Online sind für Anzeigenkunden nämlich nicht in erster Linie attraktiv, weil Besucher der Seite durch die Anzeige auf das Produkt aufmerksam werden. Vielmehr verbessert ein Anzeigen-Link, der von einer populären Seite ausgeht, die Position der eigenen Seite auf Trefferlisten, die Google bei der Suche nach bestimmten Stichworten erzeugt.

Die Suchmaschinen haben auf diese Form der Manipulation inzwischen reagiert. Mittlerweile fließen bei Google mehr als 200 verschiedene Arten von Informationen in die Berechnungen der Suchergebnisse ein. Wöchentlich nehmen die Entwickler ein halbes Dutzend größerer und kleinerer Veränderungen vor. Dabei geht es immer mehr darum, nicht nur Suchanfragen zu verarbeiten, sondern die Gedanken des Nutzers zu lesen. So soll der Suchalgorithmus zum Beispiel herausfinden, wann Menschen nach Nachrichten suchen und deshalb Aktualität höher gewichten als zeitlose Bedeutung. Techniken des sogenannten maschinellen Lernens ermöglichen der Maschine darüber hinaus, in den unzähligen Suchanfragen, die sie über die Jahre durchführt, selbstständig Muster zu erkennen, auf die sie dann im Einzelfall reagieren kann.

Gegen die Manipulation von Web-Seiten kommt Google trotzdem nicht an. "Erst haben die Ingenieure bei Google noch versucht, den Tricks der Suchmaschinenoptimierer mit eigenen Tricks entgegenzuwirken", sagt Alwin Pipper, der die Technikabteilung der auf Suchmaschinenoptimierung spezialisierten Agentur Sumo in Köln leitet. "Aber wenn sich zehn Millionen Spammer zusammentun, kommt auch Google nicht dagegen an. Irgendwann reift dann die Erkenntnis, dass man sich nicht als Gegner gegenüberstehen muss."

Seit einiger Zeit erlaubt Google es deshalb seinen Entwicklern, wie etwa dem SEO-Guru Matt Cutts, Blogs zu unterhalten, bei denen es auch immer wieder um Fragen rund um die Suchmaschinenoptimierung geht. Außerdem hat Google eine Art Ethik-Codex für diese Branche verabschiedet. Der Bundesverband Digitale Wirtschaft hat, darauf aufbauend, für seine Mitglieder ein Zertifikat entwickelt. "Am Anfang", erinnert sich Alwin Pipper, der früher als Sportjournalist gearbeitet hat und seit 1999 im SEO-Geschäft ist, "waren Seiten mit Pornos und Warez, also schwarz gehandelter Software, die wichtigsten Themen bei der Optimierung. Wie so oft, ging auch hier eine Subkultur dem Massentrend voraus. Heute möchten alle Unternehmen eine optimale Suchmaschinenplatzierung."

Die SEOs sind ebenfalls seriöser geworden. Wer sich nicht an die Regeln hält, muss damit rechnen, abgestraft zu werden. In spektakulärer Form geschah das Ende 2003, als Google mitten im Weihnachtsgeschäft viele kommerzielle Anbieter ans untere Ende der Trefferliste verbannte und dafür Web-Seiten von Universitäten oder Regierungsorganisationen aufwertete. Vor einigen Wochen geschah etwas Ähnliches. Google stufte den Pagerank von Seiten wie Zeit.de oder Stern.de herab, weil sie zu viele Werbe-Links enthielten. Es kommt sogar vor, dass Seiten wegen unlauterer Optimierungsmethoden ganz aus dem Suchergebnis gestrichen werden - vor einigen Monaten passierte das BMW.

Abgesehen von der drohenden Strafe, ist der Nutzen der Trickserei ohnehin fraglich. Das zeigt die Geschichte eines Wettbewerbes, den das Computermagazin "C't" im Frühjahr 2005 veranstaltete. Es ging darum, eine Web-Seite zu bauen, die sich bei der Suche nach dem Fantasietier "Hommingberger Gepardenforelle" möglichst weit oben in den Charts der Suchmaschinen platzierte. Die Gewinner des Wettbewerbes waren keine Trickkönige, sondern Web-Autoren, die es mit interessanten Inhalten geschafft hatten, von vielen anderen Seiten zitiert zu werden.

Informationen besser organisieren: Ist das die Zukunft der Suche?

So etwas spricht sich auch bei den Optimierern herum. "Wir setzen mehr auf den gesunden Menschenverstand als darauf, dem Algorithmus hinterherzujagen", sagt Alwin Pipper von Sumo, "auch wenn die Umsetzung hinterher doch wieder technisches Know-how erfordert." Mit etwas Wohlwollen könnte man das, was Menschen wie Alwin Pipper tun, auch als Aufbereitung von Informationen bezeichnen. Einige glauben sogar, dass hier die Zukunft der Suche liegt. Semantische Technik ist der Oberbegriff für Projekte, die anstelle der algorithmusgetriebenen Suche auf die effiziente Vermittlung von Inhalten setzen. Die deutsche Bundesregierung fördert diesen Ansatz im Verbund mit führenden Technikunternehmen im Rahmen des Technikprojektes Theseus.

Stefan Wess, der als Geschäftsführer des Informationslogistik-Unternehmens Empolis federführend an Theseus beteiligt ist, findet für die Beschreibung des Projektes erfrischend einfache Worte. "Ich habe eine Tochter", erklärt er. "Wenn ich der sage: , Du musst dein Zimmer aufräumen! ', versteht sie das nicht - bis sie in ihrem eigenen Chaos erstickt und merkt, es wäre besser gewesen, sie hätte von Anfang an Ordnung gehalten. So wie jeder Mensch diese Entwicklung durchlaufen muss, geht es auch mit Informationen und der Informationsindustrie. Das Chaos muss erst groß werden, bis ich bereit bin, Informationen gleich zu ordnen, wenn sie entstehen."

Das ist der Traum eines semantischen Webs (vgl. brand eins 07/2007, "Mein Computer versteht mich!"): ein aufgeräumtes Internet. Alles, was man dazu bräuchte, wäre eine ausführliche und sorgfältig ausgefüllte Inhaltsbezeichnung an jedem Web-Dokument, an jedem Bild und jedem Song, sowie ein ausgeklügeltes Kategoriensystem, mit dem sich diese Riesendatenbank verwalten ließe. Weil niemand in der Lage ist, das ganze Internet aufzuräumen, will man jetzt mit Theseus wenigstens im Kleinen Ordnung schaffen: mit Datenbanken und Suchwerkzeugen, die spezialisiert sind auf eng umrissene Aufgabenfelder in der Medizin, der Unternehmenskommunikation sowie in Bibliotheken, Museumsbeständen und Bild- und Filmarchiven.

Es sind so viele verschiedene Techniken und Anwendungsszenarien bei dem Projekt involviert, dass es schwer auf den Punkt zu bringen ist. Nur eines wird man bei Theseus nicht müde zu betonen: "Wir sind keine Suchmaschine." Andererseits hat man durchaus Ambitionen. "Wenn wir die Art und Weise, wie wir mit Information umgehen, grundlegend ändern, dann wird die Suche weniger wichtig", sagt Stefan Wess. "Suche ist nur ein Ausdruck von mangelnder Organisation."

Aber ist das so richtig? Suche ist mehr als das Kramen nach Dingen, die man selbst verlegt hat. Suche ist Navigation - sei es durch das Netz der städtischen Verkehrsbetriebe oder beim Stöbern nach relevanten Nachrichten inmitten von Schrott-Informationen. Und Suche bedeutet auch, Prognosen zu erstellen. Immer wieder geht es bei der Suche darum, vorherzusagen, was Menschen subjektiv als wichtig und passend erachten, ganz egal, ob es um Web-Seiten geht, Wein oder die Frau fürs Leben. Algorithmen-Designer werden noch lange genug zu tun haben. -

Mehr aus diesem Heft

Design 

Ware Schönheit

Viele Chinesen glauben an eine schönere Welt, von Menschenhand erschaffen nach dem Rezept: Viel hilft viel.

Lesen

Design 

Bierfässer aus Birkenholz

Schönheit rettet die Welt, behaupten die Russen. Tatsächlich benutzen sie Schönheit zu allem Möglichen. Nur nicht, um die Welt zu retten.

Lesen

Idea
Read