Partner von
Partner von

Don Norman im Interview

Benutzerfreundlichkeit war lange Zeit die Mission des Design-Philosophen Don Norman. Doch für die Welt von morgen ist sie ihm zu wenig.




brand eins: Herr Norman, Sie haben immer betont: Wenn etwas nicht funktioniert, soll man den Fehler nicht bei sich suchen, sondern beim Designer. Ist dieser Satz noch haltbar?

Don Norman: Ich stehe zu meinem Statement aus den Achtzigerjahren. Wenn wir im Umgang mit Geräten nicht mehr weiterwissen, dann liegt das nicht daran, dass sie schlecht, sondern eigentlich gar nicht designt sind. Zumindest nicht von jemandem, der etwas von Benutzbarkeit versteht. Oft sind das Ingenieure, die Dinge nach reiner Logik bauen, oder Designer, die keine Ahnung haben, was am Menschen orientierte Gestaltung ist.

Was ist schlecht an logischem Denken?

Mit Logik kommt man bei gutem Design nicht weiter. Wir haben sie erfunden, um uns durchs Leben zu hangeln - hätte sie etwas mit Intuition zu tun, müsste man sie nicht lehren. Aber wenn wir etwas entwerfen, sollten wir uns an echten Menschen orientieren, nicht an theoretischen Nutzern, die man sich als Ingenieur wünscht. Allerdings hat man manchmal keine Wahl. Ich habe selbst einiges entworfen, das schwierig oder unnötig kompliziert war. Ich hatte Details übersehen oder musste mit Beschränkungen arbeiten: Ein Objekt durfte nur wenig Platz einnehmen, es war keine Zeit für ordentliche Studien, das Geld war knapp. Fast immer muss man abwägen, welchen Aspekt man zulasten eines anderen stärker gewichtet. Dafür habe ich Verständnis, deswegen sage ich immer: Wer ein Design kritisiert, muss auch eine Antwort parat haben, wie man es besser machen kann.

Ihre Forderung ist, den Menschen zur Messlatte zu machen. Was ist daran so ungewöhnlich?

Traditionell stammt Design aus der Kunst und der Architektur. Bis heute herrscht Unklarheit, worin sich Kunst und Design unterscheiden. Meine Definition lautet, ein Künstler designt für sich selbst. Er experimentiert, er will Statements abgeben und sich an seinen Kreationen freuen. Designer hingegen arbeiten für andere Menschen, also sollten sie besser genau über ihre Mitmenschen Bescheid wissen und darüber, was diese mit den fertigen Produkten anfangen werden.

Gibt es eine Art Checkliste, die dem Designer hilft, das bei seiner Arbeit nicht zu vergessen?

Wir haben dafür über die Jahre Techniken entwickelt und psychologische Prinzipien formuliert - etwa, dass sich die Bedienerführung eines Geräts an jenem Vorwissen orientiert, das jeder von uns besitzt. Designer können ja nicht direkt mit dem Nutzer kommunizieren, deshalb muss der Austausch über das Gerät erfolgen. Ein weiteres Prinzip besagt, dass man Nutzer nicht überfordern darf: Aus Studien zum Kurzzeitgedächtnis wissen wir, dass sich niemand mehr als fünf Dinge gleichzeitig merken kann. Wir brauchen also Hilfestellungen entlang des Weges. Aber Design ist keine Wissenschaft. Während sich ein Ingenieur immer gleich auf die seiner Meinung nach beste Lösung stürzt, geht ein guter Designer anders vor. Wenn man ihn nach ein paar Wochen fragt, hat er noch keine Antwort parat, sondern ein Problem von allen möglichen Seiten untersucht.

Das klingt nach einem zeitraubenden Prozess.

Die Japaner bezeichnen ihn als die "fünf Warums". Warum ist das die beste Antwort? Warum? Warum? Warum? So fragt man immer weiter und nähert sich schließlich der fundamentalen Frage. Oft stellt sich heraus, dass man gar nichts Neues schaffen muss, um sie zu beantworten. Es geht also bei der nutzerorientierten Gestaltung erst einmal um die richtige Fragestellung, die angemessene Antwort darauf kommt später.

Was heißt angemessen? Das kann ein attraktiver Preis sein, die ästhetische Form, aber auch der Spaß, ein Gerät zu nutzen.

Wir Designer arbeiten natürlich unter betriebswirtschaftlichen Zwängen. Was ich entwerfe, muss ins Produktportfolio einer Firma passen, und es muss sich an ihrem Kundenkreis orientieren. Selbst wenn ich viel Zeit und Geld zur Verfügung habe, darf ich das nicht aus den Augen verlieren. Und was bestimmte Nutzer wollen, kann man nur herausfinden, wenn man sein Studio verlässt und den Leuten zuschaut und zuhört.

Viele Firmen setzen inzwischen auf Online-Feedback - jeder hat eine Meinung, die er auf Social-Media-Kanälen kundtut. Sind diese Informationen nicht wertvolle Hilfestellungen?

Das Feedback aus dem Netz ist voreingenommen und begrenzt. Wer mit meinem Produkt sehr zufrieden oder sehr unzufrieden ist, schreibt darüber - wenn man nachfragt, stellt sich allerdings oft heraus, dass die Schreiber das Produkt gar nicht selber besitzen. So wichtig es also ist, diese Rezensionen zu lesen: Man darf darüber nicht die handfeste Recherche vergessen - und das heißt vor allem, mit all jenen zu sprechen, die mein Produkt noch gar nicht kennen oder gekauft haben. Mit ihnen muss man reden, ihnen zusehen, zuhören. Wer nur den Umfragen glaubt, versteift sich oft auf Details, die Nutzer nerven, aber keineswegs das grundlegende Problem sind.

Sie sagen, ein sorgfältig gestaltetes Produkt komme ohne Gebrauchsanweisung aus. Die Wirklichkeit sieht anders aus: Die meisten Geräte werden mit dickem Handbuch geliefert, das keiner liest.

Wir sollten inzwischen begriffen haben, dass die Leute keine Gebrauchsanweisungen lesen. Wer alltägliche Dinge designt, muss sich vor allem überlegen, wie Geräte den Nutzer durch einen Dialog führen können, statt nur dumm zu blinken oder zu piepsen. Der große Vorteil moderner Elektronik besteht darin, dass sie konkrete Hinweise geben kann: "So geht es." Damit erledigt sich oft das Handbuch. Außerdem löst sich mangelhafte Bedienbarkeit oft auf ganz andere Weise. Beim alten Videorekorder sind viele Nutzer an der Programmierung der eingebauten Uhr gescheitert - inzwischen haben schlaue Designer erkannt, dass man die Uhr einfach abschaffen kann. Moderne, digitale Rekorder zeigen mir eine Liste aller Sendungen auf dem Bildschirm an, und ich suche mir nur meine Favoriten aus. Wann und wo sie laufen, ist mir völlig egal. Das ist die angemessene Antwort, wenn man den "fünf Warums" auf den Grund geht.

Neben Ihnen liegt ein iPad. Das Gerät wird normalerweise als glänzendes Vorbild für Design bemüht, das sogar ein Kind mehr oder weniger auf Anhieb versteht.

Man braucht kein Handbuch, um loszulegen. Aber ich habe etwas Grundlegendes daran auszusetzen, das übrigens auf viele Geräte zutrifft. Wenn ich als Nutzer etwas lerne, will ich es auch eine Woche später noch parat haben, statt wieder vor demselben Problem zu stehen. Beim iPad bin ich immer wieder ratlos. Das liegt zum Teil daran, dass die vielen Apps nicht vom selben Team entworfen wurden und deswegen unterschiedliche Menüs und Kommandos haben. Aber es geht dabei noch um etwas anderes: Apple war einer der Pioniere, die Computer benutzerfreundlicher gemacht haben. Dank der grafischen Oberfläche mit Menüs konnte man immer sehen, welche Auswahlmöglichkeiten zur Verfügung stehen: Man klickte etwas an, und eine Liste tat sich auf. Nun hat Apple zur Gestensteuerung gewechselt und damit das Prinzip der Entdeckbarkeit abgeschafft. Früher konnte ich einen Fehler rückgängig machen - das geht jetzt nicht mehr. Zudem habe ich keine Ahnung, ob ich mit einem, zwei oder drei Fingern wischen soll, nach links, rechts, oben oder unten. Es ist ein Buch mit sieben Siegeln.

Man kann doch aber auch mit Touchscreens auf Entdeckungsreise gehen. Oder nicht?

Sicher, seine Finger zu benutzen ist ein wunderbarer Fortschritt. So macht Technik mehr Spaß und ist für einiges die natürlichste Umgangsform. Aber gleichzeitig ist es ein Rückschritt, nämlich wenn es um Benutzbarkeit geht, also darum, ob wir Dinge entdecken und ob wir verstehen können, wie wir von A nach B gelangt sind. Das ist kein grundlegender Fehler der Gestensteuerung - es hat damit zu tun, wie die neue Technik heute eingesetzt wird. Keine dieser Benutzerschnittstellen lässt mich begreifen, welche Optionen ich habe. Man muss herumprobieren, oder man findet nie heraus, was alles möglich ist.

Muss man nicht deshalb probieren, weil jeder der großen Anbieter - Apple, Google und Microsoft - seine eigene Gestensprache hat?

Das macht das Problem nur schlimmer! Da Gesten durch Patente geschützt sind, hat jeder leicht unterschiedliche Methoden entwickelt. Neben den großen drei gibt es andere, und es werden bestimmt noch mehr dazukommen. Wenn ich also mein Android-Gerät mit den Fingern bediene, muss ich andere Gesten lernen als bei einem Apple-Gerät. Es wird dauern, bis sich da Standards herausbilden. Das war genauso, als Anfang des 20. Jahrhunderts die ersten Autos auf den Markt kamen. Bei einigen saß der Fahrer in der Mitte, bei anderen links oder rechts. Bei einigen gab man mit dem Fuß Gas, bei anderen mit der Hand. Ähnlich uneins ist heute die Welt der Gestensteuerung.

Grundsätzlich kommen Finger-Kommandos einer intuitiven Bedienung doch am nächsten, oder?

Alle diese Systeme sind für den Spaß optimiert, und ich habe nichts dagegen einzuwenden. Aber manchmal müssen wir arbeiten. Gott sei Dank gibt es noch Software, die ich mit der Maus oder einem Griffel bedienen kann, um in den vollen Genuss aller Menü-Optionen zu kommen. Mit Gestensteuerung wäre ich aufgeschmissen. Die alte Welt ist besser, wenn man produktiv sein will, die neue ist überlegen, wenn ich unterhalten werden möchte. Idealerweise will ich mich allerdings zwischen beiden hin und her bewegen.

Wie könnte das gehen?

Heutzutage benutzt ein großer Teil der Menschheit einen Computer, und dieses weltweite Publikum stellt Designer vor erhebliche Probleme, es allen recht zu machen. Über viele Jahre hinweg gab es nur zwei Betriebssysteme: Microsoft und Apple. Sie waren sich ähnlich und funktionierten nach denselben Prinzipien. Heute haben wir eine völlig neue Art Computer eingeführt, die ich Smart Screens nenne - egal, ob es Handys oder Tablets sind. Sobald wir Touchscreens in Desktops und Laptops einbauen, werden sie Teil dieser neuen Rechner-Generation, obwohl sie ganz anderen Benutzungsprinzipien folgen als tragbare Geräte.

Sind wir damit bei Begriffen wie Bedienbarkeit oder Usability?

Ich bin schon ein halbes Jahrhundert in diesem Geschäft. Und das Thema Usability ist für mich ehrlich gesagt erledigt. Wenn ich ein Auto oder eine Kamera kaufe, frage ich nicht mehr: Fährt es? Macht sie Bilder? Heute frage ich: Macht es Spaß, etwas zu benutzen? Kann ich eine positive emotionale Bindung aufbauen?

Es geht also um Erfahrung oder User Experience?

Diesen Begriff habe ich 1993 bei Apple geprägt und eine Gruppe dieses Namens eingerichtet. Das ist 20 Jahre her, aber der Begriff ist immer noch nützlich, wenn man darüber nachdenkt, wie man den Kunden erfreut. Wer heute etwas entwirft, muss an ein komplettes System denken, denn jedes neue Produkt ist streng genommen eine Dienstleistung. Ein Fotoapparat ist ein Gerät, aber worauf es mir ankommt, sind die Bilder und was ich mit ihnen anfange. Wenn ich Freunde fotografiere, will ich das Bild mit anderen teilen. Wenn ich in einem Restaurant das Etikett eines guten Weins fotografiere, will ich es für mich archivieren. Der iPod ist ein gutes Beispiel. Er war weder der erste noch der beste Musik-Player. Aber Apple hat es geschafft, damit das Herunterladen von Musik zu legalisieren. Mit einem simplen System, das alle Fragen rund ums Downloaden und Anhören beantwortete. Das wollen die Menschen.

Welche Anforderung stellt die zunehmend vernetzte Welt voller sogenannter intelligenter Geräte an die Bedienungsfreundlichkeit?

Die entscheidende Frage ist: Wie sieht die Rollenverteilung zwischen Mensch und Maschine aus, je intelligenter Geräte werden? Bislang haben wir Maschinen beauftragt, irgendwelche Aufgaben zu erledigen, und wir hatten die Hände frei für anderes. Theoretisch hatte der Mensch das Sagen, doch die Realität sieht anders aus: Sobald ich etwas an eine Maschine delegiere, weiß ich nicht mehr, was gerade los ist, besonders wenn etwas schiefläuft. Beim Autofahren etwa bleibt mir kaum Zeit zum Reagieren, wenn es bei einem autonomen System plötzlich hakt. Deswegen müssen wir uns frühzeitig Gedanken darüber machen, wie wir die Interaktion zwischen Mensch und Maschine verbessern können, wenn wir automatische Prozesse entwerfen.

Das trifft wohl eher auf komplexe Geräte wie Fahrzeuge oder Industrieanlagen zu als auf banale Alltagsgeräte.

Keineswegs. Navigationssysteme zeigen uns, wohin die Reise geht. Früher haben sie uns mit der Ansage genervt, man solle wenden, wenn man eine andere als die vorgeschlagene Route gewählt hatte. Jetzt berechnen sie einfach neu und passen sich an. Das sind kleine Schritte auf dem Weg zu einem Dialog > zwischen uns und intelligenten Geräten. Man kann es auch mit der Kommunikation zwischen Pferd und Reiter vergleichen. Wichtig ist, dass beide Seiten es erst lernen müssen.

Von Intelligenz kann man bei einem Gerät doch nur sprechen, wenn es seine Umgebung und den Kontext kennt.

Stimmt, aber auch das passiert bereits. Elektroautos beispielsweise müssen wissen, wie weit sie noch kommen, denn Ladestationen sind dünn gesät. Also beobachtet das Fahrzeug die Strecke und den Fahrer und kann so nicht nur die Reichweite voraussagen, sondern mir auch vorschlagen, statt der Autobahn die Landstraße zu nehmen, langsamer zu fahren, weniger stark zu beschleunigen. Wenn ein System so gestaltet ist und den Dialog sucht, dann vertraue ich ihm.

Wieso soll ein Mensch emotionale Bindungen oder Gefühle wie Vertrauen für ein Produkt oder eine Dienstleistung entwickeln? Sobald er sich an etwas gewöhnt hat, kommt doch etwas Neues.

Immer kürzere Produktzyklen sind furchtbar, denn Menschen wollen eine Beziehung zu den Dingen aufbauen, die sie benutzen. Aber selbst wenn man bei diesem Spiel mitmacht und alle paar Jahre das neueste Modell kauft, entwickelt man mit der Zeit eine Vertrautheit und Loyalität zur Marke. Wir bewegen uns außerdem auf eine Welt zu, in der man die Hardware keineswegs immer wegwerfen muss. Stattdessen wird nur die interne Software aktualisiert. Ein Beispiel sind die Elektroautos von Tesla. Sie verwenden ein flaches Chassis oder Skateboard-Design. So könnte man die Karosserie wie eine Smartphone-Hülle auswechseln und die interne Software verändern, je nachdem, wonach mir gerade der Sinn steht: Sportwagen, Limousine oder Minivan.

Wenn man den Vormarsch der intelligenten Maschinen zu Ende denkt, werden Menschen bald Produkte und Dienste entwerfen, die primär von anderen Maschinen genutzt werden. Kann man sich Knöpfe und Anzeigen dann sparen?

Wenn wir Dinge für eine vollautomatische Welt entwerfen, müssen wir den Bedürfnissen der Maschinen Vorrang einräumen - aber wir werden trotzdem weiterhin Anzeigen und Regler einbauen, weil wir Menschen gerne wissen wollen, was los ist. Auch wenn ich mit anderen Menschen zusammenarbeite, möchte ich ihnen ab und zu über die Schulter schauen und mich über den Stand der Dinge informieren. Solchen Informationsaustausch auf Augenhöhe wird es in Zukunft zwischen Mensch und Maschine geben. Heute dienen Anzeigen vor allem dazu, einem Gerät Befehle zu erteilen. In Zukunft werden wir Anzeigen entwerfen, die uns zeigen, wie weit eine Maschine ihre Aufgabe erfüllt hat. Diese Displays werden echte Kommunikation erlauben, aber sie werden nicht mehr nur von den Prinzipien des am Menschen orientierten Designs getrieben sein.

Vielleicht sollten Sie eine neue Disziplin namens maschinenorientiertes Design ins Leben rufen.

An der Schnittstelle Roboter und Mensch wird bereits geforscht. Aber dass Maschinen im Mittelpunkt bedienerfreundlichen Designs stehen sollten, ist wirklich neu. Da gibt es noch viel zu tun. Der Staubsauger-Roboter Roomba etwa kann allein sauber machen und seine Ladestation finden, aber sonst hat er keine Ahnung vom Kontext, in dem er arbeitet. Wann sind die Bewohner zu Hause, wann nicht? Was tun, wenn jemand nach Hause kommt und einen bestimmten Raum benutzen will? Insofern sind solche angeblich intelligenten Geräte weder auf die Bedürfnisse des Menschen noch auf die der Maschine optimiert, sondern nur auf die Erfüllung einer bestimmten Aufgabe.

Wenn es so einfach wäre, würden wir nicht ständig über Dinge fluchen, die nicht funktionieren. Je mehr Technik wir einsetzen, um uns das Leben zu vereinfachen, desto komplizierter scheint alles zu werden.

Mich beschäftigt die Frage, wie man komplette Systeme für Menschen wie Maschinen nutzerfreundlich gestaltet. Wie wird mein Leben aussehen, wenn ich das Haus mit meiner Frau und einem Haufen Roboterteile, die alle selbstständig unterwegs sind, um sowohl mir als auch sich gegenseitig zu helfen? Wie funktionieren Kontrolle und Kommunikation in einer solchen Situation? Wenn meine Frau und ich in der Küche stehen, sind wir uns ständig im Weg, obwohl wir uns bestens kennen und behaupten können, ein eingespieltes Team zu sein. Mit stationären Maschinen und mobilen Robotern wird die Koordinationsfrage erst richtig spannend. Da sehe ich die Design-Herausforderung der Zukunft.

---------------

Keiner kommt an Don Norman (77) vorbei, wenn es um Fragen zu einem Design geht, das sich am Menschen orientiert. Der emeritierte Professor für Kognitionswissenschaften predigte das Denken über und für den Nutzer sowohl in der akademischen Welt als auch in führenden Unternehmen. Norman lehrte lange Jahre an der University of California in San Diego und der Northwest University in Illinois und leitete Mitte der Neunzigerjahre die Advanced Technology Gruppe bei Apple. Dort prägte er den Begriff User Experience, um anstelle der reinen Benutzbarkeit die ganzheitliche Erfahrung der Anwender im Umgang mit Technik in den Vordergrund zu stellen. Norman ist Mitbegründer der Beratungsfirma Nielsen Norman Group und hat unter anderem Autohersteller von BMW bis Toyota beraten. Zum Thema menschliches Design hat er mehrere Bücher veröffentlicht, darunter "The Design of Everyday Things" (1988, deutscher Titel: "Dinge des Alltags"), "Emotional Design" (2004) und "The Design of Future Things" (2007). Sein Buch "The Design of Everyday Things" erscheint im Herbst in einer überarbeiteten und erweiterten Neuauflage.