• Facebook
  • Google+
  • Twitter
  • XING
13.09.2009

20 Jahre Discount-Usability

Einfache Nutzertests mit 5 Teilnehmern, Papierprototypen und heuristischer Evaluierung bieten einen billigen, schnellen und frühen Zugriff auf Usability, ebenso wie viele iterative Design-Runden.

 

by Jakob Nielsen (deutsche Übersetzung) - 14.09.2009

 

Im September 1989 habe ich bei der 3. Internationalen Konferenz zur Mensch-Maschine-Interaktion in Boston ein Papier mit dem Titel "Usability Engineering at a Discount" vorgestellt. Mit dieser Tat habe ich offiziell den Startschuss für die Discount-Usability gegeben, obwohl ich bereits zwei Jahre zuvor begonnen hatte, die Ideen dafür auszuarbeiten.

Wie so viele Ideen war auch diese aus der Not geboren. Als Universitätsprofessor in den 1980er Jahren hatte ich ein viel kleineres Budget als, sagen wir, das IBM User Interface Institute beim T. J. Watson Research Center, in dem ich gearbeitet hatte, bevor ich zur akademischen Laufbahn zurückgekehrt war. Klar, ich konnte jetzt nicht mehr die gleiche Art hochpreisiger Usability-Projekte durchführen wie die Spitzenlabore, doch ich machte aus dieser Not eine Tugend und begann, eine Methodik für billige Usability zu entwickeln.

Mein Papier von 1989 plädierte für drei Haupt-Komponenten der Discount-Usability:

  • vereinfachte Nutzertests mit einer Handvoll Teilnehmern, einem Schwerpunkt auf qualitativen Untersuchungen mit Hilfe der Methode des lauten Denkens. Das laute Denken gab es zwar schon jahrelang, bevor ich es in eine Discount-Methode verwandelt habe, aber der Gedanke, dass das Testen von fünf Nutzern "gut genug" sei, widersprach der damaligen Orthodoxie vom Faktor Mensch.

  • reduzierte Prototypen - meistens Papierprototypen -, die einen einzelnen Pfad durch die Nutzeroberfläche unterstützen. Es geht viel schneller, Papierprototypen zu entwerfen, als etwas, das das gesamte Nutzererlebnis beinhaltet. So können Sie sehr früh mit den Tests beginnen und Testschritte für viele Design-Runden durchführen.

  • heuristische Evaluierung, bei der Sie die Designs von Nutzeroberflächen evaluieren, indem Sie sie mit etablierten Usability-Richtlinien vergleichen.

Es ist heutzutage vielleicht nicht mehr leicht zu verstehen, aber vor 20 Jahren waren diese Gedanken ketzerisch. Damals lag der Gold-Standard bei komplizierten (und aufwändigen) Studien mit quantitativen Messungen. Ich erkenne nach wie vor an, dass dieser ältere Ansatz seine Berechtigung hat, und manchmal führen wir Benchmark-Studien durch, sowohl als unabhängige Forschung als auch im Auftrag grösserer Kunden, die trotz des Aufwandes Messwerte verfolgen. Aber Quantität sollte die Ausnahme sein und Qualität die Regel.

Dass ich für vereinfachte Methoden plädierte, war schon schlimm genug; ich besass aber auch noch die Frechheit, sie zu feiern. Damals schämten sich die Leute geradezu, wenn sie sich gezwungen sahen, eine billige Studie durchzuführen; aber in dem Papier von 1989 brüstete ich mich damit, Discount-Usability in zwei Fallstudien in der Finanzbranche eingesetzt zu haben: bei einem Redesign für Bankkonto-Informationen und bei einem Redesign für individuelle Pensionskonto-Informationen. Bei dem Bankkonto-Projekt habe ich 8 verschiedene Design-Versionen getestet, bei dem Pensionskonto-Projekt 11 verschiedene Versionen. Diese aufwändigen Iterationen wurden im ersten Fall innerhalb von 90 Stunden, im zweiten Fall innerhalb von 60 Stunden fertig gestellt. Beide Projekte hatten grossartige Ergebnisse und waren nur mit Hilfe von Discount-Methoden möglich.

Discount-Usability liefert oft bessere Resultate als Luxus-Usability, weil ihre Methoden den Schwerpunkt auf frühe und schnelle Iterationen mit schnell wechselndem Usability-Input legen.

Kann ich also vom heutigen Standpunkt aus einen Sieg ausrufen? Meine zwanzigjährige Kampagne für Discount-Usability war zwar sicher nicht vergeblich, aber einen Sieg kann ich nicht verkünden:

  • Die meisten Unternehmen verschwenden weiterhin Geld, indem sie bei jeder Usability-Testrunde mehr als fünf Nutzer testen. In meinem 1989er Papier habe ich in Wirklichkeit für Tests mit drei Nutzern plädiert, die in der Regel die höchste Rendite versprechen. Seitdem bin ich von dieser radikalen Position abgegangen und plädiere jetzt für fünf Nutzer als Kompromiss, der in den meisten Organisationen funktioniert, auch wenn sie nicht ganz so fix sind, wie ich es 1989 von den Web-Designern erwartet habe.

  • Nach wie vor zollen die Leute fragwürdigen quantitativen Studien mehr Aufmerksamkeit als einfachen qualitativen Studien, die eine viel grössere Validität haben.

  • Die meisten Design-Teams glauben immer noch nicht an Papierprototypen und stecken stattdessen viel Zeit in aufwändige Design-Dummies, bevor sie mit dem Einholen von Nutzerrückmeldungen beginnen.

  • Viele Leute bezweifeln immer noch den Wert von Usability-Richtlinien und heuristischen Evaluierungen, wenn dies auch inzwischen zur zweitpopulärsten Usability-Methode geworden ist.

Die Robustheit von Usability-Methoden

Eine andere, grössere Kontroverse löste meine Behauptung aus, dass Usability-Methoden robust genug seien, um auch dann noch anständige Resultate zu liefern, wenn man keine perfekten Forschungsmethoden anwendet. Natürlich liefern die besten Methoden auch die besten Ergebnisse, und ich habe in den letzten 26 Jahren viel Zeit damit verbracht, Leuten die korrekten Usability-Techniken beizubringen.

Aber es können eben auch Leute, die keine ausgewiesenen Usability-Spezialisten sind und nicht den raffinierten Ansatz verfolgen, den ich von meinen eigenen Leuten erwarte, Nutzerstudien durchführen. So können zum Beispiel auch Designer ihre eigenen Nutzertests machen. Ich habe zahllose Beispiele für den Wert von nicht ganz perfekten Methoden studiert. Im Geist des Jubiläums der Discount-Usability darf ich Ihnen hier Daten aus dem Jahr 1988 präsentieren, als ich die Gedanken des 1989er Papiers entwickelte:

Resultat Discount-Usability-Studie 1988

In diesem Diagramm steht jeder der 20 Punkte für ein Team, das eine Usability-Studie mit MacPaint 1.7 (einem frühen Zeichenprogramm) durchgeführt hat. Jedes Team hat drei Nutzer getestet, und ich habe auf einer Skala von 1-100 bewertet, wie gut sie die Studie gemacht hatten, wobei 100 Punkte für mein Modell eines idealen Tests stehen. Insgesamt hatte das Software-Paket acht grosse Usability-Probleme (sowie mehrere kleinere, die ich nicht analysiert habe).

Das Diagramm zeigt klar, dass die Teams, die bessere Methoden verwendet haben, tendenziell mehr Usability-Probleme gefunden haben. In Wirklichkeit war die gemessene Studienqualität zu 58% für die Variabilität der Anzahl der identifizierten Usability-Probleme verantwortlich. (Die übrigen 42% hingen vom Talent der Team-Mitglieder ab - und möglicherweise auch vom Glück.

Ja, es zahlt sich aus, an meinen Kursen teilzunehmen :)

Bessere Usability-Methoden führen in der Tat zu besseren Ergebnissen, wenigstens im Durchschnitt. Aber die allerbeste Leistung vollbrachte ein Team, dessen Methoden nur zu 56% mit den besten Praktiken der Usability-Methodik übereinstimmten. Und selbst Teams, deren Methodik nur 20-30% erzielte (also Leute, die lausige Studien gemacht haben), haben immer noch ein Viertel der ernsten Usability-Probleme des Produkts herausgefunden.

Zwei ernste Usability-Probleme in Ihrem Design herauszufinden, ist auf jeden Fall der Mühe wert, besonders dann, wenn Sie dafür nur drei Nutzer testen müssen - also im Grunde die Arbeit eines Nachmittags. Natürlich empfehle ich Ihnen, dass ein Usability-Experte noch tiefer gräbt, aber auch so gilt: Zwei ist unendlich viel mehr als null (die Summe an Usability-Wissen, die Sie erzielen, wenn Sie gar nicht testen).

Schlechte Nutzertests sind besser als gar keine Nutzertests.

Dieser letzte Punkt ist immer noch nicht allgemein akzeptiert, und Discount-Usability beherrscht immer noch nicht die Welt des Nutzeroberflächen-Designs. Aber seit ich es in einem Vorlesungssaal vor etwa 100 Personen erstmals vorgestellt habe, ist es einen weiten Weg vorangekommen. Alles in allem bin ich glücklich, dass ich diese Kampagne gestartet habe, und werde den Kampf für einfachere Usability fortsetzen, bis sie allgemein verbreitet ist.

 

© Deutsche Version von Jakob Nielsens Alertbox. Institut für Software-Ergonomie und Usability AG. Alle Rechte vorbehalten.

Kommentare auf diesen Beitrag

    Keine Kommentare

Kommentar hinzufügen

Die mit * gekenzeichneten Felder sind zwingend auszufüllen