• Facebook
  • Google+
  • Twitter
  • XING
13.02.2005

Authentisches Verhalten beim Nutzertest

Obwohl sie in einer künstlichen Situation stattfinden, erzeugen Nutzertests realistische Ergebnisse, weil sich die Leute stark für die Aufgaben engagieren und ihre Zweifel hintanstellen.

 

by Jakob Nielsen (deutsche Übersetzung) - 14.02.2005

 

Es ist ein Wunder, dass Nutzertests funktionieren: Man setzt Leute in einen Raum, wo lauter Fremde sie beobachten, wo Kameras alles festhalten, und bittet sie, schwierige Aufgaben mit Hilfe miserabler Websites zu lösen. Oft wird eine Wand des Raumes auch noch beherrscht von einem Furcht einflössenden Einwegspiegel. Wie kommt es, dass jemand unter solchen Umständen überhaupt irgendetwas zustande bringt?

In der Tat zeigt die Erfahrung, dass die Leute Websites und andere Nutzeroberflächen während solcher Testsitzungen nutzen können und tatsächlich nutzen - und dass bei solchen Studien viele wertvolle Usability-Ergebnisse herausschauen. Warum ist das so?

Hauptsächlich aus zwei Gründen: wegen dem persönlichen Engagement des Nutzers und wegen des Ausschaltens von Zweifeln.

Das Engagement der Nutzer

Wenn man die Testteilnehmer bittet, bestimmte Aufgaben zu erfüllen, entwickeln sie in der Regel ein so starkes Engagement beim Nutzen der Oberfläche, dass die laborbedingten Ablenkungen zurücktreten. Die Nutzer wissen, dass eine Kamera im Raum ist und vielleicht sogar ein Einwegspiegel, hinter dem sich weitere Beobachter verbergen, aber ihre Aufmerksamkeit konzentriert sich auf den Bildschirm.

Es ist ein grundlegendes menschliches Bedürfnis, bei einem Test gut abzuschneiden. Wir können immer wieder sagen: "Wir testen nicht Sie, sondern das System." Dennoch fühlen sich die Leute so, als würden sie selbst getestet, und sie wollen den Test bestehen. Sie wollen nicht von einem Computer geschlagen werden.

Weil sie das hinbekommen wollen, konzentrieren die Leute ihre mentalen Ressourcen auf das, was auf dem Bildschirm passiert, und nicht auf das, was im Raum passiert. Natürlich kann diese Konzentration leicht durchbrochen werden, und deshalb gehört es zu den Grundregeln für Nutzertests, dass die Beobachter absolut still bleiben, wenn sie mit dem Nutzer im Raum sind. In ausgeklügelten Usability-Laboren habe ich zudem beobachtet, wie Nutzer vom Geräusch von Kameras abgelenkt wurden, die sich an Deckengleisen bewegen, von daher sollte man diese Dinge besser vermeiden. Aber im Allgemeinen bleiben die Teilnehmer, so lange die Beobachter still sind und ausserhalb des Sichtfelds bleiben (hinter dem Nutzer oder hinter dem Spiegel), engagiert bei ihren Aufgaben.

Ein Schwachpunkt dieser Tendenz der Nutzer zu starkem Engagement liegt darin, dass die Nutzer manchmal in der Testsitzung hartnäckiger bei der Aufgabe bleiben, als sie es zu Hause tun würden. Wenn eine Nutzerin sagt, "Hier würde ich aufgeben", kann man davon ausgehen, dass sie wahrscheinlich schon ein paar Bildschirmseiten früher aufgegeben hätte, wenn sie nicht getestet würde.

Das Ausschalten von Zweifeln

Bei Nutzertests zerren wir die Leute aus ihren Büros oder Wohnungen heraus und bitten sie, so zu tun, als ob sie berufliche oder familiäre Aufgaben mit unserem Design erledigten. Das ist offenkundig ein künstliches Szenario.

Es gibt gute Gründe, im Zuge eines kompletten Usability-Lifecycles Feldstudien durchzuführen und das Nutzerverhalten an ihren natürlichen Aufenthaltsorten zu beobachten. Leider sind Feldstudien viel teurer als Laborstudien, und es ist normalerweise schwierig, die Erlaubnis zu bekommen, innerhalb anderer Betriebe Forschungen durchzuführen. Während des Design-Prozesses schliessen die meisten Usability-Massnahmen Nutzertests ein; deshalb können wir von Glück reden, dass die Nutzer normalerweise mit der künstlichen Atmosphäre des Labors fertig werden und so tun können, als wären sie zu Hause.

Die Tendenz, seine Zweifel, seinen Unglauben, hintanzustellen, ist in der menschlichen Verfassung tief verwurzelt und hat sich vielleicht entwickelt, als die vorgeschichtlichen Menschen im Kreis ums Lagerfeuer sassen und sich dabei Geschichten erzählt oder magische Zeremonien durchgeführt haben. In der heutigen Welt funktionieren Spielfilmserien wie Star Trek nur wegen unseres Hangs, eventuelle Zweifel temporär zu vergessen. Denken Sie an all' die unwirklichen Dinge, wenn wir Star Trek sehen:

  • Sie sehen keine Leute, Sie sehen Bilder von Leuten in Form glimmender Punkte auf einer Bildröhre.
  • Sie sehen keine Bilder wirklicher Leute, Sie sehen Bilder von Schauspielern, die so tun, als ob sie Charaktere wären wie Mr. Spock oder Captain Picard, die gar nicht existieren.
  • Sie sehen keine Bilder von Schauspielern, die Transporter, Phaser und Raumschiffe nutzen, die schneller als das Licht fliegen. Alle Handlungen werden über Spezialeffekte simuliert.

Sie wissen das alles, und doch identifizieren Sie sich mit der Geschichte, wenn Sie die Schau sehen.

In ähnlicher Weise fällt es den Teilnehmern von Usability-Studien leicht, so zu tun, als sei das Szenario echt und sie würden das Design wirklich nutzen. Um das zu erreichen, braucht man offensichtlich realistische Testaufgaben und muss repräsentative Nutzer rekrutiert haben, die in ihrem sonstigen Alltag vielleicht wirklich solche Aufgaben lösen müssen. Wenn beides zutrifft, werden die meisten Teilnehmer ihre kritische Haltung vergessen und sich einfach an die vorliegenden Aufgaben setzen.

Das geht sogar so weit, dass sich die Nutzer sogar bei Papierprototypen stark engagieren, obwohl die Nutzeroberfläche nur aus einem Blatt Papier besteht. So lange man sich in Verfolgung seines Ziels durch die Bildschirmseiten bewegen kann, verhält man sich, als ob das System echt wäre und nicht simuliert.

Manchmal gehen Nutzer sogar zu weit beim Hintanstellen ihrer Zweifel und versuchen, in die Rolle der potenziellen Leistungsfähigkeit anderer Nutzer zu schlüpfen. Das muss man sofort unterbinden, sobald man Nutzer darüber spekulieren hört, was "manche Leute" wohl tun oder wissen mögen. Sagen Sie einem solchen Anwender höflich, dass Sie auch noch viele andere Leute testen, und dass Sie gerade ihn zum Test eingeladen haben, weil seine persönlichen Erfahrungen sehr wichtig für das Projekt sind. Sie können solchen Nutzern sagen, "bleiben Sie bei sich selbst" und "Sie wissen, was Sie wissen", und sie dann bitten, ihre eigene berufliche Situation als Hintergrund des Szenarios zu verwenden.

Wann sowohl das Engagement als auch das Ausschalten von Zweifeln nicht stattfindet

Normalerweise funktionieren Nutzertests, aber es gibt Ausnahmen. Zuweilen sind Testteilnehmer so faul und so schwer engagierbar, dass sie ihre Zweifel nicht hintanstellen und nicht so an den Aufgaben arbeiten, als ob sie echt wären. Wenn Sie solche Leute zum Beispiel bitten, ein Produkt auszuwählen, um ein bestimmtes Problem zu lösen, hören sie normalerweise schon beim ersten besten Produkt auf zu suchen, das entfernt in Frage kommt, auch wenn es im Grunde unpassend ist und niemand mit dem gedachten Problem es wirklich kaufen würde.

In seltenen Fällen ist solch unrealistisches Verhalten so ernst, dass Sie den Teilnehmer entlassen und die Daten aus seiner Sitzung verwerfen müssen. Wenn Nutzer ihren Zweifel nicht hintangestellt und sich nicht gewissenhaft angestrengt haben, können Sie nicht darauf vertrauen, dass das, was sie getan haben, reale Nutzung repräsentiert.

Häufiger lässt sich die Situation noch retten, indem Sie ein paar Tricks anwenden, die die Sache erleichtern und zu authentischem Verhalten ermutigen.

Am einfachsten und üblichsten ist es, den Nutzer zu fragen, ob er das auch in seinem Büro so gemacht hätte (oder zu Hause, bei einem Verbraucherprojekt). Diese kleine Erinnerung reicht meistens aus, um die Nutzer bei der Stange zu halten. Weitere Varianten dieser Technik sind z.B.:

  • Sie fragen die Nutzer, ob sie genug Informationen gesammelt hätten, um eine Entscheidung treffen zu können (wenn sie schon beim ersten Körnchen Information über das Problem aufgehört haben zu suchen).
  • Sie fragen die Nutzer, ob sie sicher sind, das beste Produkt ausgewählt zu haben (wenn sie schon beim ersten in Frage kommenden Kauf aufgehört haben, ohne Alternativen zu prüfen).

Wenn die Nutzer in Ihren ersten Testsitzungen bei den Aufgaben ernsthaft gescheitert sind, können Sie die Studie gewöhnlich retten, indem Sie die Testanleitungen oder Aufgabenbeschreibungen modifizieren. Oft reicht es zum Beispiel aus, eine einführende Bemerkung hinzuzufügen wie: "Stellen Sie sich vor, sie müssten nicht nur die beste Lösung finden, sondern Ihre Auswahl Ihrem Chef gegenüber rechtfertigen."

Die Aufnahme eines abwesenden Chefs ins Testszenario ermutigt dazu, persönliche Zweifel hintanzustellen, und wirkt meistens Wunder. Nach meiner Erfahrung nutzt es ebenfalls, die Nutzer zu bitten: "Schreiben Sie Ihrem Chef in fünf Punkten, was für und was gegen dieses Produkt spricht." (Oder auch mit drei Punkten dafür und drei Punkten dagegen.)

Bei unseren Tests mit den Investor-Relations-Bereichen von Firmenwebsites haben wir eine Variante dieser Technik verwendet und die Finanzanalysten oder Einzelinvestoren einfach gebeten zu entscheiden, ob das Unternehmen ihrer Meinung nach eher besser oder eher schlechter als der Börsenmarkt abschneiden wird, und die wichtigsten Gründe dafür zu nennen.

Bei anderen Gelegenheiten kann man auch durch gezieltes Setzen von Grenzen arbeiten, damit die Nutzer sich bei den Aufgaben mehr engagieren. Zum Beispiel haben wir einmal eine E-Commerce-Site für Büroartikel getestet. Beim Pilottest bestand eine Aufgabe für Sekretärinnen darin, das Büro für einen neu eingestellten Mitarbeiter auszustatten. Leider wollten die Pilotteilnehmerinnen ihrem hypothetischen neuen Kollegen wirklich etwas Gutes tun und haben immer die teuersten Stifte, Bürostühle usw. gekauft. Auch in diesem Fall hätten wir sie bitten können, so zu tun, als ob sie ihrem Chef ein paar Fragen dazu beantworten müssten; stattdessen haben wir uns entschieden, ihnen ein bestimmtes Budget vorzugeben. Diese kleine Änderung hat gereicht, um dafür zu sorgen, dass die Nutzer jeden Gegenstand sorgfältig erwogen haben, so dass wir aufdecken konnten, wie sie Produktqualitäten und -werte einschätzen.

Ungeachtet der künstlichen Atmosphäre bei Nutzertests beobachten wir in der Regel ausreichend authentisches Verhalten, um leicht die Schwächen eines Designs zu identifizieren, die den Wert einer Oberfläche für reale Kunden vermindern würden. Die Erfahrung, etwas wirklich zu nutzen, ist so mächtig, dass die meisten Nutzer gute Daten liefern. Und wenn nicht, kann man die Nutzer normalerweise mit verbalen Erinnerungen leicht anstossen oder die Aufgabe ein bisschen abändern, damit sie sich voll engagieren.

 

© Deutsche Version von Jakob Nielsens Alertbox. Institut für Software-Ergonomie und Usability AG. Alle Rechte vorbehalten.

Kommentare auf diesen Beitrag

    Keine Kommentare

Kommentar hinzufügen

Die mit * gekenzeichneten Felder sind zwingend auszufüllen