Drucken
  • Facebook
  • Google+
  • Twitter
  • XING
29.07.2013

Der menschliche Körper als Touchscreen-Ersatz

Wenn Sie Ihren eigenen Körper berühren, fühlen Sie genau, was Sie berühren - das ist ein besseres Feedback als Ihnen jedes externe Geräte liefern kann. Und Sie vergessen nie, Ihren Körper mitzubringen.

Der Mensch als natürliches Interface.

© Sergey Nivens - Fotolia.com

 

by Jakob Nielsen (deutsche Übersetzung) - 30.07.2013

 

Viele neue Nutzeroberflächen gehen über einen flachen Computerbildschirm als Ort des Geschehens für das Nutzererlebnis hinaus. Zum Beispiel verwandelt Microsoft Kinect das ganze Zimmer in einen Interaktionsraum, in dem die Bewegungen der Nutzer die Systembefehle darstellen. Systeme der Augmented Reality (wie einige Google-Glass-Anwendungen) projizieren ihren Output auf Objekte der realen Welt - und nutzen z. B. gemessene Temperaturunterschiede, um Teile von Flugzeugtriebwerken farblich zu kodieren, damit sie für die Reparaturteams leichter zu sehen sind.

Auf der letzten Forschungskonferenz CHI 2013 in Paris war ich besonders von zwei Ideen beeindruckt, wie man den menschlichen Körper selbst als integrierte Komponente der Nutzeroberfläche verwenden kann. Der Körper der Nutzers ist verhältnismässig einzigartig im Vergleich zu allen anderen Geräten, vor allem in einem Punkt: Sie fühlen, wenn Ihr Körper berührt wird.

Das Gefühl, berührt zu werden (oder eben nicht), liefert eine wichtige Rückmeldung, die die Nutzer fortlaufend darüber informiert, was passiert. Da die Rückmeldung (das Feedback) zu den ältesten und wichtigsten Usability-Heuristiken (engl.) zählt, ist es normalerweise gut, sie zu verstärken.

Die Hand als Eingabegerät

Sean Gustafson (engl.), Bernhard Rabe und Patrick Baudisch vom Hasso-Plattner-Institut in Deutschland haben eine so genannte imaginäre Nutzeroberfläche auf der Handoberfläche des Nutzers entworfen. Diese UI ist imaginär, weil auf der Handoberfläche nichts weiter zu finden ist als Haut. Das Foto unten zeigt, wie ein imaginäres Mobiltelefon auf die linke Hand des Nutzers passen könnte. Beim Berühren der jeweiligen Bereiche würde die entsprechende Funktion des Mobiltelefons aktiviert und von einer Computerstimme angekündigt.

Befehl auf Hand eingeben
Das Berühren spezieller Bereiche auf Ihrer Hand gibt die Befehle ein.

Um dieses System tatsächlich verwenden zu können, muss man einen Weg finden, wie die Nutzer den Computer hören können, zum Beispiel über einen Knopf im Ohr. Viel wichtiger ist aber, dass der Computer erkennt, welche Bereiche auf der Handoberfläche gerade berührt werden. Bei Gustafsons Forschungsprototyp wurde dies mit einem optischen Bewegungssensor erreicht, der aber für den echten Einsatz viel zu klobig wäre. Aber das ist in Ordnung; wir können uns durchaus vorstellen, dass Fortschritte in der Bewegungserkennung handlicher und weniger auffällig wären.

Natürlich können Sie dieses Hand-Mobiltelefon nicht in naher Zukunft kaufen, aber es ist interessant, Nutzeroberflächen in Betracht zu ziehen, bei denen sich die Nutzer selbst berühren und nicht einen Bildschirm.

Gustafson und seine Kollegen haben viele interessante Experimente dazu durchgeführt, wie gut die Menschen diese Selbstberührungs-Nutzeroberfläche verwenden können. Bei normaler Verwendung waren die Menschen fast genauso schnell darin, Funktionen über ihre Handoberfläche auszuwählen, wie bei einem normalen Touchscreen-Mobiltelefon. Allerdings waren Nutzer, denen man die Augen verbunden hatte, doppelt so schnell bei der Steuerung über ihre Handoberfläche wie beim Berühren der Glasoberfläche des Mobiltelefons.

Wir wollen natürlich keine Nutzer mit verbundenen Augen, auch wenn diese Information über blinde Nutzung interessant für die Barrierefreiheit ist, sowie für Situationen, in denen die Nutzer ihr Telefon nicht sehen können.

Der interessanteste Aspekt bei der Nutzung mit verbundenen Augen ist aber, dass es offensichtlich etwas Besonderes ist, die Hand zu berühren - anders als das Berühren eines Telefons -, und dass diese Besonderheit dazu führt, dass sich die Nutzer weniger auf ihre Augen verlassen müssen. Um herauszufinden, was dem zugrunde liegt, haben die Forscher verschiedene Zusatzbedingungen in die Tests eingefügt:

  • Ein Telefon, das Berührungsfeedback gibt und nicht nur eine kalte Oberfläche aus Glas darstellt. Beim Verwenden des taktilen Telefons waren die Nutzer um 17% schneller, was allerdings bei der Grösse der Stichprobe statistisch nicht signifikant ist.
  • Die Nutzer mussten einen Fingerschutz tragen, der das Tastempfinden des Fingers aufhebt. Das machte keinen merkbaren Unterschied.
  • Die Nutzer mussten eine falsche Hand anstelle ihrer eigenen berühren, um das Berührungsfeedback der Handoberfläche aufzuheben. Hierdurch wurden die Nutzer um 30% langsamer.

Fasst man diese Ergebnisse zusammen, so wird klar, wo der wichtigste Aspekt einer Verwendung der Hand als "Touchscreen" liegt: darin, dass wir fühlen, wann und wo wir berührt werden. Tatsächlich liegt hier der einzigartige Nutzen, wenn man den eigenen Körper als Eingabegerät verwendet - ein Nutzen, den externe Geräte nicht nachbilden können.

Das Ohr als Eingabemedium

Normalerweise benutzen wir unsere Ohren zum Hören. In der Terminologie der Mensch-Computer-Interaktion bedeutet das, dass unsere Ohren verwendet werden, um Output des Computers aufzunehmen.

Aber die Oberfläche des Ohrs kann auch für die Eingabe von Befehlen des Nutzers an den Computer verwendet werden.

Roman Lissermann, Jochen Huber, Aristotelis Hadjakos und Max Mühlhäuser von der Technischen Universität Darmstadt (auch in Deutschland) haben den Forschungsprototyp "EarPut" vorgestellt, der genau das tut. Neben anderen Vorteilen ist unser Ohr immer am gleichen Platz; das Berühren des Ohrs ist ausserdem weniger auffällig als das Berühren der Hand.

Mögliche Interaktionen können sein:

  • Berühren eines Teils der Ohroberfläche, entweder einfach oder mehrfach.
  • Zupfen am Ohrläppchen. Diese Interaktion ist besonders für An-Aus-Befehle geeignet, wie zum Beispiel das Stummschalten der Musikwiedergabe.
  • Mit dem Finger am Ohrbogen entlang fahren. Das eignet sich etwa für die Einstellung der Lautstärke.
  • Bedecken des Ohrs - eine natürliche Bewegung zum Stummschalten.

Um zu messen, wie präzise die Menschen ihre Ohren in einer einfachen Interaktion berühren können, haben Lissermann und seine Kollegen die Ohren von 27 Nutzern instrumentalisiert. Beim Aufteilen des Ohrbogens in nur zwei Bereiche erreichten die Teilnehmer eine Genauigkeit von 99%. Aber schon mit drei Bereichen fiel die Genauigkeit deutlich: die Testteilnehmer trafen immer noch sehr genau, wenn sie den oberen oder unteren Bereich des Ohrs berühren sollten, aber nur in 63% der Fälle, wenn sie die Mitte hätten berühren müssen.

63% klingt zwar ganz gut - immerhin besser als die Hälfte -, aber für Befehle an die Nutzeroberfläche ist das nicht ausreichend. Denken Sie nur an den Fall, Sie verwendeten Ihr Ohr dazu, die drei gebräuchlichsten E-Mail-Befehle zu aktivieren: dem Absender antworten, Allen antworten und Weiterleiten. Würden Sie es hinnehmen, wenn Ihre Nachricht in einem Drittel der Fälle an die falschen Adressaten geht?

Wie dieser Forschungsansatz zeigt, ist die Eingabe über das Ohr nur geeignet, wenn man eine extrem eingeschränkte Anzahl an Kommandos hat. Es könnte auch für Anwendungen geeignet sein, bei denen das versehentliche Daneben-Tippen keine grosse Sache ist; selbst bei einer Aufteilung des Ohrbogens in 6 Bereiche erreichten die Nutzer immer noch eine relativ hohe Genauigkeit.

EarPut-Prototyp
EarPut-Prototyp der Technischen Universität Darmstadt

Wie das Bild oben zeigt, erinnert der Prototyp in diesem frühen Forschungsstadium noch an die Borg aus Star Trek und die meisten Menschen würden so etwas nicht am Ohr tragen wollen, ausser wenn sie an einer bezahlten Studie teilnehmen. Aber es ist leicht, sich für die Zukunft eine etwas kleinere, leichtere und elegantere Hardware vorzustellen.

Universelle Nutzeroberflächen

Ausser dem nahezu fehlerfreien Feedback hat die Verwendung von Körperteilen auch noch einen anderen deutlichen Vorteil: Das Gerät ist wirklich immer dabei - denn Sie sind Ihr Körper.

Natürlich tragen die Menschen ihre Mobiltelefone oft mit sich herum, aber ihre Hände und Ohren haben sie wirklich immer dabei. Daher sind sie auch nie ohne die Systemfunktionen, die ihren Händen und Ohren zugeordnet wurden.

Diese Aussage trifft freilich nur dann zu, wenn die Nutzer in Reichweite eines Sensors sind, der den Computer wissen lässt, wann Sie den entsprechenden Körperteil berühren. Also müssen Sie vielleicht ein kleines Gerät am Ohr tragen - oder Sie schlucken in der Zukunft Nanobots, die die körperbasierte Interaktionen weiterleiten. Eine andere Lösung wäre, die Umgebung mit Überwachungskameras auszustatten, aber dagegen haben (zumindest im Moment) viele Menschen etwas einzuwenden, da es doch stark in die Privatsphäre eingreift.

Diese technischen Herausforderungen müssen noch gelöst werden, aber man kann davon ausgehen, dass die Nutzeroberflächen in den nächsten 20 oder 30 Jahren zumindest teilweise körperbasiert sein werden.

 

© Deutsche Version von Jakob Nielsens Alertbox. Institut für Software-Ergonomie und Usability AG. Alle Rechte vorbehalten.

Kommentare auf diesen Beitrag

    Keine Kommentare

Kommentar hinzufügen

Die mit * gekenzeichneten Felder sind zwingend auszufüllen