• Facebook
  • Google+
  • Twitter
  • XING
04.08.2002

Die physische Umgebung interaktiv machen

Winzige Motoren und Sensoren werden physische Objekte interaktiv machen und so den gestischen Nutzerschnittstellen zu einem Comeback verhelfen. Mit der Verlagerung des Schnittstellendesigns vom Bildschirm hin in die materielle Welt wird das Bedürfnis nach einfachen, bedienerfreundlichen Designs verstärkt zunehmen.

 

by Jakob Nielsen (deutsche Übersetzung) - 05.08.2002

 

Das innovativste Produkt von Microsoft in den 90er Jahren war der interaktive Barney: ein Plüschtier mit eingebautem Computer, welcher eine Interaktion mit Kindern ermöglichte. Kniff man Barney zum Beispiel in den Zeh, sang er ein Lied, deckte man seine Augen zu, spielte er Verstecken.

Bald könnten viele weitere physische Objekte interaktiv werden und wahrscheinlich werden sie viel umfassendere und subtilere Nutzerschnittstellen enthalten als die primitive Zehenkneiffunktion des Pioniers Interactive Barney.

Jenseits von Barney

NanoMuscle ist ein Unternehmen, das sehr kleine Motoren herstellt, die zehn mal stärker und kleiner sind als herkömmliche Elektromotoren, dabei aber viel weniger Strom verbrauchen und wesentlich billiger sind. Eine mögliche Anwendung solcher Motoren sind Spielzeugfiguren mit realistischen Bewegungen und Mimik. Man denke nur an Brian Aldiss' Superspielzeug, wie es von Steven Spielberg im Film A.I. Artificial Intelligence umgesetzt wurde.

Bei einem kürzlich veranstalteten Abendessen erwähnte der CEO von NanoMuscle, Rod MacGregor, andere mögliche Anwendungen wie mobile Geräte, die verschiedene Formen annehmen könnten. Warum sollte ein physisches Produkt auf eine einzige Form beschränkt sein, wenn es für verschiedene Zwecke verwendet wird? Wenn man zum Beispiel telefoniert, ist eine längliche Form praktisch, wenn man auf demselben Gerät jedoch Daten ansieht, wäre vielleicht eine quadratische Form besser.

Besonders interessant finde ich die Möglichkeit, dass winzige Motoren mittels Krafteinwirkung Feedback - welcher auf die Intensität der Nutzerberührung reagiert - an Eingaberäte (z.B. Joysticks, Maus) weiterleiten können. Auch die Aussicht auf neuere, kleinere Steuerungen, die über den Computer hinausgehen, ist interessant. Dank dieser Fortschritte könnte man nicht nur die Objekte, die man anklickt, fühlen, sondern auch die Ränder, über die man sie zieht. Natürlich würde sich das Ziehen vollkommen anders anfühlen, wenn "snap to grid" aktiviert wäre.

Die Befreiung des Schnittstellendesigns

Seit fast dreissig Jahren wird Nutzerschnittstellendesign als Design grafischer Nutzerschnittstellen verstanden, mit Schwerpunkt auf dem visuellen Erscheinungsbild der Auswahlobjekte. Bis jetzt können die Nutzer mit diesen Auswahlobjekten nichts anderes tun als mit der Maustaste auf sie einzuhämmern. Gestische Schnittstellen sind grösstenteils verschwunden, mit Ausnahme von obskuren Virtual-Reality-Studien und vereinzelten Gesten in längst ausgedienten stiftbasierten Systemen wie dem Apple Newton und dem Go tablet.

Wir könnten die Nutzerschnittstellen vom Bildschirm befreien, wenn physische Objekte sowohl eine grössere Vielzahl von Gesten (z.B. Bewegungen oder das Zusammendrücken) als auch die Kraft und Geschwindigkeit mit der diese vom Nutzer ausgeführt werden zu verstehen beginnen. Darüber hinaus könnte dann natürlich auch der Computer seine Seite des Dialogs physisch wiedergeben. Die Mimik einer beweglichen Puppe ist eine weit viel versprechendere Schnittstellenkomponente als die einfache Verwendung der Mimik in einer grafischen Nutzerschnittstelle, wie es in Projekten wie Boo und Ananova geschah.

Gestische Schnittstellen bieten auch neue Möglichkeiten für Videokonferenzen. Denen gab man bis anhin ja nur Erfolgschancen, wenn es möglich wäre, hochauflösende Computerbildschirme in Lebensgrösse zu bauen, auf denen die Teilnehmer so gross und klar erscheinen würden wie Menschen in physisch realer Nähe (PPR, physically proximate reality). Wer auf einem kleinen Bildschirm erscheint, spielt an einem Meeting auch eine kleine Rolle. Derzeitige Videokonferenzen haben Ähnlichkeit mit Marionettentheatern, bei denen der Teilnehmer die Marionette ist.

Durch gestische Schnittstellen würden die Teilnehmer einer Videokonferenz echte PPR-Präsenz erhalten. Jemand wie ich, der oft Vorträge im Ausland hält, würde viel in einen lebensgrossen virtuellen Doppelgänger (Avartar) investieren, der als physischer Stellvertreter dienen könnte, während ich meine Vorträge anderswo halte.

Obwohl all das heute wie Science Fiction klingen mag, könnten gestische Schnittstellen im Zuge des Trends, das Schnittstellendesign vom Bildschirm zu befreien, bald ein Comeback erleben.

Neue Usability-Herausforderungen

Physische Interaktionen erfordern, ebenso wie visuelle Interaktionen, eine gute Usability - schliesslich ersetzen wir nur eine Syntaxart durch eine andere, die mehr Freiheiten zulässt. Und mehr Auswahlmöglichkeiten beim Interaktionsdesign bedeuten mehr Möglichkeiten, die Dinge für den Nutzer zu erschweren.

Betrachten wir Barney von Microsoft. Dass man seinen Zeh drücken kann, ist sicher noch kein grossartiges Design, da es kaum in Zusammenhang zum Singen steht. Seine Augen abzudecken, um Verstecken zu spielen, ist da schon wesentlich faszinierender. Es ist die Eigenschaft, die am einfachsten zu erlernen und zu merken ist. Warum? Nun, der Grund liegt wahrscheinlich darin, dass der Befehl ein Beispiel für eine befehlslose Nutzerschnittstelle ist: Man steuert den Computer durch das, was man will (Verstecken spielen), anstatt ihn aufzufordern, es zu tun. Während der befehlende Interaktionsstil für viele traditionelle Aufgaben gut geeignet ist, fühlen sich befehlslose Designs, wenn sie gut gemacht sind, oft besser an.

"Gut gemacht" ist hier natürlich der Schlüsselbegriff. Befehlslose Nutzerschnittstellen gut zu machen, erfordert ein tieferes Verständnis für die Aufgaben und Verhaltensweisen der Nutzer als wir es in den heutigen Designs sehen, welche oft gegen die Bedürfnisse der Nutzer ankämpfen.

Physische Schnittstellen erfordern noch mehr Einfachheit und Usability als grafische Nutzerschnittstellen. Ein problematisches GUI ist sicherlich unangenehm, doch eine clevere Umgebung, die tückisch und schwer zu bedienen ist, könnte katastrophal sein.

Mehr Beispiele

Saul Greenberg von der Universität in Calgary verfügt über eine Sammlung physischer Nutzerschnittstellen, die von seinen Studenten entworfen wurden. Ein Blick auf die Sammlung lohnt sich, denn die meisten aufgeführten Projekte zeigen eine Video-Darstellung der Arbeit.

Es ist interessant, die Vielfalt möglicher Interaktionsentwürfe zu ergründen. Die Sammlung hebt auch das Bedürfnis nach Usability in den realen Produkten hervor (im Gegensatz zu den Projekten der Studenten). Ein E-mail Melder, der Nerf Disks nach Ihnen wirft, wenn eine neue E-mail ankommt? Nicht in meinem Büro.

Prof. Greenbergs Forschungsvorhaben strebt danach, physische Geräte einfach programmierbar zu machen, damit sich die Leute aufs Design anstatt auf die technischen Verwicklungen konzentrieren können. Sein Projekt wird Phidgets (physical widgets) genannt. Die Zeit wird zeigen, ob Phidgets die HyperCard physischer Schnittstellen wird.

 

© Deutsche Version von Jakob Nielsens Alertbox. Institut für Software-Ergonomie und Usability AG. Alle Rechte vorbehalten.

Kommentare auf diesen Beitrag

    Keine Kommentare

Kommentar hinzufügen

Die mit * gekenzeichneten Felder sind zwingend auszufüllen