Dieser Beitrag richtet sich an Virtual-Reality(VR)-Designer und -Entwickler, die full-room VR Setups erstellen, aber nicht die Möglichkeit haben, viele Demos für Nutzer zu machen.

Wir hatten bereits die Möglichkeit ein vollwertiges Vive mit Controllern in unserem Unity-Büro einzurichten und jede Menge Demos an eine Vielzahl von Interessierten weiterzugeben. Dadurch konnten bisher mehr als 100 Personen ihre ersten full-room Erfahrungen in der VR machen. Es macht unglaublich viel Spaß zu sehen, wie die Menschen reagieren und was ihnen am besten gefällt. Dabei konnten wir einige konsistente Verhaltensweisen, Optimierungspotenziale und damit verbundene Nutzerkonfusion beobachten über die wir hier berichten möchten.

Zunächst möchten wir ihnen vorab eine kurze Zusammenfassung geben:

  • Zwingen Sie die Benutzer nicht, etwas zu tun, bevor sie sich orientiert haben. Geben Sie ihnen Zeit, sich umzusehen, wie im richtigen Leben.
  • Erklären Sie immer ungewöhnliche Tastenbelegungen. Ansonsten werden die Benutzer denken, dass etwas nicht stimmt – sie werden nicht immer so lange herumprobieren wie z.B. bei Controllern, bis Sie die Steuerung beherrschen.
  • Verwenden Sie animierten Text oder Audio-Cues, um Interaktionen, Schaltflächenzuordnungen und Gameplay zu erklären. Verwenden Sie keinen statischen Text, es sei denn, er ist riesig.
  • Die Menschen haben kein perfektes Gespür für ihr körperliches Selbst und VR verstärkt dies. Es ist sehr schwer, eine gerade Linie in 2D zu zeichnen, aber unmöglich in 3D. Zudem ist es auch sehr schwierig zu wissen, wo der Arm wirklich endet.
  • Geben Sie den Benutzern Feedback, dass sie verfolgt werden und alles noch funktioniert. Haptisches Feedback ist hier hilfreich.
  • Probieren Sie all die neuen verrückten Sachen aus, die ihnen einfallen. VR ist ein unbeschriebenes Blatt, intuitive Benutzeroberflächen sind nicht offensichtlich und jetzt ist es an der Zeit in größeren Maßstäben zu denken.

Die Demos, auf die wir uns beziehen werden.

Hier finden Sie eine Auflistung von Apps, die in der Praxis recht häufig genutzt werden:

  • Tilt Brush: Eine 3D App zum Zeichnen.
  • Jobsimulator: Ein Spiel, bei dem Sie weniger anspruchsvolle Aufgaben ausführen.
  • TheBlu: Eine Unterwasser-Simulation.
  • Fantastic Contraption: Die VR-Version des klassischen 2D-Bauspiels.
  • Aperture Robot Repair: Ein strukturiertes Kinoerlebnis mit Spieleelementen im Portal-Universum.
  • The Gallery: Six Elements: Ein RPG-Puzzle/Abenteuerspiel.
  • Final Approach: Ein weiteres VR-Remake, diesmal des klassischen Flugsicherungsspiels.
  • Chunks: Eine Minecraft-Variante mit Achterbahn.

Höhlen.

Hier sind einige Punkte, die Sie beachten sollten, bevor Sie mit dem Lesen beginnen.

  • Aus Zeitgründen gehen wir hier nur auf Anekdoten aus der UX-Perspektive ein: Das sind keine harten Fakten.
  • Wir werden hier nicht über die Grundlagen von VR UX hinausgehen. Begriffe wie Propriozeption oder Usability sollten ihnen nicht fremd sein.

Wichtige Beobachtungen.

Geben Sie den Anwendern Zeit, sich zu orientieren.

Benutzer sind in der Regel zu sehr damit beschäftigt, sich an ihrer neuen Umgebung zu orientieren, um etwas Bestimmtes für mindestens 10 Sekunden zu bemerken oder zu tun, also zwingen Sie sie nicht, direkt in die Action einzutauchen. Oculus Story Studio erwähnte dieses Phänomen in seinem Vortrag auf der Siggraph 2015. Für ihren ersten Kurzfilm, Lost, entwarfen Sie etwas, das man „in“ nennt, um die Eingewöhnung wiederherzustellen, die natürlich passiert, wenn man sich Filme oder Fernsehen ansieht wie z.B. das Dimmen der Lichter.

Je mehr man sich an VR gewöhnt, desto weniger Zeit braucht man, um sich zu orientieren, aber wir gehen davon aus, dass es nie ganz weggehen wird. Jede neue Umgebung benötigt eine gewisse Zeit zur Orientierung, vor allem, wenn der Benutzer einen anderen Körper angenommen hat oder eine bestimmte, ehrfurchtgebietende Szene betreten hat.

Ein großer Prozentsatz der Anwender liest einfach keine statischen Anweisungen.

Keine große Überraschung, da die Benutzer nie etwas lesen. Es ist immer noch ein wenig überraschend zu sehen, wie viele Menschen einfach Anweisungen ignorieren, wenn man bedenkt, wie offensichtlich sie in VR sind.

VR-Testing

Fantastic Contraption hat praktische Schilder mit klaren Anweisungen, wie man das Spiel spielt. Tilt Brush geht noch einen Schritt weiter und enthält hilfreiche Anweisungen, die direkt auf ihren Controller zeigen und ihnen genau sagen, was Sie tun müssen. Sie können einen Pinsel oder eine Farbe in Tilt Brush buchstäblich nicht ändern, ohne auf ihre Hände zu schauen und doch schauen die meisten Leute irgendwie an ihnen vorbei.

Meiner Erfahrung nach gibt es zwei Arten von Menschen: diejenige, die all diese Anweisungen deutlich lesen und anfangen zu erstellen und diejenigen, die das nicht tun. Die letzte Gruppe ist viel, viel größer als die erste. Diejenigen, die lesen, neigen dazu, sich schneller zurechtzufinden und mehr Spaß zu haben. Mein Rat ist es dann nicht, den Hilfstext zu entfernen, sondern herauszufinden, wie man die Benutzer dazu bringt, ihn zu lesen. Text animieren, einblenden oder größere Pfeile einbinden: das sind alles mögliche Optionen. Ich bin auch ein Fan von Audio-Cues, die bemerkenswert gut funktionieren, darüber werde ich etwas später sprechen.

Klare Anweisungen sind besonders wichtig, wenn Sie ungewöhnliche Tastenbelegungen verwenden. Benutzer verzeihen den Versuch, herumzuklicken, aber wenn Sie keine Schaltfläche bemerkt haben, werden sie nicht versuchen, sie in VR zu verwenden. Stattdessen werden sie denken, dass das Spiel kaputt ist, sie etwas falsch gemacht haben oder das einfach das Spiel lahm ist.

Ein allgemeiner Vorbehalt: Jeder bemerkt viel Text, welcher die Umgebung überlagert. Ob die Botschaft aber wie gewollt ankommt, ist damit aber noch lange nicht sichergestellt.

Die Nutzung von VR-Controllern ist häufig sehr knifflig.

Die Vive-Controller sind neu und ungewohnt: Sie fühlen sich nicht wie ein Xbox- oder Playstation-Controller an und haben keinen Joystick.

VR Testen

Tilt Brush nutzt die Daumenpads für sekundäre Aktionen, wie die Vergößerung des Pinselstrichs (rechte Hand) und das Drehen des Würfelmenüs (linke Hand), aber im Allgemeinen stellt man nur fest, dass die Daumenpads aus Versehen nützlich sind – obwohl Tilt Brush klare Zeichen hat, die direkt auf das Touchpad zeigen und sagen, was Sie tun.

Darüber hinaus hat jedes Spiel die Möglichkeit, das Aussehen des Spielcontrollers vollständig anzupassen. Dabei geht es nicht nur darum, die Tastenbelegung zu ändern, was die meisten Spiele heute tun können. Das heißt, man kann tatsächlich ändern, wie die Controller in VR aussehen: Sie können aussehen wie Waffen, Zauberstäbe, Pferde, 20-seitige Würfel oder ganze lebensgroße Häuser. In den meisten Fällen behalten Apps jedoch zumindest die allgemeine Form der Controller, oder eine vereinfachte Version davon, mit sichtbaren Schaltflächen an gleichwertigen Stellen wie in der realen Welt. Die andere häufig genutzte Option, ist die Verwendung von Dummy-Händen.

In the Gallery: SixElements haben Sie zwei körperlose Hände mit Handschuhen, mit denen der Benutzer Dinge greift. In der Galerie wird die Grab-Aktion auf die Seitentasten abgebildet – die einzige Demo auf meiner Liste, in der die Seitentasten für eine primäre Aktion verwendet werden. Niemand hat das instinktiv herausgefunden, auch nicht, weil man die Seitentasten nicht so leicht fühlen kann. Die meisten merken nicht, dass sie da sind. Stattdessen versuchen sie, mit dem Auslöser oder Daumen zu greifen, dann denken sie, dass entweder die Controller kaputt sind, dass sie es falsch machen oder dass sie einfach nicht mit den Dingen im Spiel interagieren können.

Chunks verwendet die sekundäre kleine Taste, um zwischen den Reglermodi zu wechseln. Dieses ist wirklich schnell nützlich, aber ungewöhnlich.

In Aperture Robot Repair müssen Sie auf das Touchpad klicken, um Dinge aus der Ferne zu erfassen. Die meisten Leute ignorieren den riesigen blauen blinkenden Knopf, in den sich das Touchpad verwandelt hat und versuchen stattdessen, den Auslöser zu benutzen, scheitern und gehen wieder davon aus, dass die Demo nicht richtig funktioniert oder dass sie vielleicht diese speziellen Schubladen nicht öffnen sollen etc.

Es ist auch erwähnenswert, dass das lange Strahlenwerfen schnell knifflig wird, wenn man Objekte aus der Ferne auswählt oder manipuliert. Versuchen Sie, die Bewegung auf große Entfernungen zu reduzieren. Aperture Robot Repair löste dies, indem der Controller schnell aus der Hand sprang, ähnlich wie der Hookshot von Ocarina of Time. Blickbasierte Selektion kann auch funktionieren, wird aber auch auf größere Entfernungen immer weniger nützlich.

Angesichts der Tatsache, dass bisher noch kein Controller perfekt funktioniert, ist es notwendig, dass ein kleines Stück visuelles, akustisches oder haptisches Feedback vorhanden ist, um den Nutzern zu bestätigen, dass sie noch verfolgt werden. Machen Sie sie liberal und konsequent nutzbar. Insbesondere haptisches und akustisches Feedback fühlt sich gut an und trägt direkt zur Steigerung des Präsenzgefühls bei.

In allen Fällen wie diesen ist es vorteilhaft, sich einen schnellen Überblick über die angepassten Controller zu verschaffen.

Der Bewegungssinn der meisten Benutzer ist etwas gestört. VR macht dies noch deutlicher.

Das Zwei-Dollar-Wort, das wir hier suchen, ist Propriozeption und es hat damit zu tun, wie wir normalerweise die Entfernung und unsere physischen Körper im Raum messen. Zum Beispiel wissen Sie, wie lang ihr Arm ist: Sie können leicht ein Glas Wasser aufnehmen, ohne es von allen Seiten überprüfen zu müssen.

Meistens ist unsere Propriozeption gut, vielleicht nicht genau, aber gut genug für den Alltag. Für kleine, präzise Bewegungen wie Scheiben oder Zeichnen werden Menschen auf 2D-Ebenen eingesetzt, die physisch von einem Tisch, Schreibtisch oder ähnlichem unterstützt werden. Wir können im wirklichen Leben keine Skulpturen zeichnen, die der Schwerkraft trotzen und wenn wir unsere Bewegungen im Laufe der Zeit sehen können – wie z.B. die Spur, die eine Wunderkerze hinterlässt – können wir uns im Allgemeinen nicht schnell genug um sie herum bewegen, um zu sehen, wie weit unsere Aktionen im Z-Raum entfernt sind.

Diese Trennung zwischen dem, was Sie tun und dem, was Sie denken, dass Sie tun, ist sehr schnell offensichtlich in Tilt Brush, wo Versuche, ihren Namen zu schreiben oder ein Haus zu zeichnen, sich in Liechtenstein-Skulpturen verwandeln, sobald Sie sich drei Meter zur Seite bewegen und sehen, wie ihre Zeichnung aus einem anderen Blickwinkel aussieht.

Bei Fantastic Contraption ist es weniger offensichtlich, dass etwa 1/3 der Benutzer ein Objekt mit dem Auslöser greifen und es damit verpassen. Das passiert im Job Simulator, wo die Objekte nur wenige Meter entfernt sind, fast nie. Es kann sein, dass es eine kleine Wahrnehmungsstörung in unserem Gehirn um die 5-Fuß-Marke herum gibt.

In Umgebungen, in denen das meiste nutzbar ist, wie z.B. im Job Simulator, ist es in Ordnung, wenn man es einfach selbst herausfinden kann. Aber in Medieninhalten wie The Gallery: SixElements, wo nur bestimmte Objekte bearbeitet werden können, heben die Designer Gegenstände sinnvoll hervor, wenn man ihnen nahe genug kommt, um sie zu greifen.

Benutzer scheinen am besten von Audio-Cues zu lernen.

Auf einer gewissen Ebene macht das Sinn. Häufig werden in Spielen Tutorials durchgeführt, bei denen dir jemand sagt, was du tun sollst: in Questform (der altertümlichen Weise, welcher dir zeigt, wie du dein Schwert benutzt), als Erzählbogen (der Boss auf der Gegensprechanlage, der die sagt, dass es eine Vergiftung gibt) oder einfach als HUD, wenn du zum ersten Mal in die Schlacht ziehen möchtest und dir gesagt wird, dass du die X- oder Y-Taste drücken sollst.

Wenn Immersion in der VR ihr Ziel ist, kann es schwierig sein, das Anhalten der Aktion zu rechtfertigen und verlockend zu versuchen, das UX so weit zu vereinfachen, dass es keine Benutzerverwirrung gibt. Ich würde stattdessen empfehlen, Audio-Cues in Form eines Erzählers, Charakters oder einen gottähnlichen, allsehenden KI auszuprobieren.

Aperture Robot Repair nutzt den hochnäsigen British Robot, der Sie durch den Raum führt und ihnen sagt, was Sie als nächstes tun sollen. Er sagt ihnen nicht, wie Sie es machen sollen, aber zumindestens wissen Sie, dass Sie auf dem richtigen Weg sind, wenn Sie Audio-Feedback erhalten.

Final Approach hat einen ähnlichen narratorischen Ansatz, diesmal mit einem fröhlichen britischen Erzähler, der luftig die Grundlagen erklärt, wie man ein Flugzeug auswählt und auf der tropischen Insel landet. Seine Anweisungen sind mit großen visuellen Elementen wie blinkenden grünen Quadraten und Pfeilen versehen, aber die Leute bemerken Sie zunächst nicht.

Was den Rest der Demos angeht, stellen wir in der Regel selbst auch Audio-Cues zur Verfügung. Zum Beispiel gibt es in Tilt Brush ein großes Schild, das direkt auf das Daumenpad zeigt: „Swipe here“ mit einem animierten Pfeil von links nach rechts. Meiner Erfahrung nach hat vielleicht eine Person dieses Zeichen bemerkt. Der Rest entdeckt es zufällig oder gar nicht. Aber sobald ich ihnen sage, was sie tun sollen, lernen sie und sie vergessen nicht.

Wir freuen uns darauf zu sehen, welche neuen, cleveren Möglichkeiten es gibt, Spielinteraktionen in VR zu lehren. Aber bisher scheint ein klarer, körperloser Erzähler, der den Raum und die anfänglichen Aufgaben einführt, die nützlichste Möglichkeit zu sein, den Benutzer zu orientieren, ohne das Eintauchen zu unterbrechen.

Ermutigen Sie die Benutzer, sich so viel wie möglich zu bewegen.

Erstbenutzer bewegen sich nicht sehr viel: Sie haben entweder Angst über Drähte zu stolpern oder sie fühlen sich einfach etwas seltsam in einem Raum, der nicht der Realität entspricht. Um den entgegenzuwirken, zwingt Skyworld die Nutzer, sich von einer soliden Plattform in die „dünne Luft“ zu begeben, was sich merkwürdig anfühlt, aber ein guter mechanischer Lernfaktor ist. Fantastic Contraption ist unmöglich zu spielen ohne sich zu bewegen, um ihre Kreationen zu bauen und die UX ist so nahtlos, dass Benutzer nicht bemerken, dass Sie gezwungen sind, sich zu bewegen.

Aperture Robot Repair bekommt hier vor allem einen goldenen Stern. Indem Sie den Benutzer in eine bestimmte Position in der Demo manipulieren, lassen sie es so aussehen, als ob sie einige prozedurale Dinge haben, die auf der Grundlage der Position des Benutzers ablaufen. Es fühlt sich gruselig an, als ob die Roboter genau wissen, wo man sich gerade befindet – das ist aber nicht der Fall. Das ist eine tolle UX.

Die große Frage rund um den Raum ist natürlich, was man tut, wenn der Benutzer an einem Schreibtisch sitzt, mit einer hohen Wahrscheinlichkeit, etwas heißes auf etwas Teueres und Elektronisches umzustoßen. In diesem Fall ist die Fähigkeit, Objekte oder die Szene zu greifen oder zu bewegen, sehr wichtig. Oculus Medium ermöglicht es ihnen, ihr Projekt sehr schnell zu verschieben und zu skalieren, indem Sie es einfach mit den Doppel-Trigger-Tasten greifen. Es fühlt sich großartig an und lässt Sie Objekte in jeder Größe manipulieren – denken Sie daran, etwas von der Größe eines Stadtblocks zu nehmen, es auf einen Fuß zu reduzieren und es dann zu drehen. Das erspart ihnen das Gehen in einem Block der Stadt. Das ist die Magie der VR.

Abschließende Überlegungen.

Sie haben vielleicht bemerkt, dass wir nicht viel über Heads-Up-Displays, Peripherieschnittstellen, Floating Inputs oder Ähnliches gesprochen. Die Ursache ist darin begründet, dass die meisten Probanden nicht über diese Technik verfügen.

Aber ich zögere daraus solide Schlüsse zu ziehen. Es könnte natürlich sein, dass VR so neu ist, dass es Sinn macht, erst mit Vertrautem zu beginnen und Schritt für Schritt die User in diese Technologie einzuführen.

Wenn das der Fall ist, scheint so etwas wie der Werkzeugkasten von Fantastic Contraption ein natürlicher Weg zu sein, um das Wasser zu testen. Die Toolbox ist eine schwebende, schnurrende Katze, die rosa Wolken zum Fliegen bringt. Es ist bezaubernd, vertraut, aber seltsam, zur richtigen Zeit eingeführt und leicht eines der liebenswertesten Details in jedem VR-Spiel da draußen.

Wie alle anderen kann ich es kaum erwarten zu sehen, wohin die VR unterwegs ist und jetzt ist es an der Zeit, alles auszuprobieren, um zu sehen, was funktioniert und was nicht oder was in der Zukunft funktionieren könnte, wenn die Benutzer vorbereitet sind. Schließlich werden wir das Verhalten kodifizieren, aber VR kann und sollte aktiv vermeiden, in übertriebenen UI-Richtlinien wie den klassischen „Benutzer scrollen nicht unter den Fold“-Stereotypen der frühen 2000er Jahre zu fallen.

VR-Entwickler haben einen großen Vorteil: Die Kosten für das Prototyping neuer Benutzeroberflächen, Eingaben und Mechanismen sind im Vergleich zu den Kosten für das Design einer neuen physischen Maus, Tastatur oder eines Touchscreens recht niedrig. In VR können dieselben physischen Controller als Pistolen, Lichtschwerter, Laserpointer, Slingshots, Grapplehooks, Spraydosen oder alles andere, was Sie sich vorstellen können, verwendet werden. Zudem gibt es im Gegensatz zur Tastatur, Maus und Telefon fast keine festen Konventionen für Auswahl und Bewegung.

Das ist verrückt, großartig und aufregend und deshalb befürworte ich die Verwendung von Audiobefehlen oder Textanweisungen, anstatt seltsame Controller und Tastenbelegung zu vermeiden.

Probieren Sie es am besten selbst aus und machen Sie sich ein eigenes Bild.