50 UX-Tipps in der virtuellen Realität



Diese Liste wurde basierend auf mehreren meiner Artikel und Hinweisen zum Erstellen einer Benutzererfahrung in VR zusammengestellt. Das Material wurde als eine Art Satz zusätzlicher Empfehlungen für neue Modum Lab-Spezialisten erstellt, die sich mit der Erstellung von Interaktionssystemen in VR-Projekten befassen (hauptsächlich für HTC Vive und eigenständige Lösungen). Zunächst mussten Themen wie der Einsatz von Controllern, sich bewegende Systeme, die Besonderheiten der Entwicklung von Oberflächenelementen, die Visualisierung von Avataren und Immersionsprobleme im Allgemeinen analysiert werden.

VR stellt sich vor


1. FĂĽgen Sie zu Beginn der Simulation eine Pause ein - lassen Sie den Benutzer einige Sekunden lang nichts in der Szene tun. Auf diese Weise kann sich eine Person an eine neue Umgebung anpassen und im Weltraum navigieren. Danach kann sie sich auf die Aufgabe konzentrieren. Der Benutzer muss nicht sofort aufgefordert werden, irgendetwas zu tun - es geht um das Fehlen von Benachrichtigungen, Voice-over und Animationen. Das Erscheinungsbild der Szene kann schrittweise dargestellt werden. Das Verlassen der Ăśberblendung, das ZusammenfĂĽgen von Fragmenten um den Benutzer usw. sind beispielsweise Optionen, wenn die virtuelle Umgebung nicht sofort vor Ihren Augen angezeigt wird.

2. Neue Benutzer können es schwer haben, den ersten wirklichen Schritt in VR zu tun. Daher können Sie neben dem Training in der Arbeit mit dem Bewegungssystem, z. B. Teleportation, die Aufgabe der üblichen physischen Bewegung in die Szene aufnehmen.

3. Zunächst kann es vorkommen, dass Benutzer die Position von Objekten anhand der Tiefe nicht sehr gut bestimmen. Daher ist es zu Beginn besser, interaktive Elemente so zu platzieren, dass sie immer auf Distanz sind oder umgekehrt viel weiter als die ursprüngliche Position der Person, sodass klar ist, dass mehrere Schritte ausgeführt werden müssen zum Objekt.

Umzug


4. In den allermeisten Fällen ist der Entwickler verantwortlich, wenn Benutzer in ein Projekt eingebunden sind. Es gibt viele Diskussionen zu diesem Thema, eine große Anzahl von Variationen der Bewegungssysteme im virtuellen Raum wurden erstellt, einschließlich verschiedener Nischenlösungen, zum Beispiel für Technologie und Entwickler, die sich weiterhin mit diesem Thema befassen.

Achten Sie auf das Studium dieses Themas, da Sie für verschiedene Aufgaben die am besten geeignete Art der Bewegung im Raum auswählen können. In diesem Fall ist die derzeit gebräuchlichste Option das Bewegen mithilfe der Teleportation, dh das sofortige Bewegen des Benutzers im Raum durch Anzeigen eines zu bewegenden Punkts mithilfe des Controllers oder der Blickrichtung. Die zweite beliebte Mechanik sind alle Arten von Flugvarianten.

Begründung für die Verwendung und Implementierungsmöglichkeiten für die Teleportation in verschiedenen Projekten:



5. Die Verwendung von Teleportation im Projekt kann in narrativer Hinsicht unterbunden werden und das Gameplay im Allgemeinen um eine solche „Einschränkung“ herum aufgebaut werden.

6. Es gibt tatsächlich viele Arten von Teleportation selbst - dies ist eine kostenlose Teleportation innerhalb eines bestimmten Bereichs der Szene, Teleportation zu bestimmten Punkten, sofortige und durchgehende Effekte (durch Schattierung, Bildsequenz, durch schnelle Bewegung in einer geraden Linie zu einem bestimmten Punkt) usw. . Es hängt alles von dem spezifischen Projekt ab, in dem der Bewegungsprozess implementiert wird.

Die zonenbasierte Teleportation funktioniert ebenfalls und kann viel einfacher wahrgenommen werden als die klassische Teleportation. Dies ist der Fall, wenn der Benutzer sich nicht zu einem beliebigen Punkt im Raum bewegen kann, sondern zu einem bestimmten Satz definierter Zonen. Dabei handelt es sich jedoch nicht nur um Punkte, sondern um Raumbereiche, die der Verfolgungszone und der Position des Benutzers darin entsprechen (was zu einer Reihe von Schwierigkeiten bei der Gestaltung von Szenen fĂĽhrt).

7. Wenn Sie ein Teleportationssystem erstellen, empfiehlt es sich, die maximale Bewegungsentfernung mithilfe eines Teleports zu begrenzen. Aufgrund der Tatsache, dass Benutzer bei der erstmaligen Verwendung von VR-Brillen häufig durch die Tasten des Controllers verwirrt werden, können sie sich versehentlich über große Entfernungen bewegen, was zu einer ständigen Desorientierung im Raum führt - „Wo bin ich und wie bin ich hierher gekommen?“

8. Wenn Sie sich für ein System der freien Bewegung entscheiden - die klassische Art, die Bewegung der Kamera mithilfe der Tasten auf dem Controller zu steuern -, wählen Sie eine Alternative für den Teil des Publikums, dessen Vestibularapparat dafür nicht bereit ist.

9. Mit einem System der freien Bewegung kann die Auswirkung von Reisekrankheit verringert werden, indem die Struktur der Szene oder der Spielebene so aufgebaut wird, dass sich der Benutzer hauptsächlich vorwärts bewegt.

Beispielprojekt mit einem FreizĂĽgigkeitssystem

Controller, Hände und interaktive Inhalte anzeigen


10. Wenn der Controller / die Hand das interaktive Objekt berührt, kann das Objekt in diesem Moment hervorgehoben werden, was darauf hinweist, dass bereits der nächste Schritt ausgeführt werden kann - nehmen Sie es.

11. Wenn Sie ein interaktives Objekt aufnehmen, wird der Controller / das Modell der Hand normalerweise ausgeblendet. Sie sollten den Controller nicht visualisieren, der zur Hälfte in die Geometrie des Objekts eingetaucht ist, mit dem der Benutzer interagiert.


Virtuelles Showroom-Projekt fĂĽr die Pioneer Group of Companies (im Folgenden)

12. Wenn die Interaktion mit Hilfe von Handmodellen erfolgt und Sie ein Objekt nehmen, bleiben die Hände sichtbar. Sie müssen eine eindeutige Reihe von Pinselpositionen für verschiedene Objekte entwickeln, damit jedes Objekt oder jede Objektkategorie organisch in der Hand aussieht. Es muss berücksichtigt werden, dass dies einen gewissen zeitlichen und finanziellen Aufwand mit einem nicht ganz offensichtlichen Vorteil gegenüber der vorherigen Option erfordert, wenn die Steuerung oder Hand während der Erfassung des Objekts verschwindet (eine etwas andere Situation kann bei der Oculus Touch aufgrund ihrer Ergonomie vorliegen).

Mir gefällt die Option mit ständiger Visualisierung der Hände mehr aus der Position heraus, sich mit einem bestimmten Bild eines virtuellen Avatars zu korrelieren. Schon allein durch die Darstellung der Hände können Sie darauf hinweisen, dass Ihnen eine Rolle angeboten wird, beispielsweise ein Roboter oder ein Geist. Und wenn die Hände bei der Interaktion mit Objekten nicht verschwinden, ist diese Verbindung ständig vorhanden. Ich bin mir jedoch nicht sicher, ob dies das Gefühl unserer eigenen Hände in VR stärker beeinflusst, als wenn wir nur Objekte visualisieren, die wir mit unseren Händen halten. Hier ist ein Beispiel, wie Entwickler von Job Simulator darüber denken: youtu.be/hjc7AJwZ4DI?t=1795

13. Die Seitentasten des HTC Vive-Controllers sollten nur verwendet werden, wenn dies unbedingt erforderlich ist. Es ist jedoch besser, sie ĂĽberhaupt nicht zu verwenden. Dies sind keine offensichtlichen Steuerelemente in diesem System.

14. Je weniger Controller-Buttons am Projekt beteiligt sind, desto besser. Beispielsweise können Sie die zonenbasierte Erfassungsmethode verwenden, um mit Objekten mit nur einer Controller-Schaltfläche zu interagieren. Dies funktioniert in einigen Fällen, wenn Sie Objekte in einem begrenzten Bereich verschieben müssen (eine Maus auf einem Teppich auf einem Tisch, der in Job Simulator innerhalb des Teppichs verschoben werden kann).

In anderen Fällen müssen Sie separate Fälle für diese Bedingung entwickeln. Zum Beispiel wird eine Entität in das Projekt eingeführt - der Bereich, in dem ein Objekt genommen und zurückgegeben wird. Wenn es eine separate Zone gibt, in der das Objekt durch Drücken des Auslösers aufgenommen wird und die Steuerung ersetzt wird, löst die nachfolgende Verwendung des Auslösers die Logik dieses Objekts aus. Wenn Sie mit einem Klick in die Rückkehrzone zurückkehren, bleibt das Objekt in diesem Bereich und die Steuerung wird erneut visualisiert. Dieser Ansatz reduziert die Anzahl der Schaltflächen, die für ähnliche Arten von Aktionen (Objektaktivierung - Erfassung und Verwendung) verwendet werden. Andernfalls muss die Objekterfassungsfunktion auf einer Schaltfläche und die Objekterfassungsfunktion auf der anderen Schaltfläche platziert werden. Dies wirft Fragen zum Umgang mit anderen Aktionen auf, für die auch Schaltflächen erforderlich sind, z. B. für die Teleportation.

15. Wenn Sie sich Ihre Hände vorstellen, ist es besser, das Ende zu überwinden - gehen Sie in die Transparenz oder verwenden Sie den Effekt "Leere Handschuhe", wenn Sie einen Handschuh in der Form einer Hand erstellen. Wenn Sie jedoch von der Seite der Manschette schauen, ist nichts drin.

Ein Beispiel für eine herkömmliche Geometriescheibe ohne Stil

Verwenden der Ăśberblendung (Transparenz beibehalten)

Handschuh Beispiel

16. Machen Sie keine realistische Visualisierung der Hände, es sieht fast immer nicht sehr schön aus.

Achten Sie auf die Art der Hand, die den SchlĂĽssel nimmt

17. Die Transparenz der Hände löst das Problem der "Vergänglichkeit" - wenn der Benutzer die Geometrie der Szene mit seiner Hand durchlaufen kann. Wenn sich die Geometrie mit einer gewöhnlichen undurchsichtigen Hand schneidet, können Sie den Grenzwert mit einem beliebigen Effekt (Hologramm, Transparenz in der Nähe der Grenzwertlinie usw.) überschreiten. Dadurch wird auch das Rückkopplungsproblem behoben.

18. Die aktuelle Generation von Motion Controllern für VR hat einen sehr starken Vorteil gegenüber klassischen Eingabegeräten - eine niedrige Eingabeschwelle aufgrund der Einfachheit der Gerätesteuerungen und ihrer Verwendung in Projekten. Wir sprechen von natürlichen Gesten und Körperbewegungen. Zum Beispiel nehmen wir einen Donut vom Controller, nehmen ihn in den Mund, spielen die Animation, wie man ein Stück abbeißt, und füllen das Leben des Charakters aus. Oder laden Sie eine Waffe nach, wenn Sie ein Magazin herausziehen und ein neues installieren müssen. Oder starten Sie das Spiel durch Einlegen einer Kassette mit Speichern auf einem Kassettenrekorder und Drücken der Wiedergabetaste. Zusätzlich zu der Tatsache, dass solche Aktionen sehr verständlich sind, da sie in der realen Welt verwendet werden, werden sie auch ein wesentlicherer Teil des Gameplays und des neuen Benutzererlebnisses als Ganzes.

Aber es gibt ein interessantes Problem solcher Lösungen, nicht so sehr im Bereich der VR-Spiele, sondern in der Nicht-Gaming-Richtung - das ist Geschwindigkeit.

In konkreten Projekten ist es notwendig, die Vor- und Nachteile verschiedener Ansätze im Rahmen des Benutzerinteraktionssystems mit der interaktiven Umgebung zu korrelieren.

In einigen Fällen ist die Geschwindigkeit ein entscheidender Faktor (Anklicken eines Donuts mit einem vom Controller kommenden Laserstrahl), in anderen Fällen ist der aus der realen Welt übertragene Prozess der physischen Interaktion wichtig (nähern Sie sich, heben Sie den Donut mit der Hand an und bringen Sie ihn an Ihr Gesicht, damit die Essanimation abgespielt wird). . Zum Beispiel kann der Übergang zu abstrakteren Kontrollmethoden durch die Häufigkeit solcher Wechselwirkungen gerechtfertigt sein.

19. Benutzer möchten mit allem in ihrer Reichweite interagieren, wenn es wie ein Objekt aussieht, das Sie nehmen oder anklicken können. Es ist wichtig, ihre Erwartungen zu erfüllen und diese Besonderheit beim Entwerfen und Füllen von Objekten mit einer Szene zu berücksichtigen. Zum Beispiel, um nur interaktive Objekte in der Reichweite zu platzieren, keine statischen und interaktiven Objekte in einem Bereich usw.

Eine andere Möglichkeit, dieses Problem zu lösen, besteht darin, eine klare visuelle Anzeige für interaktive Objekte festzulegen (animierte Markierungen, die auf interaktiven Objekten zu marktüblichen Bedingungen angezeigt werden).



20. In dem Moment, in dem Sie die Teleport-Taste gedrückt halten, können Sie verschiedene Indikatoren für Sonderziele in Bereichen sichtbar machen, die der Benutzer noch nicht besucht hat.

21. Die Lösung für das Problem, Objekte auf dem Boden anzuheben, damit Benutzer keine echten Controller auf dem Boden treffen. Wenn das Objekt auf den Boden fällt, fliegt es ein wenig hoch, wenn eine Hand nach ihm greift. Es ist wichtig, eine zusätzliche visuelle Anzeige des Prozesses des "Schwebens" des Objekts zu erstellen, damit dies den Benutzer nicht desorientiert.

Eine weitere Möglichkeit besteht darin, das „Magnetisieren“ von gefallenen Objekten zu ermöglichen, wenn der Steuerungsstrahl darüber schwebt.

Die klassische Version fĂĽr Simulationen, bei denen keine Bewegung mit dem Objekt vorgesehen ist, besteht darin, die Position zurĂĽckzusetzen, wenn das Objekt beim Fallen auf den Boden an der Stelle angezeigt wird, an der es sich ursprĂĽnglich befunden hat.

Tipps


22. Ein einziger Anreiz, den Benutzer auf den gewünschten Bereich in der Szene zu fokussieren, reicht möglicherweise nicht aus. Es ist besser, mehrere Werkzeuge gleichzeitig zu verwenden - Animation im Bereich selbst, Licht, Angabe des Bereichs der Zeichen, Sprache und Text usw. Es ist auch zu berücksichtigen, dass das Verhalten von Objekten (Animationen) in einer Szene mehr Aufmerksamkeit erregt als Stimme oder Text.

23. Anweisungen für komplexe Manipulationen mit Steuerungen sind schwer zu erkennen, wenn die Steuerung selbst und die zu drückenden Tasten nicht sichtbar sind. Daher ist es in den ersten Phasen der Kenntnis des Managements besser, sie in der einen oder anderen Form zu zeigen. Zum Beispiel erscheinen die Hände des Benutzers im Modell, ersetzen den Pinsel, die Controller werden im Raum neben der Hand / dem aufgenommenen Objekt visualisiert.



24. Das Verschieben von Popups funktioniert gut, wenn sich ein Fenster an einer Stelle zum Aufnehmen eines Objekts in Ihrer Hand visuell an eine andere Stelle bewegt, an der dieses Objekt installiert / verschoben werden muss.

Platzierung der Bedienelemente, HauptmenĂĽ


25. Das Hauptmenü ist das erste, was ein Benutzer in einem Projekt sieht. Es kann nicht in eine Leere auf einem schwarzen Hintergrund platziert werden. Es ist besser, ein wenig Zeit in einer abstrakten Umgebung zu verbringen, die bereits besser ist als das völlige Fehlen von Leerzeichen.


Immersive Simulationen Plattform-Ladeszene ohne Oberflächenelemente

Aber auch das reicht nicht immer aus. Das MenĂĽ kann das Konzept des Projekts im wahrsten Sinne des Wortes der Lobby widerspiegeln, bevor Sie direkt zur Simulation gehen. In Spielen wird dies seit langem verwendet , aber bei allen Arten von Diensten wird diesem Aspekt zu wenig Aufmerksamkeit geschenkt.

26. Wenn das Laden zwischen Szenen lange dauert, ist es besser, Zeit für die Erstellung eines „Warteraums“ zuzuweisen - ein Bereich, der visuell und konzeptionell mit dem Hauptmenü oder anderen Szenen im Projekt verknüpft werden kann, in denen der Benutzer auf das Laden des Levels wartet.

27. Verknüpfen Sie die Schnittstelle mit dem Szenenbereich. Auch wenn dies das Hauptmenüfeld ist, das im Raum hängt, begründen Sie seine Existenz in der Umgebung - es kann sich um einen Projektor handeln, der ein Hologramm in der Szene, Reflexionen oder Licht vom Hologramm auf die Elemente der Umgebung usw. anzeigt.

Das Konzept der diegetischen Schnittstellen eignet sich ideal für die VR und verstärkt den Effekt der Authentizität des Geschehens aufgrund der räumlichen Anordnung und der narrativen Begründung.

28. Wenn Sie einen Benutzerarbeitsbereich für die langfristige Interaktion mit Elementen der Benutzeroberfläche erstellen, sollten Sie Stereotype aus Science-Fiction-Filmen wie „Minority Opinion“ vergessen. Platzieren Sie keine interaktiven Elemente für die Interaktion mit Controllern auf Sichtebene. Dies ist sehr anstrengend für Arme und Schultern. Teilen Sie den Raum in den Informationsbereich auf der Ebene des Oberkörpers und den Interaktionsbereich auf der Ebene des Bauches des Benutzers auf, in dem sich im ersten Fall alle Arten von Statusanzeigen, Benachrichtigungen, Eingabefelder befinden, und im zweiten - interaktive Blöcke, Tastaturen, Menüelemente usw.

29. Nur für den Fall, es ist besser zu klären - vermeiden Sie das Anbringen von Schnittstellenelementen an der Kamera des Benutzers. In diesem Fall können Sie solche Elemente in geringem Abstand vor der Kamera platzieren und die Möglichkeit einstellen, sich mit etwas Trägheit dahinter zu bewegen.

30. Es ist bei weitem nicht immer angebracht, Schaltflächen und andere Werkzeuge in Form von realen Objekten im Szenenraum darzustellen, z. B. physische dreidimensionale Schaltflächen, Hebel usw. In virtuellen Bedienfeldern ist nichts auszusetzen, wenn für Benutzeraktionen ein qualitativ hochwertiges Feedback konfiguriert ist: Schaltflächen reagieren auf Anweisungen, drücken werden beispielsweise hervorgehoben, verschieben sich in der Tiefe, reagieren auf Druck usw.

Die Bedienelemente sind bequem um die Controller angeordnet, wie dies in Tilt Brush der Fall ist. Die Darstellung der Benutzeroberfläche in Form eines Analogons eines Tablets in der Hand, auf dem sich die übliche 2D-Benutzeroberfläche befindet, ist für den Benutzer noch intuitiver und verständlicher.

Die Relevanz einer Lösung hängt von den Besonderheiten des Projekts ab.

31. Oft können Sie eine Lösung finden, indem Sie die Bedienelemente am Handgelenk in Form eines Hologramms oder einer Art Bedienfeld ähnlich einer Smartwatch platzieren. Hierbei ist es wichtig, die Funktionalität einer solchen Schnittstelleneinheit nicht zu überlasten - es ist schwierig, das Gewicht für die Interaktion mit interaktiven Elementen im Griff zu behalten. Diese Lösung eignet sich hervorragend für alle Arten von Benachrichtigungen und einfachen Aktionen.

Avatare der ersten Person


32. Wenn es darum geht, den Avatar eines Benutzers in der ersten Person in einem realistischen Stil zu visualisieren, ist es immer noch die Standardmethode, den Avatar teilweise anzuzeigen, wenn nur die angezeigten Körperteile angezeigt werden, d. H. im wesentlichen werden nur hände visualisiert. Dies ermöglicht es Ihnen, das Problem der Nichtübereinstimmung der Position des realen und virtuellen Körpers des Benutzers während der Bewegung zu lösen.

33. Es gibt Projekte, bei denen sich der Avatar in einer statischen Position befindet - zum Beispiel im Rennsport und in anderen Simulatoren. In diesem Fall ist es möglich, den gesamten Avatar-Körper ohne besondere Schwierigkeiten zu visualisieren - der Benutzer kann sich selbst an die Position des virtuellen Charakters anpassen und den realen und den virtuellen Körper synchronisieren.

34. Ja, es gibt Projekte ohne zusätzliche Body-Tracking-Systeme, bei denen der gesamte Körper des Avatars visualisiert wird. In einigen dieser Projekte wird dies nicht einmal so schlimm gemacht (oft handelt es sich um Actionspiele, bei denen Inkonsistenzen aufgrund der Dynamik des Spiels ausgeglichen werden). Wenn Sie sich dennoch dazu entschließen, den gesamten Körper des Avatars in der ersten Person zu visualisieren, sollten Sie darüber nachdenken, den Avatar selbst zu gestalten - Figuren wie Roboter oder Comicfiguren können hier die Situation glätten.

Auch hier hilft eine Erzählung: Wenn das Tracking-System nicht zulässt, dass der virtuelle Avatar die Bewegung des gesamten realen Körpers wiederholt, wie dies bei Brillen von Oculus, Sony und HTC der Fall ist, können Sie den umgekehrten Weg einschlagen. Das heißt nicht versuchen, dem benutzer zu beweisen, dass sein virtueller körper real ist, sondern den avatar beispielsweise als teil des fernbedienungssystems zu bezeichnen, mit dem der benutzer interagiert, und ihn visuell und narrativ besiegen.

, , “”, . , , , - , .

35. , , . , “” , . — , , ..


36. , , , .

37. , , « » - , . . .



. ( ) , . , . , , , , .

— , .

38. , , , . , . , .

39. , , . — ( , ) UI, .

40. :

  • — .
  • , .
  • , — , , . , , , .

41. . — , , - , — .

42. — ( ) , , .

Verschiedenes


43. , . , , , . — , , .


, — , .

44. . — «» , , :


.

, . , , .

45. , , . , , - . HUGE ROBOT Freedom Locomotion System.

, , .

, .

, , . , ( , ) — .

46. , , , . , , ( ).

— , .

47. - , , :

  • ;
  • (, );





  • , , - , ;
  • , , .

48. , - , , , , , — .

— , , , VR- .

49. VR , , . . — , , - , Oculus Rift Chronos

. Vive .

, — — , , , . , , - — / .

.

, — , , , . - , — — , . , , - .

50. .

  • , — , , — .
  • . , , , , . , .
  • — .
  • , .


PS , , VR.

Source: https://habr.com/ru/post/de475666/


All Articles