50 conseils UX en réalité virtuelle



Cette liste a été compilée sur la base de plusieurs de mes articles et notes sur la création d'une expérience utilisateur en VR. Le matériel a été créé comme une sorte de recommandations supplémentaires pour les nouveaux spécialistes de Modum Lab qui sont engagés dans la création de systèmes d'interaction dans les projets VR (principalement pour HTC Vive et les solutions autonomes). Tout d'abord, il était nécessaire d'analyser des sujets tels que l'utilisation des contrôleurs, les systèmes en mouvement, les spécificités du développement des éléments d'interface, la visualisation des avatars et les problèmes d'immersion en général.

Présentation de la VR


1. Ajoutez une pause au tout début de la simulation - laissez l'utilisateur ne rien faire pendant quelques secondes dans la scène. Cela permettra à une personne de s'adapter à un nouvel environnement et de naviguer dans l'espace, après quoi elle pourra se concentrer sur la tâche. Pas besoin d'exiger immédiatement de l'utilisateur qu'il fasse quoi que ce soit - il s'agit du manque de notifications, de voix off et d'animations. L'aspect même de la scène peut être montré progressivement. Par exemple, quitter le fondu, assembler à partir de fragments autour de l'utilisateur, etc. sont des options lorsque l'environnement virtuel n'apparaît pas immédiatement sous vos yeux.

2. Les nouveaux utilisateurs peuvent avoir du mal à faire le vrai premier pas en VR. Par conséquent, en plus d'une formation à l'utilisation du système de mouvement, par exemple la téléportation, vous pouvez ajouter la tâche du mouvement physique habituel dans la scène.

3. Au début, les utilisateurs peuvent ne pas très bien déterminer la position des objets en profondeur, donc au début, il est préférable de placer les éléments interactifs de manière à ce qu'ils soient toujours à distance ou, à l'inverse, beaucoup plus loin que la position d'origine de la personne, de sorte qu'il est clair que plusieurs étapes doivent être prises à l'objet.

Déménagement


4. Dans la grande majorité des cas, si les utilisateurs sont bercés dans un projet, le développeur est à blâmer. Il existe de nombreuses discussions sur ce sujet, un grand nombre de variations des systèmes de mouvement dans l'espace virtuel ont été créées, y compris diverses solutions de niche, par exemple, pour la technologie et les développeurs continuent d' explorer cette question.

Faites attention à l'étude de ce sujet, car pour différentes tâches, vous pouvez choisir la façon la plus appropriée de vous déplacer dans l'espace. Dans ce cas, l'option la plus courante à l'heure actuelle consiste à se déplacer à l'aide de la téléportation, c'est-à-dire à déplacer instantanément l'utilisateur dans l'espace en indiquant un point à déplacer à l'aide du contrôleur ou de la direction de la vue. La deuxième mécanique populaire est toutes sortes de variations de vol.

Justification des options d'utilisation et de mise en œuvre de la téléportation dans divers projets:



5. L'utilisation de la téléportation dans le projet peut être battue de manière narrative, ainsi que généralement construire le gameplay autour d'une telle «limitation».

6. Il existe en réalité de nombreux types de téléportation - c'est la téléportation gratuite dans une certaine zone de la scène, la téléportation vers des points donnés, instantanés et à travers des effets (par l'ombrage, la séquence d'images, par un mouvement rapide en ligne droite vers un point donné), etc. . Tout dépend du projet spécifique où le processus de mouvement est mis en œuvre.

La téléportation par zone fonctionne également et peut être perçue beaucoup plus facilement que la téléportation classique. C'est lorsque l'utilisateur ne peut pas se déplacer vers n'importe quel point de l'espace, mais vers un ensemble spécifique de zones définies. Mais ce ne sont pas seulement des points, à savoir des zones d'espace qui correspondent à la zone de suivi et à la position de l'utilisateur à l'intérieur (ce qui entraîne un certain nombre de difficultés dans la conception des scènes).

7. Lors de la création d'un système de téléportation, il vaut la peine de limiter la distance maximale de mouvement à l'aide d'un téléport. Étant donné que lors de la première utilisation de lunettes VR, les utilisateurs sont souvent confus dans les boutons du contrôleur, ils peuvent accidentellement parcourir de longues distances, ce qui entraînera une désorientation constante dans l'espace - "Où suis-je et comment suis-je arrivé ici?"

8. Si vous décidez de mettre en œuvre un système de libre circulation - la manière classique de contrôler le mouvement de la caméra à l'aide des boutons du contrôleur, alors faites une alternative pour la partie du public dont l'appareil vestibulaire ne sera pas prêt pour cela.

9. Avec un système de libre circulation, l'effet du mal des transports peut être réduit en construisant la structure de la scène ou du niveau de jeu afin que l'utilisateur avance principalement.

Exemple de projet utilisant un système de libre circulation

Contrôleurs, mains et affichage de contenu interactif


10. Si le contrôleur / la main touche l'objet interactif, l'objet à ce moment peut être mis en surbrillance, indiquant qu'il est déjà possible de passer à l'étape suivante - le prendre.

11. Lorsque vous prenez un objet interactif, le contrôleur / modèle de la main est généralement caché. Vous ne devez pas visualiser le contrôleur, qui est à moitié immergé dans la géométrie de l'objet avec lequel l'utilisateur interagit.


Projet de showroom virtuel pour Pioneer Group of Companies (ci-après)

12. Si l'interaction se produit à l'aide de modèles de main et que lorsque vous prenez un objet, les mains restent visibles, vous devez développer un ensemble unique de positions de pinceau pour divers objets afin que chaque objet ou catégorie d'objets ait un aspect organique dans la main. Il faut prendre en compte que cela nécessitera un certain temps et des coûts financiers avec un avantage pas tout à fait évident par rapport à la version précédente, lorsque le contrôleur ou la main disparaît lors de la prise de l'objet (une situation légèrement différente peut être avec Oculus Touch en raison de leur ergonomie).

J'aime plus l'option avec une visualisation constante des mains depuis la position de se corréler avec une image spécifique d'un avatar virtuel. Même simplement grâce à l'affichage des mains, vous pouvez indiquer qu'on vous propose un rôle, par exemple un robot ou un fantôme. Et si les mains ne disparaissent pas lors de l'interaction avec des objets, alors cette connexion est constamment présente. Mais je ne suis pas sûr que cela affecte la sensation de nos propres mains en VR d'une manière ou d'une autre plus forte que si nous ne visualisions que des objets que nous tenons avec nos mains. Voici un exemple de ce que les développeurs de Job Simulator en pensent - youtu.be/hjc7AJwZ4DI?t=1795

13. Les boutons latéraux du contrôleur HTC Vive ne doivent être utilisés qu'en cas d'absolue nécessité, mais il est préférable de ne pas les utiliser du tout. Ce sont des contrôles assez peu évidents dans ce système.

14. Moins il y a de boutons de contrôleur impliqués dans le projet, mieux c'est. Par exemple, vous pouvez utiliser la méthode de capture basée sur une zone pour interagir avec des objets avec un seul bouton de contrôleur. Cela fonctionne dans certains cas lorsque vous devez déplacer des objets dans une zone limitée (une souris sur un tapis sur une table qui peut être déplacée dans le tapis dans Job Simulator).

Dans d'autres cas, vous devez développer des cas distincts pour cette condition. Par exemple, une entité est introduite dans le projet - la zone de prise et de retour d'un objet. Lorsqu'il y a une zone séparée où l'objet est pris en appuyant sur la gâchette et remplace le contrôleur, après quoi l'utilisation ultérieure du déclencheur déclenche la logique de cet objet. Lors du retour dans la zone de retour par un clic, l'objet reste dans cette zone et le contrôleur est à nouveau visualisé. Cette approche réduira le nombre de boutons utilisés pour des types d'actions similaires (activation d'objet - capture et utilisation). Sinon, il est nécessaire de placer la capture d'objet fonctionnelle sur un bouton et de l'utiliser sur l'autre, ce qui soulèvera des questions sur la façon de traiter d'autres actions, qui nécessitent également des boutons, par exemple, pour la téléportation.

15. Si vous visualisez vos mains, il vaut mieux battre leur fin - allez dans la transparence, ou utilisez l'effet "gants vides" lorsque vous créez un gant qui prend la forme d'une main, mais il n'y a rien à l'intérieur si vous regardez du côté de la manchette.

Un exemple d'une tranche de géométrie conventionnelle sans aucun style

Utilisation du fondu (laissant en transparence)

Exemple de gant

16. Ne faites pas une visualisation réaliste des mains, cela n'a pas toujours l'air très joli.

Faites attention au type de main qui prend la clé

17. La transparence des mains résout le problème de "l'éphéméralité" - lorsque l'utilisateur peut traverser la géométrie de la scène avec sa main. De plus, au moment de l'intersection de la géométrie avec une main opaque ordinaire, vous pouvez battre la bordure de coupure en utilisant n'importe quel effet (hologramme, entrer en transparence près de la ligne de coupure, etc.), cela atténuera également le problème de rétroaction.

18. La génération actuelle de contrôleurs de mouvement pour VR présente un avantage très puissant par rapport aux périphériques d'entrée classiques - un seuil d'entrée faible en raison de la simplicité des contrôleurs de périphériques et de la façon dont ils sont utilisés dans les projets. Nous parlons de gestes naturels et de mouvements corporels. Par exemple, nous prenons un beignet par le contrôleur, le portons à notre bouche, jouons l'animation de mordre un morceau et remplissons la vie du personnage. Ou recharger une arme à feu lorsque vous devez retirer un chargeur et en installer un nouveau. Ou lancez le jeu en installant une cassette avec sauvegarde sur un magnétophone et en appuyant sur le bouton Lecture. En plus du fait que de telles actions sont très compréhensibles, puisqu'elles sont utilisées dans le monde réel, elles deviennent également une partie plus substantielle du gameplay et de la nouvelle expérience utilisateur dans son ensemble.

Mais il y a un problème intéressant de telles solutions, pas tellement dans le domaine des jeux en VR, mais dans le sens non-gaming - c'est la vitesse.

Il est nécessaire de corréler les avantages et les inconvénients de différentes approches dans le cadre du système d'interaction utilisateur avec l'environnement interactif dans des projets spécifiques.

Dans certains cas, la vitesse sera un facteur décisif (cliquer sur un beignet à l'aide d'un faisceau laser provenant du contrôleur), dans un autre, le processus d'interaction physique transféré du monde réel sera important (approchez, soulevez le beignet avec votre main et amenez-le sur votre visage pour que l'animation de manger soit jouée) . Par exemple, la transition vers des méthodes de contrôle plus abstraites peut être justifiée par la fréquence de ces interactions.

19. Les utilisateurs veulent interagir avec tout ce qui est à leur portée s'il ressemble à un objet qui semble pouvoir être pris ou cliqué. Il est important de répondre à leurs attentes, en gardant à l'esprit cette spécificité lors de la conception et du remplissage d'objets avec une scène. Par exemple, pour placer uniquement des objets interactifs dans la zone de portée, pas pour placer des objets statiques et interactifs dans une zone, etc.

Une autre façon de résoudre ce problème consiste à définir une indication visuelle claire pour les objets interactifs (marqueurs animés qui apparaissent sur des objets interactifs à bout de bras).



20. Au moment où vous maintenez enfoncé le bouton de téléportation, vous pouvez rendre visibles divers indicateurs de points d'intérêt dans des zones que l'utilisateur n'a pas encore visité.

21. La solution au problème de soulever des objets sur le sol afin que les utilisateurs ne frappent pas de vrais contrôleurs sur le vrai sol - si l'objet est tombé sur le sol, alors il vole un peu quand une main lui tend la main. Il est important de créer une indication visuelle supplémentaire du processus de "lévitation" de l'objet, afin que cela ne désoriente pas l'utilisateur.

Une autre option consiste à permettre de «magnétiser» les objets tombés lorsque le faisceau du contrôleur les survole.

La version classique pour les simulations où le déplacement avec l'objet n'est pas supposé est de réinitialiser la position lorsque, en tombant au sol, l'objet apparaît à l'endroit où il se trouvait à l'origine.

Astuces


22. Une seule incitation à concentrer l'utilisateur sur la zone souhaitée de la scène peut ne pas être suffisante, il est préférable d'utiliser plusieurs outils à la fois - animation dans la zone elle-même, lumière, indication de la zone des caractères, voix et texte, etc. Il convient également de considérer que le comportement des objets (animations) dans une scène attire plus l'attention que la voix ou le texte.

23. Les instructions pour les manipulations complexes avec les contrôleurs sont difficiles à percevoir si le contrôleur lui-même et les boutons à appuyer ne sont pas visibles. Par conséquent, aux premières étapes de la connaissance de la gestion, il est préférable de les montrer sous une forme ou une autre. Par exemple, les mains de l'utilisateur apparaissent dans le modèle, remplacez la brosse, les contrôleurs sont visualisés dans l'espace à côté de la main / objet pris.



24. Les fenêtres contextuelles mobiles fonctionnent bien lorsqu'une fenêtre à un endroit pour ramasser un objet dans votre main se déplace visuellement vers un autre endroit où cet objet doit être installé / déplacé.

Placement des commandes, menu principal


Le menu principal est la première chose qu'un utilisateur voit dans un projet, il ne peut pas être placé dans un vide sur un fond noir, il vaut mieux passer un peu de temps sur un environnement abstrait, ce qui sera déjà mieux que l'absence totale d'espace.


Immersive Simulations Platform scène de chargement sans éléments d'interface

Mais cela ne suffit pas toujours non plus. Le menu peut refléter le concept du projet, au sens littéral du lobby avant de passer directement à la simulation. Dans les jeux, cela a longtemps été utilisé , mais dans toutes sortes de services, cet aspect est trop peu pris en compte.

26. Si la charge entre les scènes dure longtemps, il est préférable d'allouer du temps pour créer une «salle d'attente» - un espace qui peut être visuellement et conceptuellement associé au menu principal ou à d'autres scènes du projet où l'utilisateur attend que le niveau se charge.

27. Associez l'interface à l'espace scène. Même s'il s'agit du panneau du menu principal suspendu dans l'espace, justifiez son existence dans l'environnement - il peut s'agir d'un projecteur qui affiche un hologramme dans la scène, la réflexion ou la lumière de l'hologramme sur les éléments de l'environnement, etc.

Le concept des interfaces diégétiques convient parfaitement à la réalité virtuelle, améliorant l'effet de l'authenticité de ce qui se passe autour du placement spatial et de la justification narrative.

28. Lors de la création d'un espace de travail utilisateur pour une interaction à long terme avec des éléments d'interface, il convient d'oublier les stéréotypes de films de science-fiction comme "Opinion minoritaire" - ne placez pas les éléments interactifs d'interaction avec les contrôleurs au niveau de la vue - cela est très fatigant pour les bras et les épaules. Divisez l'espace dans la zone d'informations au niveau du haut du corps et la zone d'interaction au niveau de l'abdomen de l'utilisateur, où dans le premier cas toutes sortes d'écrans d'état, de notifications, de champs de saisie seront localisés, et dans le second - blocs interactifs, claviers, éléments de menu, etc.

29. Juste au cas où, il vaut mieux clarifier - évitez de fixer des éléments d'interface à la caméra de l'utilisateur. Dans ce cas, vous pouvez placer ces éléments à une petite distance devant la caméra et définir la possibilité de se déplacer derrière avec une certaine inertie.

30. Il est loin d'être toujours approprié de visualiser des boutons et d'autres outils sous la forme d'objets réels dans l'espace de la scène, tels que des boutons physiques en trois dimensions, des leviers, etc. Dans les panneaux virtuels, il n'y a rien de mal si une rétroaction de haute qualité est configurée sur les actions de l'utilisateur: les boutons répondent au guidage, en appuyant, par exemple, sont mis en évidence, se déplacent en profondeur, répondent à la pression, etc.

Il est pratique de placer les commandes autour des contrôleurs, comme cela se fait dans Tilt Brush , la façon de présenter l'interface sous la forme d'un analogue d'une tablette à la main, où se trouve l'interface 2D habituelle, fonctionne de manière encore plus intuitive et claire pour l'utilisateur.

La pertinence d'une solution dépend des spécificités du projet.

31. Souvent, vous pouvez trouver une solution en plaçant des commandes sur le poignet sous la forme d'un hologramme ou d'une sorte de panneau similaire à une montre intelligente. Il est important ici de ne pas surcharger la fonctionnalité d'une telle unité d'interface - il est difficile de garder la main sur le poids pour interagir avec des éléments interactifs. Cette solution est idéale pour toutes sortes de notifications et de simples ensembles d'actions.

Avatars à la première personne


32. Lorsqu'il s'agit de visualiser l'avatar d'un utilisateur à la première personne dans un style réaliste, la manière standard est toujours une manière partielle d'afficher l'avatar, lorsque seules les parties du corps qui sont affichées sont affichées, c'est-à-dire: essentiellement, seules les mains sont visualisées. Cela vous permet de résoudre le problème de l'inadéquation de la position du corps réel et virtuel de l'utilisateur pendant le mouvement.

33. Il y a des projets où l'avatar est dans une position statique - par exemple, dans les courses et autres simulateurs. Dans ce cas, il est possible de visualiser l'ensemble du corps de l'avatar sans aucune difficulté particulière - l'utilisateur lui-même peut s'adapter à la position du personnage virtuel, «synchroniser» les corps réels et virtuels.

34. Oui, il existe des projets sans systèmes de suivi du corps supplémentaires, où le corps entier de l'avatar est visualisé. Dans certains de ces projets, cela n'est même pas fait si terriblement (ce sont souvent des jeux d'action où les incohérences sont lissées en raison de la dynamique du jeu). Si vous décidez néanmoins de visualiser le corps entier de l'avatar à la première personne, alors vous devriez penser à styliser l'avatar lui-même - des personnages comme des robots, des personnages de dessins animés peuvent lisser la situation.

Un récit sera également utile ici - si le système de suivi ne permet pas à l'avatar virtuel de répéter le mouvement de tout le corps réel, comme c'est le cas avec les lunettes d'Oculus, Sony et HTC, alors vous pouvez aller dans l'autre sens. C'est-à-dire N'essayez pas de prouver à l'utilisateur que son corps virtuel est réel, mais de désigner l'avatar, par exemple, comme faisant partie du système de télécommande avec lequel l'utilisateur interagit, l'ayant battu visuellement et narrativement.

, , “”, . , , , - , .

35. Lors de la personnalisation de votre avatar, personne n'a encore trouvé de meilleure solution, comme utiliser un miroir virtuel . Mais il existe d'autres alternatives, allant de l'utilisation d'articles de garde-robe ou d'EPI dans des simulations de sécurité sur des «mannequins» conditionnels lors de la sélection de l'ensemble correct dans le cadre de la réglementation, se terminant par des panneaux classiques avec des objets d'inventaire. Dans tous les cas, il est recommandé d'ajouter un support sonore lors de l'utilisation de l'article - le son du tissu, des gants de protection, des casques, etc.

Avatars et réseautage


36. , , , .

37. , , « » - , . . .



. ( ) , . , . , , , , .

Un sujet distinct est la visualisation des avatars du réseau dans les simulations d'entraînement, mais cela nécessite une discussion approfondie dans chaque cas spécifique.

38. Outre une visualisation exagérée, les développeurs essaient souvent de diverses manières de battre le moment avec les visages et les expressions faciales des avatars des utilisateurs, en se cachant le visage avec des lunettes, des masques, des combinaisons spatiales. Cela est fait à la fois pour économiser des ressources et pour compenser l'impossibilité de suivre les expressions faciales. Si cela correspond au concept du projet, bien sûr.

39.S'il existe des avatars d'utilisateurs avec possibilité de communication vocale, il devrait y avoir un lipSink ou son analogue pour la visualisation de la parole, lorsque l'avatar a une bouche cachée ou que son animation n'est pas supposée. L'une des options consiste à mettre en évidence (encore une fois, si le style le permet) ou à afficher un indicateur supplémentaire en tant qu'élément d'interface utilisateur, qui est souvent dupliqué même en présence d'un lien labial.

40. Il existe de nombreuses façons d'améliorer l'effet de la présence sociale en travaillant sur les avatars des utilisateurs:

  • Ajoutez une animation clignotante à vos avatars - cela animera grandement les personnages de la scène.
  • Des animations supplémentaires d'accessoires qui répondent aux mouvements du corps fonctionnent bien.
  • , — , , . , , , .

41. Vous ne pouvez pas perturber le processus de déplacement des avatars des utilisateurs. Si le suivi du corps est utilisé - les utilisateurs voient comment les avatars des autres se déplacent en fonction de la position des contrôleurs, vous ne pouvez pas intercepter les mouvements dans ce processus pour jouer des animations supplémentaires du corps des avatars sans lien avec une personne réelle - cela fonctionnera pour détruire l'effet de la présence sociale.

42. Si la fonctionnalité principale du projet avec interaction réseau est la communication entre les utilisateurs (analogique de chat) et le système mobile dans son ensemble n'est pas requis dans cette simulation, alors l'option la plus efficace consiste à placer des avatars sur la table où tous les outils de communication sont situés à bout de bras. .

Divers


43. Si la transition d'une scène à une autre est initialisée par l'utilisateur, diverses métaphores sont souvent utilisées pour cela. Par exemple, les sphères de niveaux que l'utilisateur prend avec le contrôleur et amène à la tête, pénétrant essentiellement dans leur espace. Un autre exemple est les lunettes de réalité virtuelle à l'intérieur de la réalité virtuelle, qui sont nécessaires pour se déplacer vers un autre espace.


Il s'agit, d'une part, d'une justification raisonnablement claire de la transition et, d'autre part, d'une technique immersive.

44. L' utilisateur est libre de se déplacer dans l'espace réel de sa chambre et est plus susceptible de traverser des objets virtuels. Une des options pour vaincre cette situation est de supprimer la «matérialité» de la géométrie intersectée afin qu'elle ne semble pas solide et de styliser le moment de l'intersection afin que la tranche de la géométrie ne se lise pas comme un bug:


Ceci est similaire à la situation avec une tranche de la géométrie du modèle de main lors de l'intersection avec des objets dans la scène.

Vous pouvez également utiliser facultativement la stylisation, montrant la structure interne de l'objet. Pas forcément réaliste, peut-être exagéré et comique, si le cadre le permet.

45. Parfois, les utilisateurs dépassent les limites de la scène elle-même, par exemple à travers le mur d'une salle virtuelle. Dans de tels cas, le plus souvent, l'image est simplement prise au fondu, parfois l'utilisateur est automatiquement téléporté, et cela peut ne pas être une très bonne option en raison d'une perte d'orientation dans l'espace. Pour éviter cela, il existe une solution plutôt intéressante de HUGE ROBOT dans le cadre du projet Freedom Locomotion System.

Au moment de l'intersection, la grille du système de suivi est visualisée dans l'espace, montrant la zone physique pour se déplacer et mettant en évidence la silhouette de l'objet à l'intérieur de laquelle l'utilisateur a pénétré.

Mais aller au-delà des limites de la scène peut être battu dans le cadre du récit, du décor ou même devenir une partie de la mécanique du jeu.

Par exemple, vous pouvez placer une géométrie de scène supplémentaire derrière les murs du niveau de jeu, en stylisant le niveau lui-même comme décoration. Ou vous pouvez créer l'effet de vous déplacer vers un autre espace lorsque vous sortez de la scène, ou vous pouvez punir un joueur tout en sortant de l'espace virtuel après un certain temps (s'il n'était pas accidentellement derrière le mur et essaie de contourner les règles du jeu) - la seule question est la pertinence des données réceptions dans un projet spécifique.

46.Un cas particulier d'un sujet avec un environnement interactif concerne le développement de cas pour les portes fermées, car il existe un accord tacite avec l'utilisateur que si une porte a une poignée, vous pouvez essayer de l'ouvrir. Une poignée tombe à la porte, la porte s'ouvre, mais il y a un mur de briques ou une grille stylisée d'espace tridimensionnel sans détail et ainsi de suite (si ces techniques sont conformes au concept du projet).

Ces petites choses sont un exemple du niveau d'attention nécessaire à l'expérience utilisateur qui améliore l'immersion.

47. Si vous décidez d'utiliser l'image déjà classique d'un robot robot volant dans l'espace en tant qu'assistant utilisateur, voici quelques conseils pour le rendre plus attrayant et vivant:

  • ;
  • (, );





  • , , - , ;
  • , , .

48. L' utilisateur en réalité virtuelle reste lui-même, le jeu pour un personnage est un jeu de rôle, et dans cet environnement virtuel, il peut soit essayer le rôle du personnage, pour lequel il doit être préparé à l'avance, soit obtenir une explication raisonnable de la façon dont il, étant lui-même moi-même, je me suis retrouvé dans l'espace virtuel - j'ai écrit à ce sujet dans une note séparée sur la rupture du quatrième mur dans la réalité virtuelle.

Cette possibilité de destruction complète du quatrième mur peut être utilisée dans certains projets pour améliorer l'immersion dans la simulation - créer une connexion entre le monde réel et l'environnement virtuel, expliquer comment l'utilisateur s'est retrouvé dans cet espace, battre l'existence des lunettes VR narrativement et visuellement.

49.Dans les projets à la troisième personne en VR, il est pratique de construire un système classique de mouvement et de combat pendant le mouvement du personnage lorsque le joueur est un observateur invisible, qui est directement à l'intérieur de l'environnement virtuel. Ici, le problème du mal des transports disparaît également avec les actions actives du personnage dans la scène. Le passage à la première personne dans de tels projets peut se produire dans des cas particuliers - dans les dialogues ou lors de l'interaction avec l'environnement, par exemple, en résolvant des énigmes, comme cela se fait dans l'exclusivité pour Oculus Rift Chronos et jeux similaires.

Un autre exemple assez inhabituel concerne le développement hors jeu . Nous avons implémenté la transition de la première personne à la troisième dans le projet d'interaction réseau pour Vive lors de la téléportation de l'avatar de l'utilisateur vers les chaises dans les scènes.

Pendant la téléportation vers une chaise virtuelle, nous avons placé un avatar d'utilisateur dessus, et la caméra virtuelle - le point de vue - a été déplacée derrière le modèle de personnage à la même hauteur que la tête réelle de l'utilisateur, mais en tournant la caméra pour qu'elle regarde l'arrière de la tête pour un avatar. Dans ce mode, l'utilisateur peut se déplacer séparément de sa représentation virtuelle, qui ne répond pas à ses mouvements, jusqu'à ce que l'utilisateur décide de se téléporter de la chaise quelque part dans la scène - alors la synchronisation entre le personnage et la caméra / l'utilisateur sera restaurée.

Cette manière simple ne rompt pas la synchronisation de la caméra avec la position réelle de la tête et préserve la fonctionnalité existante de l'emplacement possible des personnages virtuels dans les chaises.

Ceci est un effet plutôt intéressant, qui ne se trouve pas dans les projets avec un contrôle tiers prédominant avec le passage au premier - vous voici, vous habituer à percevoir une scène virtuelle directement des yeux du personnage, comme si vous vous sépariez de votre corps virtuel et commencez à la percevoir de côté, étant derrière dans le fauteuil avatar. Dans ce cas, il n'y a pas de désorientation dans l'espace, car il peut sembler - à la fois tout devient clair - qui vous êtes, où vous êtes et qui est le personnage devant vous. Bien qu'en plus on discute encore d'un indicateur distinct au dessus de l'avatar de l'utilisateur, que c'est lui qui, en général, supprime tout risque de perte de concentration.

50. Séparément, sur le son d'un petit ensemble de recommandations dans un bloc.

  • , — , , — .
  • . , , , , . , .
  • — .
  • Le son peut fonctionner avec des éléments de guidage, se déplaçant dans l'espace de la scène pour concentrer l'utilisateur sur la zone souhaitée.


PS Initialement, l'article a été publié sur un blog d'entreprise, mais je pense que dans les hubs thématiques, il peut également être intéressant pour ceux qui connaissent le sujet du développement de systèmes d'interaction pour la RV.

Source: https://habr.com/ru/post/fr475666/


All Articles