FR3074325A1 - HANDLING VIRTUAL OBJECTS IN AN IMMERSIVE ENVIRONMENT - Google Patents
HANDLING VIRTUAL OBJECTS IN AN IMMERSIVE ENVIRONMENT Download PDFInfo
- Publication number
- FR3074325A1 FR3074325A1 FR1757462A FR1757462A FR3074325A1 FR 3074325 A1 FR3074325 A1 FR 3074325A1 FR 1757462 A FR1757462 A FR 1757462A FR 1757462 A FR1757462 A FR 1757462A FR 3074325 A1 FR3074325 A1 FR 3074325A1
- Authority
- FR
- France
- Prior art keywords
- virtual object
- user
- hands
- fingers
- gripping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Procédé de manipulation d'un objet virtuel (18) dans un environnement immersif (100) comprenant : -une salle immersive (11) équipée de -un système de détection (12s), -un système de projection (14s) d'images sur les parois (13) de la salle, par un utilisateur (10) portant : -un système de suivi de la vision (16) de l'utilisateur -un système de suivi des gestes (19) de l'utilisateur, caractérisé en ce que le procédé comporte une phase de préhension définissant la préhension de l'objet virtuel (18), qui comprend une gestualité avec les deux mains de l'utilisateur.A method of manipulating a virtual object (18) in an immersive environment (100) comprising: an immersive room (11) equipped with a detection system (12s), a projection system (14s) of images on the walls (13) of the room, by a user (10) carrying: - a user's vision tracking system (16) - a user's gesture tracking system (19), characterized in that that the method comprises a gripping phase defining the gripping of the virtual object (18), which comprises a gestuality with both hands of the user.
Description
Domaine technique de l’inventionTechnical field of the invention
La présente invention concerne un environnement immersif pour des éléments d’étude en réalité virtuelle.The present invention relates to an immersive environment for study elements in virtual reality.
La présente invention concerne plus particulièrement un procédé de manipulation d’objet dans un environnement virtuel immersif.The present invention relates more particularly to a method for manipulating an object in an immersive virtual environment.
Etat de la techniqueState of the art
L’avancement technologique actuel de la réalité virtuelle permet de projeter un opérateur au sein d’un univers virtuel dans lequel sont affichés divers contenus, par exemple un objet 3D ou tridimensionnel à étudier. Il est non seulement possible de visualiser différents contenus 3D mais également d’interagir avec ceux-ci en temps réel, ce qui ouvre la voie à bon nombre d’applications. La revue de projet numérique immersive par exemple se matérialise par l’utilisation de la réalité virtuelle comme un outil de contrôle et un support de discussion entre les différents interlocuteurs d’un projet.The current technological advancement in virtual reality makes it possible to project an operator within a virtual universe in which various contents are displayed, for example a 3D or three-dimensional object to be studied. It is not only possible to view different 3D content but also to interact with it in real time, which opens the way to many applications. The immersive digital project review, for example, materializes through the use of virtual reality as a control tool and a discussion medium between the different interlocutors of a project.
Dans le domaine automobile, des maquettes numériques de véhicules peuvent alors être utilisées par différents interlocuteurs dont des designers, des ingénieurs ou des ergonomes qui peuvent dialoguer lors de réunions immersives centrées sur la maquette numérique, ladite maquette servant de support de communication et d’échange de points de vue entre les différents métiers. Ladite maquette numérique permet également de vérifier que le modèle du véhicule respecte bien des critères d’architecture, d’ergonomie, de qualité perçue ou encore d’habitabilité entre autres.In the automotive field, digital models of vehicles can then be used by different interlocutors including designers, engineers or ergonomists who can interact during immersive meetings centered on the digital model, said model serving as a communication and exchange medium of points of view between the different trades. Said digital model also makes it possible to verify that the vehicle model does indeed meet criteria of architecture, ergonomics, perceived quality or even livability among others.
Alors que les maquettes physiques sont massivement utilisées jusqu’à présent, l’objectif actuel est de réduire drastiquement leur usage car elles sont coûteuses et peu écologiques. Classiquement, on commande une maquette physique qui correspond à l’état du prototype à un instant donné. Après d’importants délais, la maquette est livrée mais elle peut être déjà périmée. Par contre, une maquette numérique est disponible plus rapidement, dans une version plus à jour et modifiable en temps réel ce qui permet une plus grande réactivité de l’ensemble des acteurs et démontre l’intérêt de la maquette numérique.While physical models have been used extensively so far, the current objective is to drastically reduce their use because they are expensive and not very ecological. Conventionally, we order a physical model that corresponds to the state of the prototype at a given time. After significant delays, the model is delivered but it may already be out of date. On the other hand, a digital model is available more quickly, in a more up-to-date version that can be modified in real time, which allows greater reactivity by all the players and demonstrates the interest of the digital model.
Un autre avantage est que contrairement aux maquettes physiques habituelles de véhicules qui sont souvent à l’échelle un quart, les maquettes virtuelles apparaissent à l’échelle 1, ce qui signifie que l’opérateur peut se mettre dans la peau d’un utilisateur final et entrer dans l’habitacle.Another advantage is that unlike the usual physical models of vehicles which are often on a quarter scale, virtual models appear on scale 1, which means that the operator can put himself in the shoes of an end user. and enter the cabin.
La visualisation d’architecture de véhicule automobile dans un environnement virtuel est donc un enjeu majeur chez les constructeurs automobiles car elle permet d’accélérer les processus de conception. On utilise généralement une salle immersive qui permet de disposer d’un excellent rendu visuel et dans laquelle on déploie deux technologies pour la perception de la profondeur : la stéréovision qui exploite l’effet de disparité binoculaire et la capture et le suivi des déplacements ou « tracking » en anglais qui permet la parallaxe du mouvement.The visualization of motor vehicle architecture in a virtual environment is therefore a major issue for car manufacturers because it allows to accelerate the design process. We generally use an immersive room that provides excellent visual rendering and in which we deploy two technologies for depth perception: stereovision which exploits the effect of binocular disparity and the capture and tracking of movements or " tracking ”in English which allows the parallax of the movement.
De façon générale, les objets dans une salle immersive sont posés ou circulent sensiblement sur un plan et il n’est pas possible de bien appréhender toutes les caractéristiques de forme de l’objet virtuel que l’on étudie. Par exemple, il est impossible de manipuler ces objets afin de voir le dessous desdits objets. Dans le domaine des véhicules automobiles, les utilisateurs qui peuvent être des désigners, des concepteurs ou des ingénieurs peuvent voir et apprécier le dessus du véhicule au moins tout ce qui à hauteur de leur vision avec naturellement tous les éléments de parois latérales dudit véhicule. Cependant ces utilisateurs ne peuvent pas de façon confortable voir des éléments de décoration agencés sur le toit du véhicule ou les éléments du dessous du véhicule. Ils ne peuvent avoir une vision complète du véhicule alors qu’ils disposent des plans et des données numériques.In general, the objects in an immersive room are placed or circulate substantially on a plane and it is not possible to fully understand all the shape characteristics of the virtual object that we are studying. For example, it is impossible to manipulate these objects in order to see the underside of said objects. In the field of motor vehicles, the users who may be designators, designers or engineers can see and appreciate the top of the vehicle at least all that is up to their vision with naturally all the elements of the side walls of said vehicle. However, these users cannot comfortably see decorative elements arranged on the roof of the vehicle or the elements below the vehicle. They cannot have a complete vision of the vehicle when they have maps and digital data.
Il existe donc un besoin de manipuler des objets dans un environnement virtuel immersif notamment pour des objets volumineux tels qu’une carrosserie de véhicule ou un véhicule lui-même.There is therefore a need to manipulate objects in an immersive virtual environment, in particular for bulky objects such as a vehicle body or a vehicle itself.
La publication US 2009/0177452-A1 propose un système de manipulation d’un objet dans un environnement virtuel, lequel objet est suivi par des détecteurs. Ledit objet est un outil pour une opération par exemple.Publication US 2009/0177452-A1 provides a system for manipulating an object in a virtual environment, which object is tracked by detectors. Said object is a tool for an operation for example.
Un problème est le suivi par détection de l’outil et non des gestes de la main, ce qui réduit sensiblement le champ d’expériences proposé par cette publication. De plus, la pose de l’outil n’est pas prise en compte puis c’est l’outil qui est suivi et non la main elle-même.One problem is tracking by detecting the tool and not the hand gestures, which significantly reduces the range of experience offered by this publication. In addition, the installation of the tool is not taken into account then it is the tool which is followed and not the hand itself.
Le but de l’invention est de remédier à ces problèmes et un des objets de l’invention est un procédé de manipulation d’objet dans un environnement immersif pour autoriser la saisie, la manipulation et la pose d’un objet.The object of the invention is to remedy these problems and one of the objects of the invention is a method of manipulating an object in an immersive environment to authorize the grasping, handling and placing of an object.
Présentation de l’inventionPresentation of the invention
La présente invention concerne plus particulièrement un procédé de manipulation d’un objet virtuel dans un environnement immersif comprenant :The present invention relates more particularly to a method of manipulating a virtual object in an immersive environment comprising:
-une salle immersive équipée de-an immersive room equipped with
-un système de détection,-a detection system,
-un système de projection d’images sur les parois de la salle, par un utilisateur portant :-an image projection system on the walls of the room, by a user carrying:
-un système de suivi de la vision de l’utilisateur-a user vision tracking system
-un système de suivi des gestes de l’utilisateur, caractérisé en ce que le procédé comporte une phase de préhension définissant la préhension de l’objet virtuel, qui comprend une gestualité prédéterminée avec le deux mains de l’utilisateur.a system for monitoring the gestures of the user, characterized in that the method comprises a gripping phase defining the gripping of the virtual object, which includes a predetermined gesture with the two hands of the user.
De manière avantageuse, le procédé de manipulation d’objet virtuel permet de prendre et de mouvoir un objet virtuel dans un environnement virtuel immersif tel que le CAVE comprenant une salle immersive avec son dispositif de projection d’images sur les parois de ladite salle comprenant des projecteurs, son dispositif de suivi comprenant des caméras de détection, dans laquelle l’utilisateur est entré en portant un système de suivi de vision, par exemple une paire de lunettes équipées d’un élément de suivi qui peut être une sphère disposée de façon médiane à la paire de lunettes, et un système de suivi des gestes et notamment des doigts à chacune des deux mains de l’utilisateur. Selon l’invention, la reconnaissance de la préhension de l’objet virtuel est consécutive à la détection d’une gestualité prédéterminée des deux mains de l’utilisateur pour éviter des dysfonctionnements suite à des erreurs de gestes.Advantageously, the method of manipulating a virtual object makes it possible to take and move a virtual object in an immersive virtual environment such as the CAVE comprising an immersive room with its device for projecting images onto the walls of said room comprising projectors, its tracking device comprising detection cameras, into which the user has entered while wearing a vision tracking system, for example a pair of glasses equipped with a tracking element which may be a sphere arranged in the middle a pair of glasses, and a gesture tracking system, including fingers to each of the user's two hands. According to the invention, the recognition of the grip of the virtual object is consecutive to the detection of a predetermined gesture with both hands of the user to avoid malfunctions following errors in gestures.
De façon avantageuse, la prise à deux mains de l’objet virtuel permet également sans difficultés d’imprimer des mouvements de translation ou de rotation audit objet selon différents axes. En effet, il est alors plus aisé de détecter les positions relatives entre les deux mains et ensuite de calculer les mouvements de l’objet virtuel.Advantageously, the two-handed grip of the virtual object also makes it possible without difficulty to print translational or rotational movements to said object along different axes. Indeed, it is then easier to detect the relative positions between the two hands and then to calculate the movements of the virtual object.
Selon d’autres caractéristiques de l’invention,According to other features of the invention,
- le système de suivi des gestes de l’utilisateur comprend des éléments de suivi portés aux mains par l’utilisateur.- the user's gesture tracking system includes tracking elements carried by the user.
De manière avantageuse, le système de suivi des gestes de l’utilisateur comprend des éléments de suivi portés aux mains par l’utilisateur. De ce fait, les positions spatiales des doigts de chacune des mains sont associés aux positions spatiales des éléments de suivi portés. Une phase de calibration peut avoir lieu pour préciser les mouvements de pincements des doigts.Advantageously, the user’s gesture tracking system includes tracking elements carried by the user. Therefore, the spatial positions of the fingers of each of the hands are associated with the spatial positions of the tracking elements carried. A calibration phase can take place to specify the pinching movements of the fingers.
- les éléments de suivis portés sont dans une liste comprenant des gants de suivi comportant au moins deux doigts susceptibles d’être suivis, des bagues de suivi adaptées à entourer le doigt de l’utilisateur.- the tracking elements worn are in a list comprising tracking gloves comprising at least two fingers capable of being tracked, tracking rings adapted to surround the user's finger.
De manière avantageuse, les éléments de suivi portés à chacune des mains par l’utilisateur peuvent une paire de gants de suivi formé par au moins deux embouts de suivi détectés par le système de suivi de la salle immersive.Advantageously, the tracking elements worn in each hand by the user can a pair of tracking gloves formed by at least two tracking tips detected by the tracking system of the immersive room.
Lesdits éléments peuvent aussi être une bague avec des bras radiaux tenant une boule repérée et suivie par le système de suivi de la salle immersive.Said elements can also be a ring with radial arms holding a ball identified and followed by the tracking system of the immersive room.
Il existe de nombreux éléments de suivi de doigts et la technologie pourra offrir d’autres produits moins encombrants.There are many elements of finger tracking and technology may offer other less bulky products.
-la phase de préhension comporte la détection de pincement de deux doigts d’une main.-the gripping phase includes the detection of pinching of two fingers of one hand.
De manière avantageuse, la phase de préhension comporte la détection par le système de suivi de la salle immersive du pincement de deux doigts d’une même main. Ladite main peut jouxter l’objet virtuel c’est-à-dire que la distance entre ladite main et l’objet virtuel est inférieure à un seuil de distance. Par exemple, ladite main peut être au contact avec l’objet virtuel pour réduire les erreurs de détection. En effet, les coordonnées spatiales de la main peuvent être déduites des coordonnées spatiales des doigts et comparées ensuite avec les cordonnées spatiales de objet virtuel. La main doit donc être à proximité de l’objet virtuel ou à son contact pour préciser la volonté de préhension de l’objet virtuel puis les doigts doivent venir au pincement au contact l’un de l’autre.Advantageously, the gripping phase comprises the detection by the tracking system of the immersive room of the pinching of two fingers of the same hand. Said hand can adjoin the virtual object, that is to say that the distance between said hand and the virtual object is less than a distance threshold. For example, said hand may be in contact with the virtual object to reduce detection errors. Indeed, the spatial coordinates of the hand can be deduced from the spatial coordinates of the fingers and then compared with the spatial coordinates of the virtual object. The hand must therefore be close to the virtual object or in contact with it to specify the will to grasp the virtual object, then the fingers must come to the pinch in contact with each other.
-la phase de préhension comprend une étape de validation comportant la détection du pincement de doigts de chacune des deux mains qui jouxtent l’objet virtuel.-the gripping phase includes a validation step comprising the detection of the pinching of fingers of each of the two hands which adjoin the virtual object.
De manière avantageuse, l’étape de préhension comprend une étape de validation de la préhension avec la détection du pincement des deux doigts de chacune des deux mains. Chacune des mains jouxte l’objet virtuel ou étant à proximité avec l’objet virtuel. De cette façon, l’écart entre les deux mains est calculé et pris en valeur de référence pour les mouvements à venir.Advantageously, the gripping step comprises a step of validating the gripping with the detection of the pinching of the two fingers of each of the two hands. Each of the hands adjoins or is close to the virtual object. In this way, the difference between the two hands is calculated and taken as a reference value for the movements to come.
-la phase de préhension de l’objet comprend un ensemble de gestualités symboliques, chacune des gestualités symboliques est associée à un mouvement particulier de l’objet virtuel.-the gripping phase of the object includes a set of symbolic gestures, each of the symbolic gestures is associated with a particular movement of the virtual object.
De manière avantageuse, la phase de préhension comprend un ensemble de gestualités symboliques, chacune de ces gestualités symboliques est associée à un mouvement particulier de l’objet virtuel. Les gestualités symboliques sont avantageusement intuitivesAdvantageously, the gripping phase comprises a set of symbolic gestures, each of these symbolic gestures is associated with a particular movement of the virtual object. Symbolic gestures are advantageously intuitive
- la phase de préhension autorise une vision d’agrandissement de l’objet virtuel par une gestualité symbolique de grossissement.- the gripping phase allows a vision of enlargement of the virtual object by a symbolic gesture of magnification.
La phase de préhension autorise aussi de manière avantageuse d’obtenir un agrandissement de l’objet virtuel par une gestualité particulière, simple et intuitive avec les deux mains, chacune des mains présentant les deux doigts en pincement.The gripping phase also advantageously allows an enlargement of the virtual object by a particular gesture, simple and intuitive with the two hands, each hand having the two fingers pinched.
-la gestualité symbolique de grossissement est dans une liste comprenant un écartement des deux mains de l’utilisateur.-the symbolic gesture of magnification is in a list including a separation between the two hands of the user.
De façon avantageuse, la gestualité consistant à écarter les mains et les bras est intuitive pour agrandir la vision de l’objet virtuel, chacune des mains présentant les deux doigts en pincement. Cette gestualité est analogue à celle symbolique sur les ordinateurs portables actuels.Advantageously, the gesture consisting in spreading the hands and arms is intuitive to enlarge the vision of the virtual object, each of the hands having the two fingers in pinch. This gesture is analogous to that symbolic on current laptops.
-la phase de préhension est arrêtée à la détection du desserrage de deux doigts d’une main.-the gripping phase is stopped upon detection of the loosening of two fingers of one hand.
De façon avantageuse, le desserrage des deux doigts d’une main est détecté par le système de suivi de la salle immersive permet d’arrêter la phase de préhension. La gestualité liée à l’arrêt de la préhension est donc très simple.Advantageously, the loosening of the two fingers of one hand is detected by the monitoring system of the immersive room makes it possible to stop the gripping phase. The gestures associated with stopping the grip are therefore very simple.
- la phase d’arrêt de manipulation laisse l’objet virtuel immobile dans sa dernière position spatiale précédant ladite phase d’arrêt.- the manipulation stop phase leaves the virtual object immobile in its last spatial position preceding said stop phase.
De manière avantageuse, la phase d’arrêt de la manipulation laisse l’objet virtuel immobile dans sa dernière position précédant ladite phase d’arrêt. Ainsi, il est aisé de bouger l’objet virtuel dans les sens voulu, puis de l’immobiliser afin de percevoir visuellement tous les aspects dudit objet virtuel.Advantageously, the manipulation stop phase leaves the virtual object immobile in its last position preceding said stop phase. Thus, it is easy to move the virtual object in the desired directions, then to immobilize it in order to visually perceive all the aspects of said virtual object.
Brève description des figuresBrief description of the figures
D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description qui suit de modes particuliers de réalisation de l'invention donnés à titre d'exemples non limitatifs et représentés sur les dessins annexés, dans lesquels :Other characteristics and advantages of the invention will appear on reading the following description of particular embodiments of the invention given by way of nonlimiting examples and represented in the appended drawings, in which:
-la figure 1 est une vue schématique de l’utilisateur dans un environnement virtuel immersif avec un objet virtuel.FIG. 1 is a schematic view of the user in an immersive virtual environment with a virtual object.
-la figure 2 est une vue schématique de la main avec le système de suivi des gestes de l’utilisateur.FIG. 2 is a schematic view of the hand with the user's gesture tracking system.
-la figure 3 est une vue schématique de la manipulation de l’objet virtuel.FIG. 3 is a schematic view of the manipulation of the virtual object.
-la figure 4 est une schématique de la préhension de l’objet virtuel.FIG. 4 is a diagram of the grip of the virtual object.
-la figure 5 est vue d’un logigramme de représentation du procédé de manipulation.FIG. 5 is a view of a flow diagram representing the manipulation process.
Description détaillée des figuresDetailed description of the figures
Dans la description qui va suivre, des chiffres de référence identiques désignent des pièces identiques ou ayant des fonctions similaires.In the following description, identical reference numerals designate identical parts or having similar functions.
On entend par les termes « 3D » le caractère spatial tridimensionnel.The term “3D” is understood to mean the three-dimensional spatial character.
La figure 1 représente un environnement virtuel 100 immersif dans lequel est plongé un utilisateur 10. Ledit environnement virtuel immersif un « CAVE©» pour« Cave Automatic Virtual Environment » en anglais. Cet environnement immersif est formé par une salle immersive 11 comprenant trois parois verticales 13 jointes disposées entre un plafond et un plancher et équipée de caméras et de capteurs de position 12 d’un utilisateur ici le conducteur aux coins du plafond et/ou du plancher de ladite salle et de projecteurs 14 pour diffuser sur les différentes parois 13 de ladite salle 11 des images de l’environnement enregistrées dans une mémoire d’une unité de contrôle 15 afin de recréer de manière réaliste l’environnement de l’utilisateur. Lesdits capteurs 12 forment un système de détection 12s et les projecteurs 14 forment un système de projection 14s de la salle, lesdits systèmes sont reliés à ladite unité de contrôle 15. L’utilisateur 10 est introduit dans la salle immersive.FIG. 1 represents an immersive virtual environment 100 in which a user is immersed. Said immersive virtual environment a "CAVE ©" for "Cave Automatic Virtual Environment" in English. This immersive environment is formed by an immersive room 11 comprising three vertical walls 13 joined arranged between a ceiling and a floor and equipped with cameras and position sensors 12 of a user here the driver at the corners of the ceiling and / or floor said room and projectors 14 for diffusing on the various walls 13 of said room 11 images of the environment recorded in a memory of a control unit 15 in order to realistically recreate the environment of the user. Said sensors 12 form a detection system 12s and the projectors 14 form a projection system 14s of the room, said systems are connected to said control unit 15. The user 10 is introduced into the immersive room.
L’unité de contrôle 15 commande la projection en continu d’images d’environnement pour former l’environnement virtuel de l’utilisateur 10. L’environnement virtuel de l’utilisateur est apte à être modifié suivant la navigation dudit utilisateur ainsi que par les déplacements du point de vue de l’utilisateur. Pour pouvoir définir ledit point de vue, l’utilisateur peut être muni d’un système de suivi de la vision 16 qui est ici une paire de lunettes comportant une boule de suivi 17 recouverte par exemple de feuille argentée, ladite boule de suivi étant susceptible d’être repérée par les capteurs 16 de la salle immersive. La position spatiale de la boule de suivi 17 peut alors être facilement détectée ainsi que la direction de la vision de l’utilisateur.The control unit 15 controls the continuous projection of environment images to form the virtual environment of the user 10. The virtual environment of the user is capable of being modified according to the navigation of said user as well as by displacements from the point of view of the user. To be able to define said point of view, the user can be provided with a vision tracking system 16 which is here a pair of glasses comprising a tracking ball 17 covered for example with silver foil, said tracking ball being capable to be spotted by the sensors 16 of the immersive room. The spatial position of the tracking ball 17 can then be easily detected as well as the direction of the user's vision.
Les mouvements dans l’espace de la tête sont ainsi détectés également par les capteurs 12 de la salle immersive 11 afin de pouvoir définir le point de vue ainsi que le champ de vison de l’utilisateur 10. Les informations de détection par lesdits capteurs 12 sont ensuite transmises de manière préférentielle en temps réel par lesdits capteurs à l’unité de contrôle 15 qui est apte à effectuer des calculs pour définir l’environnement virtuel 35 de l’utilisateur et de contrôler les projections des images par les projecteurs 14. On peut apercevoir l’environnement virtuel 35 par exemple sur les figures 3 et 4.Movements in the head space are thus also detected by the sensors 12 of the immersive room 11 in order to be able to define the point of view as well as the field of vision of the user 10. The detection information by said sensors 12 are then preferably transmitted in real time by said sensors to the control unit 15 which is capable of performing calculations to define the virtual environment 35 of the user and of controlling the projections of the images by the projectors 14. On can see the virtual environment 35 for example in FIGS. 3 and 4.
Dans la salle immersive 11 est placé un objet virtuel 18 qui est ici un véhicule virtuel 18v qui peut être une image 3D d’un véhicule ou d’une maquette d’étude comme dans notre exemple. Cet objet virtuel 18 « 3D » est obtenu dans la salle immersive 11 par la projection de flux vidéo sur les différentes parois 13 de la salle.In the immersive room 11 is placed a virtual object 18 which is here a virtual vehicle 18v which can be a 3D image of a vehicle or of a study model as in our example. This virtual object 18 "3D" is obtained in the immersive room 11 by the projection of video streams on the different walls 13 of the room.
Une séance d’examen de l’objet virtuel 18 peut alors être démarrée simplement.A session for examining the virtual object 18 can then be started simply.
Selon l’invention, l’utilisateur dispose d’un procédé 200 de manipulation de l’objet virtuel 18 qui permet de valider la préhension de l’objet virtuel 18 puis la manipulation dudit objet. Selon la figure 5, ledit procédé 200 comprend :According to the invention, the user has a method 200 for manipulating the virtual object 18 which makes it possible to validate the gripping of the virtual object 18 and then the manipulation of said object. According to FIG. 5, said method 200 comprises:
-une phase de préhension 210 de l’objet virtuel qui comporte .une étape de validation 215 de la préhension ,-a gripping phase 210 of the virtual object which comprises .a validation step 215 of the gripping,
-une phase de manipulation 220,-a manipulation phase 220,
-une phase d’arrêt de la manipulation 230.-a phase of stopping the manipulation 230.
Comme on peut le voir sur les figures 1 et 2, l’utilisateur porte 10 aussi à ses deux mains un système de suivi des gestes 19. Ce système de suivi des gestes 19 comprend de manière préférentielle une paire de gants de suivi 20. Le gant de suivi comprend des embouts 21 reliés à une unité 22 fixée sur le revers de la main. Les embouts 21 de manière préférentielle sont au moins au nombre de deux et ils sont adaptés pour loger les extrémités de doigts de la main de l’utilisateur ; selon le mode de réalisation présenté, les doigts comprennent au moins le pouce. Ainsi l’utilisateur 10 peut esquisser un mouvement de pincement 23 des doigts qui pourra être détecté par le système de détection 12s de la salle immersive 11 ; le pincement 23 de doigts consiste en un rapprochement des doigts jusqu’au contact des extrémités libres desdits doigts, ici le pouce et un autre doigt portant chacun un embout 21 de suivi.As can be seen in FIGS. 1 and 2, the user also carries with his two hands a gesture tracking system 19. This gesture tracking system 19 preferably comprises a pair of tracking gloves 20. The tracking glove comprises end caps 21 connected to a unit 22 fixed on the back of the hand. The end pieces 21 preferably are at least two in number and they are adapted to accommodate the ends of the fingers of the user's hand; according to the embodiment presented, the fingers include at least the thumb. Thus the user 10 can sketch a pinching movement 23 of the fingers which can be detected by the detection system 12s of the immersive room 11; pinching fingers 23 consists of bringing the fingers together until they contact the free ends of said fingers, here the thumb and another finger each carrying a follow-up end piece 21.
Comme illustré par les figures 3 et 4, le procédé de manipulation d’objet virtuel selon l’invention comprend une phase de préhension 210 de l’objet virtuel. Ladite phase de préhension comporte la détection de plusieurs gestualités différentes de la part de l’utilisateur.As illustrated in FIGS. 3 and 4, the method for manipulating a virtual object according to the invention comprises a gripping phase 210 of the virtual object. Said gripping phase involves the detection of several different gestures on the part of the user.
Ladite phase de préhension comporte en particulier une étape de validation 215 de la préhension de l’objet virtuel 18.Said gripping phase comprises in particular a step 215 of validation of the gripping of the virtual object 18.
Selon un mode de réalisation, cette étape de validation 215 comprend un critère qui est le rapprochement des mains 30 de l’utilisateur 10 vers un contact avec l’objet virtuel 18, lesdites mains 30 jouxtant alors l’objet virtuel 18. On entend par jouxter le fait que les mains viennent à proximité de l’objet virtuel jusqu’à un contact éventuel. Les positions spatiales obtenues par détection des mains sont comparées aux positions spatiales connues de l’objet virtuel 18, aussi on peut calculer facilement des distances de contacts entre les mains et l’objet virtuel. Lesdites distances doivent être inférieures à un seuil de distance pour confirmer la volonté de préhension de l’objet virtuel 18 par l’utilisateur 10. Le seuil de distance peut être de l’ordre de 1 à 3 m.According to one embodiment, this validation step 215 comprises a criterion which is the bringing together of the hands 30 of the user 10 towards a contact with the virtual object 18, said hands 30 then adjoining the virtual object 18. By adjoin the fact that the hands come close to the virtual object until a possible contact. The spatial positions obtained by hand detection are compared with the known spatial positions of the virtual object 18, so contact distances between the hands and the virtual object can be easily calculated. Said distances must be less than a distance threshold to confirm the user's desire for the virtual object 18 to be grasped 10. The distance threshold can be of the order of 1 to 3 m.
L’étape de validation 215 de la préhension comprend un autre critère qui est la détection du pincement des doigts de la main et plus précisément des deux mains. Ensuite, l’utilisateur 10 peut manipuler l’objet virtuel 18. En effet, la manipulation de l’objet virtuel 18 nécessite au moins deux points de préhension pour autoriser ensuite différents mouvements possibles de l’objet. Selon les figures 3 et 4, l’utilisateur a ainsi tendu les bras jusqu’au contact des mains avec l’objet virtuel et pincé les doigts de ses deux mains. La validation de la préhension de l’objet virtuel est effective. L’utilisateur peut alors manipuler ledit objet virtuel 18. Selon la figure 4, l’utilisateur 10 soulève ses mains tout en gardant ses doigts 30 pincés. L’objet virtuel 18 est alors déplacé selon un mouvement depuis le plancher vers le plafond de la salle immersive. L’utilisateur peut manipuler l’objet virtuel avec les mouvements de ses mains tout en gardant ses doigts 30 en position de pincement 23.The validation step 215 of the gripping includes another criterion which is the detection of the pinching of the fingers of the hand and more precisely of the two hands. Then, the user 10 can manipulate the virtual object 18. In fact, the manipulation of the virtual object 18 requires at least two gripping points to then allow different possible movements of the object. According to FIGS. 3 and 4, the user has thus extended his arms until the hands come into contact with the virtual object and pinched the fingers of his two hands. The validation of the grip of the virtual object is effective. The user can then manipulate said virtual object 18. According to FIG. 4, the user 10 raises his hands while keeping his fingers 30 pinched. The virtual object 18 is then moved in a movement from the floor to the ceiling of the immersive room. The user can manipulate the virtual object with the movements of his hands while keeping his fingers 30 in the pinch position 23.
En effet, la phase de manipulation 220 est arrêtée à la détection du défaut d’un critère de l’étape de validation 215 de la phase de préhension 210. Dans le mode de réalisation présenté, la manipulation est arrêtée à la détection du non pincement ou du desserrage des doigts d’au-moins une main. Dans la phase d’arrêt de manipulation 230, l’objet virtuel reste immobile dans la dernière position spatiale précédant l’arrêt. L’utilisateur peut alors vérifier ou valider en visualisation certains aspects de l’objet virtuel 18 hors d’atteinte quand ledit objet est dans sa position normale ou initiale sur le plancher de la salle immersive. Par exemple, il pourra examiner visuellement le dessous du véhicule.Indeed, the manipulation phase 220 is stopped on detection of the defect of a criterion of the validation step 215 of the gripping phase 210. In the embodiment presented, the manipulation is stopped on detection of non-pinching or loosening the fingers of at least one hand. In the manipulation stop phase 230, the virtual object remains stationary in the last spatial position preceding the stop. The user can then check or validate by viewing certain aspects of the virtual object 18 out of reach when said object is in its normal or initial position on the floor of the immersive room. For example, he can visually examine the underside of the vehicle.
Lors de la phase de préhension, l’utilisateur peut effectuer différentes gestualités qui sont reconnues et associées à des modifications de l’objet virtuel.During the gripping phase, the user can perform various gestures which are recognized and associated with modifications to the virtual object.
Parmi les gestualités reconnues, l’agrandissement de l’objet virtuel ou son rétrécissement peut être obtenu respectivement en écartant ou en rapprochant les mains 30 depuis l’écart initial des mains. On entend par écart initial des mains l’écart calculé entre les mains suite à la détection des critères de l’étape de validation 215 de la phase de préhension 210, c’est-à-dire les mains 30 de l’utilisateur jouxtant l’objet virtuel 18 et un pincement des doigts de chacune des mains. De cette façon simple, l’utilisateur peut percevoir tous les détails désirés les différents aspects de l’objet virtuel.Among the recognized gestures, the enlargement of the virtual object or its shrinking can be obtained respectively by spreading or bringing the hands 30 together from the initial separation of the hands. The term “initial hand gap” is understood to mean the difference calculated between the hands following the detection of the criteria of the validation step 215 of the gripping phase 210, that is to say the hands 30 of the user adjoining the virtual object 18 and a pinching of the fingers of each of the hands. In this simple way, the user can perceive all the desired details of the different aspects of the virtual object.
L’utilisateur peut faire mouvoir l’objet virtuel de différentes façons. Par exemple, il peut incliner l’objet virtuel en effectuant une inclinaison de l’axe reliant se deux mains. Selon un autre exemple, il peut faire tourner l’objet virtuel autour d’un axe en déplaçant une main 30 autour de l’autre. De manière générale, les mouvements de l’objet virtuel manipulé suivent les mouvements relatifs des deux mains de l’utilisateur, étant entendu que cet utilisateur ne relâche pas dans la séquence de mouvements le pincement des doigts dans chacune des mains. Lesdits mouvements relatifs tels que décrits précédemment sont dans un ensemble de gestualités symboliques reconnues par le procédé de manipulation, chaque gestualité symbolique est alors associé à un mouvement particulier de l’objet virtuel. Il est à noter que toutes les gestualités symboliques sont intuitives et ne demandent pas d’effort d’apprentissage.The user can move the virtual object in different ways. For example, he can tilt the virtual object by tilting the axis connecting two hands. In another example, it can rotate the virtual object around an axis by moving one hand 30 around the other. In general, the movements of the manipulated virtual object follow the relative movements of the two hands of the user, it being understood that this user does not release the pinching of the fingers in each hand in the sequence of movements. Said relative movements as described above are in a set of symbolic gestures recognized by the manipulation process, each symbolic gesture is then associated with a particular movement of the virtual object. It should be noted that all symbolic gestures are intuitive and do not require any learning effort.
Selon l’invention, le procédé de manipulation autorise également l’inscription de notes sur l’objet virtuel 18 manipulé. Le déplacement des doigts enfoncés dans les embouts du système de suivi des gestes est suivi par le système de détection 12s de la salle immersive laissant à l’utilisateur la possibilité d’inscrire des annotations ou des marquages de zones de l’objet virtuel. Ces annotations ou marquages sont conservés et associés à la séance d’examen de l’objet virtuel.According to the invention, the manipulation method also authorizes the recording of notes on the virtual object 18 manipulated. The movement of the fingers inserted into the tips of the gesture tracking system is monitored by the 12s detection system in the immersive room, leaving the user the possibility of writing annotations or markings of areas of the virtual object. These annotations or markings are kept and associated with the examination session of the virtual object.
Selon l’invention, le procédé de manipulation autorise également pendant la séance d’examen des mesures de dimensions particulières de l’objet virtuel. En effet, le procédé comporte des outils de mesures de distance. L’utilisateur peut ainsi pointer les deux extrémités d’un segment pour obtenir la longueur dudit segment. La valeur mesurée peut être ensuite affichée comme une annotation 3D avec l’objet virtuel.According to the invention, the manipulation method also authorizes, during the examination session, measurements of particular dimensions of the virtual object. Indeed, the method includes distance measurement tools. The user can thus point the two ends of a segment to obtain the length of said segment. The measured value can then be displayed as a 3D annotation with the virtual object.
L’objectif est atteint : le procédé de manipulation permet de manipuler aisément un objet virtuel avec une gestualité très intuitive. La manipulation dudit objet virtuel permet une perception détaillée de l’objet virtuel et des fonctionnalités intéressantes et nécessaires lors d’une séance d’examen d’un objet virtuel.The objective has been achieved: the manipulation process makes it easy to manipulate a virtual object with very intuitive gestures. The manipulation of said virtual object allows a detailed perception of the virtual object and of the interesting and necessary functionalities during a session of examination of a virtual object.
Comme il va de soi, l'invention ne se limite pas aux seules formes d'exécution de cette prise, décrites ci-dessus à titre d'exemples, elle en embrasse au contraire toutes les variantes.As it goes without saying, the invention is not limited to the sole embodiments of this socket, described above by way of examples, on the contrary it embraces all variants.
Par exemple, l’étape de validation 215 peut prendre en compte les positions relatives de la vision de l’utilisateur avec ses deux mains pour confirmer la volonté de préhension de l’objet virtuel par l’utilisateur.For example, the validation step 215 can take into account the relative positions of the user's vision with both hands to confirm the user's desire for the virtual object to be grasped.
Par exemple aussi, la position des mains par rapport à l’objet virtuel peut être sans importance pour autoriser d’autres déplacements de l’objet virtuel.For example, too, the position of the hands in relation to the virtual object may be irrelevant to allow other movements of the virtual object.
Claims (12)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1757462A FR3074325B1 (en) | 2017-11-28 | 2017-11-28 | HANDLING VIRTUAL OBJECTS IN AN IMMERSIVE ENVIRONMENT |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR1757462 | 2017-11-28 | ||
| FR1757462A FR3074325B1 (en) | 2017-11-28 | 2017-11-28 | HANDLING VIRTUAL OBJECTS IN AN IMMERSIVE ENVIRONMENT |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| FR3074325A1 true FR3074325A1 (en) | 2019-05-31 |
| FR3074325B1 FR3074325B1 (en) | 2021-11-26 |
Family
ID=62143231
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR1757462A Active FR3074325B1 (en) | 2017-11-28 | 2017-11-28 | HANDLING VIRTUAL OBJECTS IN AN IMMERSIVE ENVIRONMENT |
Country Status (1)
| Country | Link |
|---|---|
| FR (1) | FR3074325B1 (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2879097A1 (en) * | 2012-07-27 | 2015-06-03 | NEC Solution Innovators, Ltd. | Three-dimensional user-interface device, and three-dimensional operation method |
| WO2016134299A1 (en) * | 2015-02-20 | 2016-08-25 | Sony Computer Entertainment Inc. | Magnetic tracking of glove fingertips with peripheral devices |
| US20170329488A1 (en) * | 2016-05-10 | 2017-11-16 | Google Inc. | Two-handed object manipulations in virtual reality |
-
2017
- 2017-11-28 FR FR1757462A patent/FR3074325B1/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2879097A1 (en) * | 2012-07-27 | 2015-06-03 | NEC Solution Innovators, Ltd. | Three-dimensional user-interface device, and three-dimensional operation method |
| WO2016134299A1 (en) * | 2015-02-20 | 2016-08-25 | Sony Computer Entertainment Inc. | Magnetic tracking of glove fingertips with peripheral devices |
| US20170329488A1 (en) * | 2016-05-10 | 2017-11-16 | Google Inc. | Two-handed object manipulations in virtual reality |
Non-Patent Citations (1)
| Title |
|---|
| KEYTREEUK: "Smart Vision - Interactive Augmented Reality, Hand Tracking using Kinects SAP HANA, NetWeaver Cloud", YOUTUBE, 25 November 2012 (2012-11-25), pages 1 - 9, XP054976363, Retrieved from the Internet <URL:https://www.youtube.com/watch?v=8FggsGUK5iA> [retrieved on 20160209] * |
Also Published As
| Publication number | Publication date |
|---|---|
| FR3074325B1 (en) | 2021-11-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20210373672A1 (en) | Hand gesture-based emojis | |
| WO2016124752A2 (en) | Method and device to assist with the operation of an instrument | |
| EP2715662B1 (en) | Method for localisation of a camera and 3d reconstruction in a partially known environment | |
| EP2542390B1 (en) | Method and system for assisting in the handling of robotized machines in a congested environment | |
| EP2754012A1 (en) | Method of controlling a cursor by measurements of the attitude of a pointer and pointer implementing said method | |
| EP2478513B1 (en) | Method for simulating specific movements by haptic feedback, and device implementing the method | |
| EP2243128A1 (en) | Device for teaching a manual technique to an operator | |
| JP2004230166A5 (en) | ||
| US10339700B2 (en) | Manipulating virtual objects on hinged multi-screen device | |
| FR3041804A1 (en) | VIRTUAL THREE-DIMENSIONAL SIMULATION SYSTEM FOR GENERATING A VIRTUAL ENVIRONMENT COMPRISING A PLURALITY OF USERS AND ASSOCIATED METHOD | |
| FR2994401A1 (en) | METHOD AND SYSTEM FOR ASSISTING THE STEERING OF A ROBOT WITH FUNCTION DETECTION OF INTENTION OF AN OPERATOR | |
| FR3074325A1 (en) | HANDLING VIRTUAL OBJECTS IN AN IMMERSIVE ENVIRONMENT | |
| EP2994813B1 (en) | Method for controlling a graphical interface for displaying images of a three-dimensional object | |
| FR3023626A3 (en) | NAVIGATION DEVICE IN VIRTUAL REALITY COMPRISING A HAPTIC INTERFACE | |
| EP4054804B1 (en) | Articulation having three degrees of freedom for a robot, and corresponding control method | |
| EP2182334B1 (en) | Device for measuring and representing noise sources inside a space | |
| EP2440975A1 (en) | Method and system for generating a stereoscopic image upstage offset parameterizable in a system and method with n shooting apparatuses (n>1) | |
| FR3069936B1 (en) | TOUCH INTERACTION WITH HMIs IN AN IMMERSIVE ENVIRONMENT | |
| US20240307088A1 (en) | Systems and methods for handheld real-time surgical navigation guidance | |
| EP4077016B1 (en) | System and method for providing visual assistance to an individual suffering from motion sickness | |
| JP6671549B2 (en) | Display editing device, portable device, display editing method, and display editing program | |
| FR3048541B1 (en) | VIRTUAL CHANGE OF A PERSON'S TOOTH | |
| EP3289438B1 (en) | Method of controlling a calculation device via a mobile element and control system implementing this method | |
| EP1124212B1 (en) | Visual presentation method and device of a virtual 3-D space simulating a car | |
| EP2730985A1 (en) | System and method for automatically checking the conformity of the manufacture of elements in a structure of an aircraft |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| EXTE | Extension to a french territory |
Extension state: PF |
|
| PLSC | Publication of the preliminary search report |
Effective date: 20190531 |
|
| PLFP | Fee payment |
Year of fee payment: 3 |
|
| PLFP | Fee payment |
Year of fee payment: 4 |
|
| PLFP | Fee payment |
Year of fee payment: 5 |
|
| PLFP | Fee payment |
Year of fee payment: 6 |
|
| PLFP | Fee payment |
Year of fee payment: 7 |
|
| PLFP | Fee payment |
Year of fee payment: 8 |
|
| PLFP | Fee payment |
Year of fee payment: 9 |