FR3160785A1 - EXTENDED REALITY SYSTEM - Google Patents
EXTENDED REALITY SYSTEMInfo
- Publication number
- FR3160785A1 FR3160785A1 FR2403254A FR2403254A FR3160785A1 FR 3160785 A1 FR3160785 A1 FR 3160785A1 FR 2403254 A FR2403254 A FR 2403254A FR 2403254 A FR2403254 A FR 2403254A FR 3160785 A1 FR3160785 A1 FR 3160785A1
- Authority
- FR
- France
- Prior art keywords
- haptic
- extended reality
- user
- haptic interface
- interface device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
L’invention concerne un système de réalité étendue comportant un dispositif d’interface haptique embarqué (3) adapté pour être intégré dans un article d’habillement destiné à être porté par un utilisateur, le dispositif d’interface haptique (3) comprenant un ensemble de transducteurs ultrasonores (13) commandables par un module de contrôle (5) pour générer un espace d’interaction haptique dans au moins une partie de l’environnement de l’utilisateur portant ledit dispositif d’interface haptique embarqué. Figure pour l’abrégé : Figure 1A. The invention relates to an extended reality system comprising an onboard haptic interface device (3) adapted to be integrated into an item of clothing intended to be worn by a user, the haptic interface device (3) comprising a set of ultrasonic transducers (13) controllable by a control module (5) to generate a haptic interaction space in at least a portion of the environment of the user wearing said onboard haptic interface device. Figure 1A for abstract.
Description
La présente invention concerne le domaine de la réalité étendue et plus particulièrement, celui des dispositifs haptiques qui peuvent lui être associés.The present invention relates to the field of extended reality and more particularly, that of the haptic devices which can be associated with it.
Un système de réalité étendue est une interface d’interaction en temps réel entre le monde réel et des effets physiques créés artificiellement permettant d’augmenter notre perception ou action sur notre environnement. Les effets physiques peuvent être des signaux visuels pour créer des images, des signaux sonores, ou des impulsions ultrasonores pour créer des sensations haptiques.An extended reality system is a real-time interaction interface between the real world and artificially created physical effects that augment our perception of or action on our environment. Physical effects can be visual cues to create images, audio signals, or ultrasonic pulses to create haptic sensations.
On connaît dans l’art antérieur des systèmes haptiques permettant de créer, pour un utilisateur, une sensation de toucher dans un espace fixe prédéfini tel à l’intérieur d’un gant. Un tel système comporte un ensemble de transducteurs ultrasonores commandables pour générer des impulsions ultrasonores. Un circuit de contrôle commande les transducteurs en émission avec des déphasages entre les différents transducteurs de manière à focaliser les ondes émises en un point de focalisation donné de l’espace prédéfini. Ceci permet de générer, au voisinage du point de focalisation, une pression suffisamment forte pour être ressentie par l’utilisateur. Différents points de focalisation peuvent être successivement balayés à une vitesse relativement élevée de façon à générer dans l’espace prédéfini une distribution de pressions perceptibles par l’utilisateur.Haptic systems are known in the prior art for creating, for a user, a sensation of touch in a predefined fixed space such as inside a glove. Such a system comprises a set of controllable ultrasonic transducers to generate ultrasonic pulses. A control circuit controls the transmission of the transducers with phase shifts between the different transducers so as to focus the emitted waves at a given focal point in the predefined space. This makes it possible to generate, in the vicinity of the focal point, a pressure strong enough to be felt by the user. Different focal points can be successively scanned at a relatively high speed so as to generate in the predefined space a distribution of pressures perceptible by the user.
Toutefois, il faut définir au préalable une zone fixe correspondant à l’ensemble des points de focalisation accessibles par les transducteurs pour que l’utilisateur puisse bénéficier des sensations haptiques.However, it is necessary to first define a fixed zone corresponding to all the focal points accessible by the transducers so that the user can benefit from the haptic sensations.
L’objet de la présente invention est de proposer un système de réalité étendue comportant une interface haptique remédiant aux inconvénients précités, en particulier en ne limitant pas les sensations haptiques dans un espace délimité tout en augmentant les simulations haptiques ressenties par l’utilisateur.The object of the present invention is to propose an extended reality system comprising a haptic interface remedying the aforementioned drawbacks, in particular by not limiting the haptic sensations in a delimited space while increasing the haptic simulations felt by the user.
Cet objectif est atteint avec un système de réalité étendue comportant un dispositif d’interface haptique embarqué adapté pour être intégré dans un article d’habillement destiné à être porté par un utilisateur, le dispositif d’interface haptique comprenant un ensemble de transducteurs ultrasonores commandables par un module de contrôle pour générer dans l’air un espace d’interaction haptique dans au moins une partie de l’environnement de l’utilisateur portant ledit dispositif d’interface haptique embarqué.This objective is achieved with an extended reality system comprising an on-board haptic interface device adapted to be integrated into an item of clothing intended to be worn by a user, the haptic interface device comprising a set of ultrasonic transducers controllable by a control module to generate in the air a haptic interaction space in at least part of the environment of the user wearing said on-board haptic interface device.
Ce système permet de créer un espace de configuration haptique quel que soit le lieu d’utilisation. Le système permet aussi d’avoir une grande surface d’émission acoustique émanant de l’utilisateur portant le dispositif haptique.This system allows for the creation of a haptic configuration space regardless of the location of use. The system also allows for a large acoustic emission surface emanating from the user wearing the haptic device.
Selon un mode de réalisation, le système comporte un dispositif de réalité étendue comprenant un module d’affichage configuré pour afficher une image représentative d’un objet optique virtuel, et en ce que le dispositif d’interface haptique embarqué est configuré pour être connectable (par exemple sans fil) audit dispositif de réalité entendue.According to one embodiment, the system comprises an extended reality device comprising a display module configured to display an image representative of a virtual optical object, and in that the on-board haptic interface device is configured to be connectable (for example wirelessly) to said extended reality device.
Avantageusement, le dispositif de réalité étendue est un dispositif portatif destiné à être porté sur la tête de l’utilisateur, le module d’affichage du dispositif portatif de réalité étendue comprenant au moins un écran d’affichage destiné à être disposé devant au moins un œil de l’utilisateur, l’écran d’affichage étant commandable par le module de contrôle.Advantageously, the extended reality device is a portable device intended to be worn on the user's head, the display module of the portable extended reality device comprising at least one display screen intended to be placed in front of at least one eye of the user, the display screen being controllable by the control module.
L’utilisation de l’interface haptique en association avec le port de dispositif portatif de réalité étendue permet de combiner la sensation haptique avec la vision optique permettant à l’utilisateur une plus grande immersion dans son expérience de réalité étendue, virtuelle, augmentée ou mixte. En outre, la vision et la sensation de touché sont permises quel que soit le lieu d’utilisation du système.The use of the haptic interface in association with the wearing of a portable extended reality device makes it possible to combine haptic sensation with optical vision, allowing the user greater immersion in their extended, virtual, augmented or mixed reality experience. In addition, vision and touch sensation are allowed regardless of the location of use of the system.
Selon une particularité de réalisation, le module de contrôle est intégré dans l’interface haptique embarquée et/ou dans le dispositif de réalité étendue.According to a particular embodiment, the control module is integrated into the on-board haptic interface and/or into the extended reality device.
Selon une variante, le module de contrôle est compris dans un dispositif déporté configuré pour commander à distance les transducteurs ultrasonores et/ou le module d’affichage via des signaux de contrôle.According to one variant, the control module is included in a remote device configured to remotely control the ultrasonic transducers and/or the display module. via control signals.
Le dispositif déporté peut être un téléphone portable comportant une application de contrôle haptique et/ou de contrôle d’affichage.The remote device may be a mobile phone with a haptic control and/or display control application.
Avantageusement, le dispositif de réalité étendue comporte un module de détection adapté pour détecter au moins une main de l’utilisateur.Advantageously, the extended reality device comprises a detection module adapted to detect at least one hand of the user.
Avantageusement, le module de contrôle est configuré pour lire les données de sortie du module de détection et modifier en conséquence la commande du module d’affichage et des transducteurs ultrasonores.Advantageously, the control module is configured to read the output data of the detection module and modify the control of the display module and the ultrasonic transducers accordingly.
Avantageusement, les transducteurs ultrasonores sont arrangés en un ensemble de matrices ou sous-matrices haptiques, le module de contrôle étant configuré pour commander l’émission d’impulsions ultrasonores des sous-matrices haptiques avec des déphasages entre les différentes sous-matrices haptiques de façon à focaliser les ondes émises en un point donné de l’espace haptique.Advantageously, the ultrasonic transducers are arranged in a set of haptic matrices or sub-matrices, the control module being configured to control the emission of ultrasonic pulses from the haptic sub-matrices with phase shifts between the different haptic sub-matrices so as to focus the emitted waves at a given point in the haptic space.
Selon un mode de réalisation, les transducteurs ultrasonores sont des transducteurs piézoélectriques de type PMUT arrangés en un ensemble de matrices haptiques. Chaque transducteur ultrasonore PMUT comprend une membrane flexible suspendue sur un support rigide et un élément de conversion piézoélectrique fixé sur la membrane flexible.According to one embodiment, the ultrasonic transducers are PMUT-type piezoelectric transducers arranged in a set of haptic matrices. Each PMUT ultrasonic transducer comprises a flexible membrane suspended on a rigid support and a piezoelectric conversion element fixed on the flexible membrane.
Avantageusement, un ensemble de dispositifs d'interfaces haptiques est adapté pour être porté par un ensemble correspondant d'utilisateurs, générant ainsi au moins un espace d'interaction haptique dans l'environnement dudit ensemble d'utilisateurs.Advantageously, a set of haptic interface devices is adapted to be worn by a corresponding set of users, thus generating at least one haptic interaction space in the environment of said set of users.
Ainsi, les utilisateurs peuvent interagir les uns avec les autres, avec leur environnement, ou avec des objets optiques virtuels.This allows users to interact with each other, with their environment, or with virtual optical objects.
La présente invention sera mieux comprise à la lecture de la description d’exemples de réalisation donnés à titre purement indicatif et nullement limitatif, en faisant référence aux dessins annexés sur lesquels :The present invention will be better understood by reading the description of exemplary embodiments given purely for informational purposes and in no way limiting, with reference to the appended drawings in which:
Les
La
La
La
La
La
La
EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERSDETAILED DESCRIPTION OF SPECIFIC EMBODIMENTS
Le concept à la base de l’invention est de proposer un dispositif d’interface haptique embarqué sur l’utilisateur de sorte que la source acoustique émane de l’utilisateur lui-même.The concept behind the invention is to propose a haptic interface device embedded on the user so that the acoustic source emanates from the user himself.
Les Figs. 1A et 1B illustrent de manière très schématique un système de réalité étendue comportant un dispositif d’interface haptique embarqué, selon un mode de réalisation de l’invention.Figs. 1A and 1B very schematically illustrate an extended reality system comprising an on-board haptic interface device, according to one embodiment of the invention.
Le système de réalité étendue 1 comporte un dispositif d’interface haptique embarqué 3, un module ou circuit de contrôle 5, et une source d’alimentation 7.The extended reality system 1 comprises an on-board haptic interface device 3, a control module or circuit 5, and a power source 7.
Le dispositif d’interface haptique embarqué 3 est adapté pour être intégré dans un article d’habillement 9 (voir
Selon un aspect d’un mode de réalisation, les transducteurs ultrasonores 13 sont arrangés en un ensemble de matrices ou sous-matrices haptiques 15 disposées sur un support 17 en tissus ou en toute autre matière adaptée pour être intégrés dans un article d’habillement 9 pouvant être porté par l’utilisateur 11.According to one aspect of an embodiment, the ultrasonic transducers 13 are arranged in a set of haptic matrices or sub-matrices 15 arranged on a support 17 made of fabric or any other material suitable for being integrated into an article of clothing 9 which can be worn by the user 11.
Les transducteurs ultrasonores 13 sont commandables par le module de contrôle 5 pour générer dans l’air des impulsions ultrasonores formant un espace d’interaction haptique 19 dans au moins une partie de l’environnement de l’utilisateur 11 portant le dispositif d’interface haptique embarqué 3. La fréquence d’impulsions ultrasonores peut être comprise entre 20 kHz et 10 THz, de préférence comprises entre 20kHz et 100 MHz.The ultrasonic transducers 13 are controllable by the control module 5 to generate ultrasonic pulses in the air forming a haptic interaction space 19 in at least part of the environment of the user 11 wearing the on-board haptic interface device 3. The frequency of the ultrasonic pulses may be between 20 kHz and 10 THz, preferably between 20 kHz and 100 MHz.
L’espace d’interaction haptique 19 forme ainsi une variété tridimensionnelle (au sens géométrique du terme) à laquelle sont associées des pressions directionnelles à effet haptique émanant de l’utilisateur 11 portant le dispositif d’interface haptique embarqué 3.The haptic interaction space 19 thus forms a three-dimensional variety (in the geometric sense of the term) with which are associated directional pressures with a haptic effect emanating from the user 11 wearing the on-board haptic interface device 3.
Le module de contrôle 5 est un circuit électronique qui peut être intégré dans le dispositif d’interface haptique 3. En variante, le module de contrôle 5 peut être une application logicielle (ou également un circuit) comprise dans un dispositif extérieur en lien ou en communication avec le dispositif d’interface haptique 3.The control module 5 is an electronic circuit which can be integrated into the haptic interface device 3. Alternatively, the control module 5 can be a software application (or also a circuit) included in an external device linked or in communication with the haptic interface device 3.
Selon un aspect d’un mode de réalisation, les transducteurs ultrasonores 13 sont des transducteurs piézoélectriques ultrasonore micro-usiné, dit PMUT (Piezoelectric Micromachined Ultrasonic Transducers). Les transducteurs PMUT peuvent être en céramique ou en silicium. D’autres types de transducteurs peuvent être utilisés.According to one aspect of an embodiment, the ultrasonic transducers 13 are micromachined piezoelectric ultrasonic transducers, called PMUTs (Piezoelectric Micromachined Ultrasonic Transducers). The PMUT transducers may be made of ceramic or silicon. Other types of transducers may be used.
La
Cet exemple concerne un transducteur PMUT 13 comprenant une membrane flexible 23 suspendue par sa périphérie sur un support rigide 25. Le support rigide 25 est par exemple en silicium ou en céramique. La membrane 23 est fixée, par sa face inférieure, sur la face supérieure du support 25. La membrane 23 peut avoir une forme circulaire, rectangulaire, ou carrée.This example concerns a PMUT transducer 13 comprising a flexible membrane 23 suspended by its periphery on a rigid support 25. The rigid support 25 is for example made of silicon or ceramic. The membrane 23 is fixed, by its lower face, on the upper face of the support 25. The membrane 23 can have a circular, rectangular, or square shape.
Le transducteur PMUT 13 comprend en outre un élément de conversion piézoélectrique 27 fixé sur la membrane, du côté de sa face supérieure. L’élément de conversion piézoélectrique comprend deux électrodes 27a, 27b.The PMUT transducer 13 further comprises a piezoelectric conversion element 27 fixed to the membrane, on its upper face side. The piezoelectric conversion element comprises two electrodes 27a, 27b.
L’application d’une tension entre les électrodes 27a, 27b de l’élément de conversion piézoélectrique 27 provoque une déformation de la membrane 23 permettant de générer une onde acoustique ultrasonore. A l’inverse, une déformation de la membrane 23 génère une tension qui peut être utilisée pour mesurer une onde acoustique ultrasonore reçue par le transducteur 13. Ce genre de transducteurs est décrit en détail dans la demande de brevet FR3092680 de la demanderesse.The application of a voltage between the electrodes 27a, 27b of the piezoelectric conversion element 27 causes a deformation of the membrane 23 making it possible to generate an ultrasonic acoustic wave. Conversely, a deformation of the membrane 23 generates a voltage which can be used to measure an ultrasonic acoustic wave received by the transducer 13. This type of transducer is described in detail in the applicant's patent application FR3092680.
Un transducteur PMUT 13 peut fonctionner selon différentes fréquences ultrasonores en fonction de sa taille ou de la technologie utilisée (silicium, céramique ou autre). A titre d’exemple non limitatif, on considère ici le cas d’un transducteur PMUT 13 de type silicium, fonctionnant à 100kHz.A PMUT 13 transducer can operate at different ultrasonic frequencies depending on its size or the technology used (silicon, ceramic or other). As a non-limiting example, we consider here the case of a PMUT 13 transducer of the silicon type, operating at 100kHz.
En effet, la
Plus particulièrement, cette courbe est issue des mesures réalisées pour un transducteur PMUT 13 unitaire à 100kHz fonctionnant sous une tension de pilotage de 5V. Par exemple, la courbe montre que le transducteur PMUT 13 génère une pression acoustique de l’ordre de 0.15 Pa à une distance de 30 cm.More specifically, this curve is derived from measurements taken for a single PMUT 13 transducer at 100kHz operating under a driving voltage of 5V. For example, the curve shows that the PMUT 13 transducer generates an acoustic pressure of the order of 0.15 Pa at a distance of 30 cm.
On notera que la pression acoustique augmente quasi-linéairement avec l’augmentation de la tension. Ainsi, pour une tension de pilotage de 48 V, le transducteur PMUT 13 génère une pression acoustique de l’ordre de 1.45 Pa à une distance de 30 cm.It should be noted that the acoustic pressure increases almost linearly with increasing voltage. Thus, for a control voltage of 48 V, the PMUT 13 transducer generates an acoustic pressure of around 1.45 Pa at a distance of 30 cm.
En général, le seuil pour ressentir un effet haptique est autour de 200 Pa. Ainsi, pour obtenir un effet haptique à 30 cm, on peut utiliser environ 140 transducteurs PMUT sachant que les pressions s’ajoutent quasi-linéairement.In general, the threshold for feeling a haptic effect is around 200 Pa. Thus, to obtain a haptic effect at 30 cm, we can use around 140 PMUT transducers knowing that the pressures add up almost linearly.
A titre indicatif, le diamètre d’un transducteur PMUT circulaire est de l’ordre de 800 µm pour un transducteur de type silicium et est de l’ordre de 5 mm pour un transducteur de type céramique. On notera que le diamètre dépend de la raideur de la membrane 23, liée à son épaisseur et ses matériaux constitutifs. Les diamètres considérés ci-dessus sont indicatifs et pris en guise d’exemple dans le dimensionnement d’une matrice haptique 15.As an indication, the diameter of a circular PMUT transducer is of the order of 800 µm for a silicon type transducer and is of the order of 5 mm for a ceramic type transducer. It should be noted that the diameter depends on the stiffness of the membrane 23, linked to its thickness and its constituent materials. The diameters considered above are indicative and taken as an example in the dimensioning of a haptic matrix 15.
Ainsi, en utilisant des transducteurs PMUT de type silicium et pour un écart de l’ordre de 300 µm entre les membranes 23 des transducteurs 13 voisins, il résulte une matrice haptique 15 de l’ordre de 1.5 x 1.5 cm2ayant un effet haptique (i.e. 200 Pa) à une distance de 30 cm. On notera que l’écart de 300 µm entre membranes est un écart indicatif qui est suffisant pour permettre une solidité de la matrice tout en gardant les membranes proches les unes des autres.Thus, using silicon type PMUT transducers and for a gap of the order of 300 µm between the membranes 23 of the neighboring transducers 13, a haptic matrix 15 of the order of 1.5 x 1.5 cm 2 results, having a haptic effect (i.e. 200 Pa) at a distance of 30 cm. It will be noted that the gap of 300 µm between membranes is an indicative gap which is sufficient to allow solidity of the matrix while keeping the membranes close to each other.
Les dimensions des matrices ou sous-matrices haptiques 15 peuvent être déterminées selon les fréquences d’émission des transducteurs PMUT, de la technologie utilisée (silicium ou céramique), de la tension de pilotage de ceux-ci, et des spécificités d’applications.The dimensions of the haptic matrices or sub-matrices 15 can be determined according to the emission frequencies of the PMUT transducers, the technology used (silicon or ceramic), the driving voltage thereof, and the specificities of the applications.
Le tableau ci-dessous indique le dimensionnement de quelques configurations. La première colonne indique la technologie utilisée (silicium ou céramique), la deuxième colonne indique la surface de la matrice haptique, la troisième colonne indique la tension de pilotage, la quatrième colonne indique la distance de l’effet haptique (P=200 Pa), les cinquième et sixième colonnes indiquent les pressions ressenties à 30 cm et 50 cm respectivement, la septième colonne indique le nombre de transducteurs formant la matrice haptique, et la huitième colonne indique le diamètre de chaque transducteur.
The table below shows the sizing of some configurations. The first column indicates the technology used (silicon or ceramic), the second column indicates the surface area of the haptic matrix, the third column indicates the driving voltage, the fourth column indicates the distance of the haptic effect (P=200 Pa), the fifth and sixth columns indicate the pressures felt at 30 cm and 50 cm respectively, the seventh column indicates the number of transducers forming the haptic matrix, and the eighth column indicates the diameter of each transducer.
Ainsi, selon l’application souhaité, on peut avoir une matrice haptique 15 de faible dimension, légère, et de faible tension de pilotage. En outre, le dispositif d’interface haptique 3 peut être dimensionné pour émettre une sensation haptique de quelques centimètres à plusieurs mètres en fonction de la tension de pilotage et de la surface des matrices haptiques utilisées.Thus, depending on the desired application, a haptic matrix 15 of small size, light weight, and low driving voltage can be provided. In addition, the haptic interface device 3 can be sized to emit a haptic sensation from a few centimeters to several meters depending on the driving voltage and the surface area of the haptic matrices used.
La
Le module de contrôle 5 est configuré pour commander les matrices ou sous-matrices de transducteurs 13 avec des déphasages entre les différentes sous-matrices 15 de manière à focaliser les ondes émises en un point de focalisation 21 à distance de l’utilisateur. Cette distance peut par exemple être comprise entre 5 cm et 200 cm.The control module 5 is configured to control the transducer matrices or sub-matrices 13 with phase shifts between the different sub-matrices 15 so as to focus the emitted waves at a focusing point 21 at a distance from the user. This distance can for example be between 5 cm and 200 cm.
Ceci permet de générer, au voisinage du point de focalisation 21, une pression suffisamment forte pour être ressentie par l’utilisateur et/ou par un collaborateur dans son environnement. Différents points de focalisation peuvent être successivement balayés à une vitesse relativement élevée de façon à générer de manière dynamique une distribution de pressions perceptibles dans l’espace d’interaction haptique 19. L’espace d’interaction haptique 19 peut ainsi être assimilé à un objet haptique virtuel et dynamique.This makes it possible to generate, in the vicinity of the focal point 21, a pressure strong enough to be felt by the user and/or by a collaborator in his environment. Different focal points can be successively scanned at a relatively high speed so as to dynamically generate a distribution of perceptible pressures in the haptic interaction space 19. The haptic interaction space 19 can thus be likened to a virtual and dynamic haptic object.
Par ailleurs, la source d’alimentation 7 est configurée pour fournir aux transducteurs 13 une tension de pilotage pouvant être comprise entre 5V et 50V. Avantageusement, on utilise une piste de pilotage pour chaque matrice ou sous-matrice haptique 5. Ainsi, chaque piste de pilotage regroupe une pluralité de transducteurs 13 ce qui facilite la faisabilité du dispositif d’interface haptique 3. La source d’alimentation 7 peut être intégrée dans le dispositif d’interface haptique 3 et peut éventuellement fournir une tension au module de contrôle 5 lorsque ce dernier est également intégré dans le dispositif d’interface haptique 3.Furthermore, the power source 7 is configured to provide the transducers 13 with a driving voltage that can be between 5V and 50V. Advantageously, a driving track is used for each haptic matrix or sub-matrix 5. Thus, each driving track groups together a plurality of transducers 13, which facilitates the feasibility of the haptic interface device 3. The power source 7 can be integrated into the haptic interface device 3 and can optionally provide a voltage to the control module 5 when the latter is also integrated into the haptic interface device 3.
Il est possible d’intégrer dans un vêtement 9 un dispositif d’interface haptique 3 comportant une relativement large surface de matrices ou sous-matrices haptiques 15. Ainsi, une grande surface d’émission acoustique peut émaner d’un utilisateur 11 portant un vêtement 9 dont lequel est intégré un tel dispositif d’interface haptique. Ceci induit une augmentation de la puissance acoustique émise et donc une augmentation de la sensation de touché ressentie par l’utilisateur et/ou ses collaborateurs. Ceci induit également une augmentation du volume d’une zone d’utilisation et de la taille des contours des simulations haptiques impliquant ainsi des plus grands volumes de zones d’interaction en surface et en profondeur.It is possible to integrate into a garment 9 a haptic interface device 3 comprising a relatively large surface area of haptic matrices or sub-matrices 15. Thus, a large acoustic emission surface area can emanate from a user 11 wearing a garment 9 in which such a haptic interface device is integrated. This induces an increase in the emitted acoustic power and therefore an increase in the sensation of touch felt by the user and/or his colleagues. This also induces an increase in the volume of a zone of use and the size of the contours of the haptic simulations, thus involving larger volumes of interaction zones on the surface and in depth.
Il est à noter que le système de réalité étendue 1 peut être utilisé par plusieurs utilisateurs 11, chacun étant équipé d'un dispositif d'interface haptique 3, formant ainsi collectivement un espace d'interaction haptique enrichi au sein de leur environnement commun. Lorsque plusieurs utilisateurs sont équipés de ces dispositifs d'interface haptique 3, ils bénéficient de la possibilité d'interactions dynamiques entre eux, avec leur environnement immédiat, ou encore avec des entités virtuelles telles que des objets optiques. Cette configuration multimodale favorise une expérience collaborative et immersive où l'interaction tactile, soit entre les utilisateurs, soit avec des éléments virtuels ou réels est rendue possible.It should be noted that the extended reality system 1 can be used by several users 11, each being equipped with a haptic interface device 3, thus collectively forming an enriched haptic interaction space within their common environment. When several users are equipped with these haptic interface devices 3, they benefit from the possibility of dynamic interactions between themselves, with their immediate environment, or even with virtual entities such as optical objects. This multimodal configuration promotes a collaborative and immersive experience where tactile interaction, either between users or with virtual or real elements is made possible.
Une première application du système de réalité étendue 1 peut être la génération d’une sensation unidirectionnelle de touché sans contact d’un utilisateur 11 portant un dispositif d’interface haptique embarqué 3, envers une autre personne ou utilisateur. Cette sensation de touché peut être bidirectionnelle au cas où l’autre utilisateur porte également un dispositif d’interface haptique embarqué 3.A first application of the extended reality system 1 may be the generation of a unidirectional touch sensation without contact from a user 11 wearing an on-board haptic interface device 3, towards another person or user. This touch sensation may be bidirectional in case the other user also wears an on-board haptic interface device 3.
A titre d’exemple, un membre d’une équipe médicale portant des vêtements 9 intégrant un dispositif d’interface haptique embarqué 3, peut générer une sensation de touché sur un patient sans que cela soit fait avec un contact direct. Un autre exemple est un patient alité ne pouvant pas bouger et portant un dispositif d’interface haptique embarqué 3 peut actionner à distance une fonction spécifique sur un objet qu’il ne peut pas atteindre ou toucher.For example, a member of a medical team wearing clothing 9 incorporating an onboard haptic interface device 3 can generate a sensation of touch on a patient without this being done with direct contact. Another example is a bedridden patient who cannot move and who is wearing an onboard haptic interface device 3 can remotely activate a specific function on an object that he cannot reach or touch.
La
Selon ce mode de réalisation, le système de réalité étendue 1 comporte un dispositif de réalité étendue 31, qui peut être portatif ou non-portatif, en plus du dispositif d’interface haptique embarqué 3. Le dispositif de réalité étendue 31 comporte un module d’affichage 33 configuré pour afficher une image 2D ou 3D représentative d’un objet optique virtuel.According to this embodiment, the extended reality system 1 comprises an extended reality device 31, which may be portable or non-portable, in addition to the on-board haptic interface device 3. The extended reality device 31 comprises a display module 33 configured to display a 2D or 3D image representative of a virtual optical object.
Selon ce mode de réalisation, le dispositif d’interface haptique embarqué 3 est configuré pour être connectable (par exemple sans fil) au dispositif de réalité étendue 31. Par exemple, le dispositif de réalité étendue 31 et le dispositif d’interface haptique embarqué 3 peuvent chacun comporter un module de communication 35a, 35b leur permettant de communiquer entre eux.According to this embodiment, the on-board haptic interface device 3 is configured to be connectable (for example wirelessly) to the extended reality device 31. For example, the extended reality device 31 and the on-board haptic interface device 3 may each comprise a communication module 35a, 35b allowing them to communicate with each other.
Par ailleurs, le module de contrôle 5 peut être intégré dans l’un et/ou l’autre des dispositifs de réalité étendue 33 et d’interface haptique embarqué 3.Furthermore, the control module 5 can be integrated into one and/or the other of the extended reality devices 33 and the on-board haptic interface 3.
En variante, le module de contrôle 5 peut être compris dans un dispositif déporté (non représenté) configuré pour commander à distance via des signaux de contrôle les transducteurs ultrasonores 9 du dispositif d’interface haptique embarqué 3 et/ou du dispositif de réalité étendue 31. A titre d’exemple, le dispositif déporté peut être un téléphone portable comportant des applications de contrôle haptique et d’affichage configurées pour commander le dispositif d’interface haptique embarqué 3 et le dispositif de réalité étendue 31.Alternatively, the control module 5 may be included in a remote device (not shown) configured to remotely control via control signals the ultrasonic transducers 9 of the on-board haptic interface device 3 and/or the extended reality device 31. By way of example, the remote device may be a mobile phone comprising haptic control and display applications configured to control the on-board haptic interface device 3 and the extended reality device 31.
Par ailleurs, une ou plusieurs sources d’alimentations 7a, 7b est(sont) configurée(s) pour fournir l’alimentation nécessaire au dispositif d’interface haptique embarqué 3, dispositif de réalité étendue 31, et au module de contrôle 5 (qui peut être compris dans l’un et/ou l’autre des dispositifs 3 et 31).Furthermore, one or more power sources 7a, 7b is (are) configured to provide the power required for the on-board haptic interface device 3, extended reality device 31, and the control module 5 (which may be included in one and/or the other of the devices 3 and 31).
Le dispositif de réalité étendue 31 peut en outre comprendre un module de détection 37 adapté à détecter des éléments de l'environnement. Le module de contrôle 5 est configuré pour lire les données de sortie du module de détection 37 et modifier en conséquence la commande du module d’affichage 33 et des transducteurs ultrasonores 13.The extended reality device 31 may further comprise a detection module 37 adapted to detect elements of the environment. The control module 5 is configured to read the output data of the detection module 37 and accordingly modify the control of the display module 33 and the ultrasonic transducers 13.
A titre d'exemple, le module de détection 37 est configuré pour détecter la position de la main de l'utilisateur 11 de façon à détecter d'éventuelles interactions de l'utilisateur avec des objets optiques virtuels générés par le dispositif de réalité étendue 31, et modifier en conséquence les objets optiques virtuels et/ou les effets haptiques générés.By way of example, the detection module 37 is configured to detect the position of the hand of the user 11 so as to detect possible interactions of the user with virtual optical objects generated by the extended reality device 31, and to modify accordingly the virtual optical objects and/or the haptic effects generated.
Le module de détection 37 peut comprendre une caméra, un élément de détection à émission/réception d'infrarouges.The detection module 37 may comprise a camera, an infrared emission/reception detection element.
Dans un mode de réalisation préféré, le dispositif de réalité étendue 31 peut également comporter une pluralité de transducteurs ultrasonores 13. Dans ce cas, le module de détection 37 utilise un ou plusieurs des transducteurs ultrasonores 13 pour détecter des éléments de l'environnement. Par exemple, lors d'une phase de détection, certains transducteurs ultrasonores 13 peuvent être commandés pour générer un signal acoustique adapté à se réfléchir sur les mains de l'utilisateur, et d'autres transducteurs ultrasonores 13 peuvent être activés en réception pour lire le signal acoustique réfléchi. Ainsi, la main de l'utilisateur peut être localisée et imagée par le système de réalité étendue 31.In a preferred embodiment, the extended reality device 31 may also comprise a plurality of ultrasonic transducers 13. In this case, the detection module 37 uses one or more of the ultrasonic transducers 13 to detect elements of the environment. For example, during a detection phase, certain ultrasonic transducers 13 may be controlled to generate an acoustic signal adapted to be reflected on the hands of the user, and other ultrasonic transducers 13 may be activated in reception to read the reflected acoustic signal. Thus, the hand of the user can be located and imaged by the extended reality system 31.
Les transducteurs ultrasonores 13 utilisés pour la détection peuvent être les mêmes que ceux utilisés pour la génération de l'effet haptique. Dans ce cas, les phases de détection et les phases de génération d'un effet haptique peuvent être séquentielles. Alternativement, certains transducteurs ultrasonores 13 peuvent être dédiés à la détection de l'environnement et d'autres transducteurs peuvent être dédiés à la génération d'effets haptiques, auquel cas les phases de détection et les phases de génération d'objets virtuels peuvent être simultanées.The ultrasonic transducers 13 used for detection may be the same as those used for generating the haptic effect. In this case, the detection phases and the haptic effect generation phases may be sequential. Alternatively, some ultrasonic transducers 13 may be dedicated to detecting the environment and other transducers may be dedicated to generating haptic effects, in which case the detection phases and the virtual object generation phases may be simultaneous.
La
Selon cet exemple, le dispositif de réalité étendue 31 est un dispositif portatif de type lunettes ou de type casque de réalité virtuelle ou augmentée ou mixte.According to this example, the extended reality device 31 is a portable device of the glasses type or of the virtual, augmented or mixed reality headset type.
Les lunettes de réalité étendue 131 comprennent une monture 133 destinée à être portée sur la tête de l’utilisateur. La monture 133 est munie d’un ou de deux écrans d’affichage(s) 135 destiné(s) à être disposé(s) devant au moins un œil de l’utilisateur.The extended reality glasses 131 comprise a frame 133 intended to be worn on the user's head. The frame 133 is provided with one or two display screens 135 intended to be placed in front of at least one eye of the user.
A titre d’exemple non limitatif, on considère ici le cas d’un dispositif de réalité entendue 31 de type lunettes 131 comme celui décrit dans la demande FR3092680 de la demanderesse.As a non-limiting example, we consider here the case of a reality device 31 of the glasses 131 type like that described in the applicant's application FR3092680.
Les écrans d’affichages 135 sont des écrans partiellement transparents, transmettant vers les yeux de l’utilisateur tout ou partie des rayons visibles en provenance de la scène réelle située devant l’utilisateur. L’utilisateur voit alors des images affichées par les écrans 135 en superposition de la scène réelle dans son champ de vision.The display screens 135 are partially transparent screens, transmitting to the user's eyes all or part of the visible rays coming from the real scene located in front of the user. The user then sees images displayed by the screens 135 superimposed on the real scene in his field of vision.
Selon ce mode de réalisation, le module de contrôle 5 est configuré pour commander l’affichage d’images 2D ou 3D sur les écrans 135 en plus de la commande de l’émission des impulsions ultrasonores par les transducteurs 13 du dispositif d’interface haptique 3 selon la description relative à la
Plus particulièrement, le module de contrôle 5 est configuré pour commander l’affichage d’un objet virtuel optique et d’un objet virtuel haptique de sorte que les deux objets se superposent au moins à l’endroit où les mains de l’utilisateur sont localisées. En effet, la position relative des transducteurs ultrasonores 13 intégrés dans le vêtement 9 ou les lunettes 131 de l’utilisateur 11 par rapport aux écrans d’affichage 135 peut être facilement prédéterminée. Il en résulte une détermination aisée à réaliser de la concordance entre l’objet virtuel optique et un objet virtuel haptique dynamique en fonction de la position des mains de l’utilisateur.More particularly, the control module 5 is configured to control the display of an optical virtual object and a haptic virtual object so that the two objects overlap at least at the location where the user's hands are located. Indeed, the relative position of the ultrasonic transducers 13 integrated in the clothing 9 or the glasses 131 of the user 11 relative to the display screens 135 can be easily predetermined. This results in an easy determination to be made of the concordance between the optical virtual object and a dynamic haptic virtual object as a function of the position of the user's hands.
Ainsi, la vision et la sensation de toucher des objets virtuels peuvent être réalisées en harmonie quel que soit le lieu d’utilisation du système de réalité étendue.Thus, the vision and the sensation of touching virtual objects can be achieved in harmony regardless of where the extended reality system is used.
La
Cette application concerne la projection d’un objet optique (hologramme) 19 par les lunettes de réalité étendue 131 portées par l’utilisateur 11 ainsi que la projection correspondante d’un objet haptique dynamique 191 par le dispositif d’interface haptique 3 intégré aux vêtements 9 de l’utilisateur 11. Par exemple, un soignant portant le dispositif d’interface haptique 3 et les lunettes de réalité étendue 131 peut projeter l’hologramme d’un mannequin de simulation médical et son correspondant haptique selon les positions des mains du soignant. Ceci permet au soignant de pratiquer une opération virtuelle sur ce mannequin de simulation.This application relates to the projection of an optical object (hologram) 19 by the extended reality glasses 131 worn by the user 11 as well as the corresponding projection of a dynamic haptic object 191 by the haptic interface device 3 integrated into the clothing 9 of the user 11. For example, a caregiver wearing the haptic interface device 3 and the extended reality glasses 131 can project the hologram of a medical simulation mannequin and its corresponding haptic according to the positions of the caregiver's hands. This allows the caregiver to perform a virtual operation on this simulation mannequin.
Selon un autre mode de réalisation, le dispositif de réalité étendue 31 est un dispositif externe. Dans ce cas, le dispositif d’interface haptique embarquée 3 peut être connecté sans fil (Wifi, Bluetooth, etc.) au moyen du module de communication 35a avec le dispositif de réalité étendue 31 externe. Une application du système de réalité étendue 1 selon ce mode de réalisation peut être la projection d’un hologramme par le dispositif de réalité étendue 31 externe et la génération par le dispositif d’interface haptique embarqué 3 porté par un utilisateur d’une sensation haptique sur les doigts de l’utilisateur. Par exemple, le dispositif de réalité étendue 31 externe projette sur une table ou une pièce un plan holographique en 3D. Le dispositif d’interface haptique embarqué 3 intégré aux vêtements d’un utilisateur 11 génère une sensation haptique sur les doigts de l’utilisateur qui aura alors la sensation de réellement toucher le plan holographique.According to another embodiment, the extended reality device 31 is an external device. In this case, the on-board haptic interface device 3 can be connected wirelessly (Wifi, Bluetooth, etc.) by means of the communication module 35a with the extended reality device 31 external. An application of the extended reality system 1 according to this embodiment may be the projection of a hologram by the external extended reality device 31 and the generation by the onboard haptic interface device 3 worn by a user of a haptic sensation on the user's fingers. For example, the external extended reality device 31 projects a 3D holographic plane onto a table or a room. The onboard haptic interface device 3 integrated into the clothing of a user 11 generates a haptic sensation on the user's fingers who will then have the sensation of actually touching the holographic plane.
Claims (11)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2403254A FR3160785A1 (en) | 2024-03-29 | 2024-03-29 | EXTENDED REALITY SYSTEM |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2403254A FR3160785A1 (en) | 2024-03-29 | 2024-03-29 | EXTENDED REALITY SYSTEM |
| FR2403254 | 2024-03-29 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| FR3160785A1 true FR3160785A1 (en) | 2025-10-03 |
Family
ID=91738863
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR2403254A Pending FR3160785A1 (en) | 2024-03-29 | 2024-03-29 | EXTENDED REALITY SYSTEM |
Country Status (1)
| Country | Link |
|---|---|
| FR (1) | FR3160785A1 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190369731A1 (en) * | 2018-06-02 | 2019-12-05 | Harman International Industries, Incorporated | Haptics device for producing directional sound and haptic sensations |
| US20200257366A1 (en) * | 2019-02-08 | 2020-08-13 | Commissariat à l'énergie atomique et aux énergies alternatives | Virtual, augmented, or mixed reality device |
| US11347312B1 (en) * | 2019-09-23 | 2022-05-31 | Apple Inc. | Ultrasonic haptic output devices |
| US20230251720A1 (en) * | 2017-12-22 | 2023-08-10 | Ultrahaptics Ip Ltd | Human Interactions with Mid-Air Haptic Systems |
-
2024
- 2024-03-29 FR FR2403254A patent/FR3160785A1/en active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230251720A1 (en) * | 2017-12-22 | 2023-08-10 | Ultrahaptics Ip Ltd | Human Interactions with Mid-Air Haptic Systems |
| US20190369731A1 (en) * | 2018-06-02 | 2019-12-05 | Harman International Industries, Incorporated | Haptics device for producing directional sound and haptic sensations |
| US20200257366A1 (en) * | 2019-02-08 | 2020-08-13 | Commissariat à l'énergie atomique et aux énergies alternatives | Virtual, augmented, or mixed reality device |
| FR3092680A1 (en) | 2019-02-08 | 2020-08-14 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Virtual, augmented or mixed reality device |
| US11347312B1 (en) * | 2019-09-23 | 2022-05-31 | Apple Inc. | Ultrasonic haptic output devices |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3734421B1 (en) | Device for virtual, augmented or mixed reality | |
| EP2859428B1 (en) | Time-reversal tactile stimulation interface | |
| CN105934227B (en) | Audio Navigation Aid | |
| JP6557730B2 (en) | Method and device for irradiating light for photographing iris | |
| EP2981879B1 (en) | Device for contactless interaction with an electronic and/or computer apparatus, and apparatus equipped with such a device | |
| CN114341747B (en) | Light Field Displays for Mobile Devices | |
| US20150199025A1 (en) | Object detection and tracking for providing a virtual device experience | |
| US20100238184A1 (en) | Method and apparatus for three-dimensional visualization in mobile devices | |
| FR2964761A1 (en) | HAPTIC INTERACTION DEVICE AND METHOD FOR GENERATING HAPTIC AND SOUND EFFECTS | |
| KR20160109681A (en) | Method and device for irradiating light used to capture iris | |
| FR2882600A1 (en) | Virtual keyboard apparatus for e.g. personal digital assistant, has signal processor with output providing data corresponding to determined location of vibration detected by vibration transducer matrix that is in contact with sound surface | |
| FR2851347A1 (en) | Man-machine interface device for use in vehicle control panel, has touch screen moved with respect to case by actuator based on displacement patterns controlled by analysis and treatment unit to produce touch differential effects | |
| EP3729241B1 (en) | Areal device offering improved localized deformation | |
| Maeda et al. | Hapticaid: Haptic experiences system using mobile platform | |
| FR3095875A1 (en) | TOUCH INTERFACE OFFERING VIBROTACTILE FEEDBACK WITH IMPROVED LOCATION | |
| US12257393B2 (en) | Methods, systems, apparatuses, and devices for facilitating stress-adaptive virtual exerience stations | |
| FR3160785A1 (en) | EXTENDED REALITY SYSTEM | |
| WO2019122762A1 (en) | Areal device offering improved localized deformation | |
| JP2025501092A (en) | Mixed reality optical system using microphosphor and lens element arrays in curved waveguides | |
| WO2018141928A1 (en) | Method and system for moving a virtual character in a virtual environment | |
| WO2023147996A1 (en) | Orientation assistance system comprising means for acquiring a real or virtual visual environment, non-visual human-machine interface means and means for processing the digital representation of said visual environment. | |
| WO2017149254A1 (en) | Man/machine interface with 3d graphics applications | |
| FR3066841A1 (en) | METHOD FOR CONTROLLING A NOMAD DEVICE | |
| FR2971864A1 (en) | Virtual reality equipment i.e. immersive virtual reality environment equipment, for virtual reality interaction with human-machine interface car, has contact device with touch pad positioned at point where interface is intended to appear | |
| FR2879885A1 (en) | Asymmetric acoustic waves transmitting and receiving piezoelectric plate for e.g. silverer, has sensors stuck oppositely and on both sides of plate with their electric polarization vectors oriented asymmetrically/symmetrically wrt plane |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PLFP | Fee payment |
Year of fee payment: 2 |
|
| PLSC | Publication of the preliminary search report |
Effective date: 20251003 |