[go: up one dir, main page]

FR3160785A1 - EXTENDED REALITY SYSTEM - Google Patents

EXTENDED REALITY SYSTEM

Info

Publication number
FR3160785A1
FR3160785A1 FR2403254A FR2403254A FR3160785A1 FR 3160785 A1 FR3160785 A1 FR 3160785A1 FR 2403254 A FR2403254 A FR 2403254A FR 2403254 A FR2403254 A FR 2403254A FR 3160785 A1 FR3160785 A1 FR 3160785A1
Authority
FR
France
Prior art keywords
haptic
extended reality
user
haptic interface
interface device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2403254A
Other languages
French (fr)
Inventor
Angélique Rascle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Priority to FR2403254A priority Critical patent/FR3160785A1/en
Publication of FR3160785A1 publication Critical patent/FR3160785A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

L’invention concerne un système de réalité étendue comportant un dispositif d’interface haptique embarqué (3) adapté pour être intégré dans un article d’habillement destiné à être porté par un utilisateur, le dispositif d’interface haptique (3) comprenant un ensemble de transducteurs ultrasonores (13) commandables par un module de contrôle (5) pour générer un espace d’interaction haptique dans au moins une partie de l’environnement de l’utilisateur portant ledit dispositif d’interface haptique embarqué. Figure pour l’abrégé : Figure 1A. The invention relates to an extended reality system comprising an onboard haptic interface device (3) adapted to be integrated into an item of clothing intended to be worn by a user, the haptic interface device (3) comprising a set of ultrasonic transducers (13) controllable by a control module (5) to generate a haptic interaction space in at least a portion of the environment of the user wearing said onboard haptic interface device. Figure 1A for abstract.

Description

SYSTEME DE RÉALITÉ ETENDUEEXTENDED REALITY SYSTEM

La présente invention concerne le domaine de la réalité étendue et plus particulièrement, celui des dispositifs haptiques qui peuvent lui être associés.The present invention relates to the field of extended reality and more particularly, that of the haptic devices which can be associated with it.

ÉTAT DE LA TECHNIQUE ANTÉRIEURESTATE OF THE PRIOR ART

Un système de réalité étendue est une interface d’interaction en temps réel entre le monde réel et des effets physiques créés artificiellement permettant d’augmenter notre perception ou action sur notre environnement. Les effets physiques peuvent être des signaux visuels pour créer des images, des signaux sonores, ou des impulsions ultrasonores pour créer des sensations haptiques.An extended reality system is a real-time interaction interface between the real world and artificially created physical effects that augment our perception of or action on our environment. Physical effects can be visual cues to create images, audio signals, or ultrasonic pulses to create haptic sensations.

On connaît dans l’art antérieur des systèmes haptiques permettant de créer, pour un utilisateur, une sensation de toucher dans un espace fixe prédéfini tel à l’intérieur d’un gant. Un tel système comporte un ensemble de transducteurs ultrasonores commandables pour générer des impulsions ultrasonores. Un circuit de contrôle commande les transducteurs en émission avec des déphasages entre les différents transducteurs de manière à focaliser les ondes émises en un point de focalisation donné de l’espace prédéfini. Ceci permet de générer, au voisinage du point de focalisation, une pression suffisamment forte pour être ressentie par l’utilisateur. Différents points de focalisation peuvent être successivement balayés à une vitesse relativement élevée de façon à générer dans l’espace prédéfini une distribution de pressions perceptibles par l’utilisateur.Haptic systems are known in the prior art for creating, for a user, a sensation of touch in a predefined fixed space such as inside a glove. Such a system comprises a set of controllable ultrasonic transducers to generate ultrasonic pulses. A control circuit controls the transmission of the transducers with phase shifts between the different transducers so as to focus the emitted waves at a given focal point in the predefined space. This makes it possible to generate, in the vicinity of the focal point, a pressure strong enough to be felt by the user. Different focal points can be successively scanned at a relatively high speed so as to generate in the predefined space a distribution of pressures perceptible by the user.

Toutefois, il faut définir au préalable une zone fixe correspondant à l’ensemble des points de focalisation accessibles par les transducteurs pour que l’utilisateur puisse bénéficier des sensations haptiques.However, it is necessary to first define a fixed zone corresponding to all the focal points accessible by the transducers so that the user can benefit from the haptic sensations.

L’objet de la présente invention est de proposer un système de réalité étendue comportant une interface haptique remédiant aux inconvénients précités, en particulier en ne limitant pas les sensations haptiques dans un espace délimité tout en augmentant les simulations haptiques ressenties par l’utilisateur.The object of the present invention is to propose an extended reality system comprising a haptic interface remedying the aforementioned drawbacks, in particular by not limiting the haptic sensations in a delimited space while increasing the haptic simulations felt by the user.

Cet objectif est atteint avec un système de réalité étendue comportant un dispositif d’interface haptique embarqué adapté pour être intégré dans un article d’habillement destiné à être porté par un utilisateur, le dispositif d’interface haptique comprenant un ensemble de transducteurs ultrasonores commandables par un module de contrôle pour générer dans l’air un espace d’interaction haptique dans au moins une partie de l’environnement de l’utilisateur portant ledit dispositif d’interface haptique embarqué.This objective is achieved with an extended reality system comprising an on-board haptic interface device adapted to be integrated into an item of clothing intended to be worn by a user, the haptic interface device comprising a set of ultrasonic transducers controllable by a control module to generate in the air a haptic interaction space in at least part of the environment of the user wearing said on-board haptic interface device.

Ce système permet de créer un espace de configuration haptique quel que soit le lieu d’utilisation. Le système permet aussi d’avoir une grande surface d’émission acoustique émanant de l’utilisateur portant le dispositif haptique.This system allows for the creation of a haptic configuration space regardless of the location of use. The system also allows for a large acoustic emission surface emanating from the user wearing the haptic device.

Selon un mode de réalisation, le système comporte un dispositif de réalité étendue comprenant un module d’affichage configuré pour afficher une image représentative d’un objet optique virtuel, et en ce que le dispositif d’interface haptique embarqué est configuré pour être connectable (par exemple sans fil) audit dispositif de réalité entendue.According to one embodiment, the system comprises an extended reality device comprising a display module configured to display an image representative of a virtual optical object, and in that the on-board haptic interface device is configured to be connectable (for example wirelessly) to said extended reality device.

Avantageusement, le dispositif de réalité étendue est un dispositif portatif destiné à être porté sur la tête de l’utilisateur, le module d’affichage du dispositif portatif de réalité étendue comprenant au moins un écran d’affichage destiné à être disposé devant au moins un œil de l’utilisateur, l’écran d’affichage étant commandable par le module de contrôle.Advantageously, the extended reality device is a portable device intended to be worn on the user's head, the display module of the portable extended reality device comprising at least one display screen intended to be placed in front of at least one eye of the user, the display screen being controllable by the control module.

L’utilisation de l’interface haptique en association avec le port de dispositif portatif de réalité étendue permet de combiner la sensation haptique avec la vision optique permettant à l’utilisateur une plus grande immersion dans son expérience de réalité étendue, virtuelle, augmentée ou mixte. En outre, la vision et la sensation de touché sont permises quel que soit le lieu d’utilisation du système.The use of the haptic interface in association with the wearing of a portable extended reality device makes it possible to combine haptic sensation with optical vision, allowing the user greater immersion in their extended, virtual, augmented or mixed reality experience. In addition, vision and touch sensation are allowed regardless of the location of use of the system.

Selon une particularité de réalisation, le module de contrôle est intégré dans l’interface haptique embarquée et/ou dans le dispositif de réalité étendue.According to a particular embodiment, the control module is integrated into the on-board haptic interface and/or into the extended reality device.

Selon une variante, le module de contrôle est compris dans un dispositif déporté configuré pour commander à distance les transducteurs ultrasonores et/ou le module d’affichage via des signaux de contrôle.According to one variant, the control module is included in a remote device configured to remotely control the ultrasonic transducers and/or the display module. via control signals.

Le dispositif déporté peut être un téléphone portable comportant une application de contrôle haptique et/ou de contrôle d’affichage.The remote device may be a mobile phone with a haptic control and/or display control application.

Avantageusement, le dispositif de réalité étendue comporte un module de détection adapté pour détecter au moins une main de l’utilisateur.Advantageously, the extended reality device comprises a detection module adapted to detect at least one hand of the user.

Avantageusement, le module de contrôle est configuré pour lire les données de sortie du module de détection et modifier en conséquence la commande du module d’affichage et des transducteurs ultrasonores.Advantageously, the control module is configured to read the output data of the detection module and modify the control of the display module and the ultrasonic transducers accordingly.

Avantageusement, les transducteurs ultrasonores sont arrangés en un ensemble de matrices ou sous-matrices haptiques, le module de contrôle étant configuré pour commander l’émission d’impulsions ultrasonores des sous-matrices haptiques avec des déphasages entre les différentes sous-matrices haptiques de façon à focaliser les ondes émises en un point donné de l’espace haptique.Advantageously, the ultrasonic transducers are arranged in a set of haptic matrices or sub-matrices, the control module being configured to control the emission of ultrasonic pulses from the haptic sub-matrices with phase shifts between the different haptic sub-matrices so as to focus the emitted waves at a given point in the haptic space.

Selon un mode de réalisation, les transducteurs ultrasonores sont des transducteurs piézoélectriques de type PMUT arrangés en un ensemble de matrices haptiques. Chaque transducteur ultrasonore PMUT comprend une membrane flexible suspendue sur un support rigide et un élément de conversion piézoélectrique fixé sur la membrane flexible.According to one embodiment, the ultrasonic transducers are PMUT-type piezoelectric transducers arranged in a set of haptic matrices. Each PMUT ultrasonic transducer comprises a flexible membrane suspended on a rigid support and a piezoelectric conversion element fixed on the flexible membrane.

Avantageusement, un ensemble de dispositifs d'interfaces haptiques est adapté pour être porté par un ensemble correspondant d'utilisateurs, générant ainsi au moins un espace d'interaction haptique dans l'environnement dudit ensemble d'utilisateurs.Advantageously, a set of haptic interface devices is adapted to be worn by a corresponding set of users, thus generating at least one haptic interaction space in the environment of said set of users.

Ainsi, les utilisateurs peuvent interagir les uns avec les autres, avec leur environnement, ou avec des objets optiques virtuels.This allows users to interact with each other, with their environment, or with virtual optical objects.

La présente invention sera mieux comprise à la lecture de la description d’exemples de réalisation donnés à titre purement indicatif et nullement limitatif, en faisant référence aux dessins annexés sur lesquels :The present invention will be better understood by reading the description of exemplary embodiments given purely for informational purposes and in no way limiting, with reference to the appended drawings in which:

LesFIG. 1etFIG. 1illustrent de manière schématique un système de réalité étendue comportant un dispositif d’interface haptique embarqué, selon un mode de réalisation de l’invention ;THE FIG. 1 And FIG. 1 schematically illustrate an extended reality system comprising an on-board haptic interface device, according to one embodiment of the invention;

LaFIG. 2illustre de manière schématique un transducteur ultrasonore de l’interface haptique de laFIG. 1;There FIG. 2 schematically illustrates an ultrasonic transducer of the haptic interface of the FIG. 1 ;

LaFIG. 3illustre, une courbe de pression en Pa en fonction de la distance en cm pour un transducteur PMUT en silicium ;There FIG. 3 illustrates a pressure curve in Pa as a function of distance in cm for a silicon PMUT transducer;

LaFIG. 4illustre de manière très schématique la commande des transducteurs ultrasonores par le module de contrôle ;There FIG. 4 illustrates very schematically the control of the ultrasonic transducers by the control module;

LaFIG. 5illustre de manière très schématique un système de réalité étendue, selon un autre mode de réalisation préféré de l’invention ;There FIG. 5 very schematically illustrates an extended reality system, according to another preferred embodiment of the invention;

LaFIG. 6illustre de manière schématique un système de réalité étendue selon laFIG. 5, comportant un dispositif de réalité étendue portatif selon un mode de réalisation préféré de l’invention ; etThere FIG. 6 schematically illustrates an extended reality system according to the FIG. 5 , comprising a portable extended reality device according to a preferred embodiment of the invention; and

LaFIG. 7illustre schématiquement une application du système de réalité étendue, selon le mode de réalisation de laFIG. 5.There FIG. 7 schematically illustrates an application of the extended reality system, according to the embodiment of the FIG. 5 .

EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERSDETAILED DESCRIPTION OF SPECIFIC EMBODIMENTS

Le concept à la base de l’invention est de proposer un dispositif d’interface haptique embarqué sur l’utilisateur de sorte que la source acoustique émane de l’utilisateur lui-même.The concept behind the invention is to propose a haptic interface device embedded on the user so that the acoustic source emanates from the user himself.

Les Figs. 1A et 1B illustrent de manière très schématique un système de réalité étendue comportant un dispositif d’interface haptique embarqué, selon un mode de réalisation de l’invention.Figs. 1A and 1B very schematically illustrate an extended reality system comprising an on-board haptic interface device, according to one embodiment of the invention.

Le système de réalité étendue 1 comporte un dispositif d’interface haptique embarqué 3, un module ou circuit de contrôle 5, et une source d’alimentation 7.The extended reality system 1 comprises an on-board haptic interface device 3, a control module or circuit 5, and a power source 7.

Le dispositif d’interface haptique embarqué 3 est adapté pour être intégré dans un article d’habillement 9 (voirFIG. 1) destiné à être porté par un utilisateur 11. On entend par article d’habillement tout ce qui peut être porté par un utilisateur y compris tout élément (par exemple, bretelles, plastron, etc.) ajouté par-dessus les vêtements portés par l’utilisateur. Le dispositif d’interface haptique embarqué 3 comprend un ensemble de transducteurs ultrasonores 13.The on-board haptic interface device 3 is adapted to be integrated into an article of clothing 9 (see FIG. 1 ) intended to be worn by a user 11. An article of clothing is understood to mean anything that can be worn by a user, including any element (for example, straps, breastplate, etc.) added over the clothing worn by the user. The on-board haptic interface device 3 comprises a set of ultrasonic transducers 13.

Selon un aspect d’un mode de réalisation, les transducteurs ultrasonores 13 sont arrangés en un ensemble de matrices ou sous-matrices haptiques 15 disposées sur un support 17 en tissus ou en toute autre matière adaptée pour être intégrés dans un article d’habillement 9 pouvant être porté par l’utilisateur 11.According to one aspect of an embodiment, the ultrasonic transducers 13 are arranged in a set of haptic matrices or sub-matrices 15 arranged on a support 17 made of fabric or any other material suitable for being integrated into an article of clothing 9 which can be worn by the user 11.

Les transducteurs ultrasonores 13 sont commandables par le module de contrôle 5 pour générer dans l’air des impulsions ultrasonores formant un espace d’interaction haptique 19 dans au moins une partie de l’environnement de l’utilisateur 11 portant le dispositif d’interface haptique embarqué 3. La fréquence d’impulsions ultrasonores peut être comprise entre 20 kHz et 10 THz, de préférence comprises entre 20kHz et 100 MHz.The ultrasonic transducers 13 are controllable by the control module 5 to generate ultrasonic pulses in the air forming a haptic interaction space 19 in at least part of the environment of the user 11 wearing the on-board haptic interface device 3. The frequency of the ultrasonic pulses may be between 20 kHz and 10 THz, preferably between 20 kHz and 100 MHz.

L’espace d’interaction haptique 19 forme ainsi une variété tridimensionnelle (au sens géométrique du terme) à laquelle sont associées des pressions directionnelles à effet haptique émanant de l’utilisateur 11 portant le dispositif d’interface haptique embarqué 3.The haptic interaction space 19 thus forms a three-dimensional variety (in the geometric sense of the term) with which are associated directional pressures with a haptic effect emanating from the user 11 wearing the on-board haptic interface device 3.

Le module de contrôle 5 est un circuit électronique qui peut être intégré dans le dispositif d’interface haptique 3. En variante, le module de contrôle 5 peut être une application logicielle (ou également un circuit) comprise dans un dispositif extérieur en lien ou en communication avec le dispositif d’interface haptique 3.The control module 5 is an electronic circuit which can be integrated into the haptic interface device 3. Alternatively, the control module 5 can be a software application (or also a circuit) included in an external device linked or in communication with the haptic interface device 3.

Selon un aspect d’un mode de réalisation, les transducteurs ultrasonores 13 sont des transducteurs piézoélectriques ultrasonore micro-usiné, dit PMUT (Piezoelectric Micromachined Ultrasonic Transducers). Les transducteurs PMUT peuvent être en céramique ou en silicium. D’autres types de transducteurs peuvent être utilisés.According to one aspect of an embodiment, the ultrasonic transducers 13 are micromachined piezoelectric ultrasonic transducers, called PMUTs (Piezoelectric Micromachined Ultrasonic Transducers). The PMUT transducers may be made of ceramic or silicon. Other types of transducers may be used.

LaFIG. 2illustre de manière schématique un transducteur ultrasonore de l’interface haptique de laFIG. 1.There FIG. 2 schematically illustrates an ultrasonic transducer of the haptic interface of the FIG. 1 .

Cet exemple concerne un transducteur PMUT 13 comprenant une membrane flexible 23 suspendue par sa périphérie sur un support rigide 25. Le support rigide 25 est par exemple en silicium ou en céramique. La membrane 23 est fixée, par sa face inférieure, sur la face supérieure du support 25. La membrane 23 peut avoir une forme circulaire, rectangulaire, ou carrée.This example concerns a PMUT transducer 13 comprising a flexible membrane 23 suspended by its periphery on a rigid support 25. The rigid support 25 is for example made of silicon or ceramic. The membrane 23 is fixed, by its lower face, on the upper face of the support 25. The membrane 23 can have a circular, rectangular, or square shape.

Le transducteur PMUT 13 comprend en outre un élément de conversion piézoélectrique 27 fixé sur la membrane, du côté de sa face supérieure. L’élément de conversion piézoélectrique comprend deux électrodes 27a, 27b.The PMUT transducer 13 further comprises a piezoelectric conversion element 27 fixed to the membrane, on its upper face side. The piezoelectric conversion element comprises two electrodes 27a, 27b.

L’application d’une tension entre les électrodes 27a, 27b de l’élément de conversion piézoélectrique 27 provoque une déformation de la membrane 23 permettant de générer une onde acoustique ultrasonore. A l’inverse, une déformation de la membrane 23 génère une tension qui peut être utilisée pour mesurer une onde acoustique ultrasonore reçue par le transducteur 13. Ce genre de transducteurs est décrit en détail dans la demande de brevet FR3092680 de la demanderesse.The application of a voltage between the electrodes 27a, 27b of the piezoelectric conversion element 27 causes a deformation of the membrane 23 making it possible to generate an ultrasonic acoustic wave. Conversely, a deformation of the membrane 23 generates a voltage which can be used to measure an ultrasonic acoustic wave received by the transducer 13. This type of transducer is described in detail in the applicant's patent application FR3092680.

Un transducteur PMUT 13 peut fonctionner selon différentes fréquences ultrasonores en fonction de sa taille ou de la technologie utilisée (silicium, céramique ou autre). A titre d’exemple non limitatif, on considère ici le cas d’un transducteur PMUT 13 de type silicium, fonctionnant à 100kHz.A PMUT 13 transducer can operate at different ultrasonic frequencies depending on its size or the technology used (silicon, ceramic or other). As a non-limiting example, we consider here the case of a PMUT 13 transducer of the silicon type, operating at 100kHz.

En effet, laFIG. 3illustre, la courbe de la pression en Pa en fonction de la distance en cm pour un transducteur PMUT en silicium.In fact, the FIG. 3 illustrates the pressure curve in Pa as a function of distance in cm for a silicon PMUT transducer.

Plus particulièrement, cette courbe est issue des mesures réalisées pour un transducteur PMUT 13 unitaire à 100kHz fonctionnant sous une tension de pilotage de 5V. Par exemple, la courbe montre que le transducteur PMUT 13 génère une pression acoustique de l’ordre de 0.15 Pa à une distance de 30 cm.More specifically, this curve is derived from measurements taken for a single PMUT 13 transducer at 100kHz operating under a driving voltage of 5V. For example, the curve shows that the PMUT 13 transducer generates an acoustic pressure of the order of 0.15 Pa at a distance of 30 cm.

On notera que la pression acoustique augmente quasi-linéairement avec l’augmentation de la tension. Ainsi, pour une tension de pilotage de 48 V, le transducteur PMUT 13 génère une pression acoustique de l’ordre de 1.45 Pa à une distance de 30 cm.It should be noted that the acoustic pressure increases almost linearly with increasing voltage. Thus, for a control voltage of 48 V, the PMUT 13 transducer generates an acoustic pressure of around 1.45 Pa at a distance of 30 cm.

En général, le seuil pour ressentir un effet haptique est autour de 200 Pa. Ainsi, pour obtenir un effet haptique à 30 cm, on peut utiliser environ 140 transducteurs PMUT sachant que les pressions s’ajoutent quasi-linéairement.In general, the threshold for feeling a haptic effect is around 200 Pa. Thus, to obtain a haptic effect at 30 cm, we can use around 140 PMUT transducers knowing that the pressures add up almost linearly.

A titre indicatif, le diamètre d’un transducteur PMUT circulaire est de l’ordre de 800 µm pour un transducteur de type silicium et est de l’ordre de 5 mm pour un transducteur de type céramique. On notera que le diamètre dépend de la raideur de la membrane 23, liée à son épaisseur et ses matériaux constitutifs. Les diamètres considérés ci-dessus sont indicatifs et pris en guise d’exemple dans le dimensionnement d’une matrice haptique 15.As an indication, the diameter of a circular PMUT transducer is of the order of 800 µm for a silicon type transducer and is of the order of 5 mm for a ceramic type transducer. It should be noted that the diameter depends on the stiffness of the membrane 23, linked to its thickness and its constituent materials. The diameters considered above are indicative and taken as an example in the dimensioning of a haptic matrix 15.

Ainsi, en utilisant des transducteurs PMUT de type silicium et pour un écart de l’ordre de 300 µm entre les membranes 23 des transducteurs 13 voisins, il résulte une matrice haptique 15 de l’ordre de 1.5 x 1.5 cm2ayant un effet haptique (i.e. 200 Pa) à une distance de 30 cm. On notera que l’écart de 300 µm entre membranes est un écart indicatif qui est suffisant pour permettre une solidité de la matrice tout en gardant les membranes proches les unes des autres.Thus, using silicon type PMUT transducers and for a gap of the order of 300 µm between the membranes 23 of the neighboring transducers 13, a haptic matrix 15 of the order of 1.5 x 1.5 cm 2 results, having a haptic effect (i.e. 200 Pa) at a distance of 30 cm. It will be noted that the gap of 300 µm between membranes is an indicative gap which is sufficient to allow solidity of the matrix while keeping the membranes close to each other.

Les dimensions des matrices ou sous-matrices haptiques 15 peuvent être déterminées selon les fréquences d’émission des transducteurs PMUT, de la technologie utilisée (silicium ou céramique), de la tension de pilotage de ceux-ci, et des spécificités d’applications.The dimensions of the haptic matrices or sub-matrices 15 can be determined according to the emission frequencies of the PMUT transducers, the technology used (silicon or ceramic), the driving voltage thereof, and the specificities of the applications.

Le tableau ci-dessous indique le dimensionnement de quelques configurations. La première colonne indique la technologie utilisée (silicium ou céramique), la deuxième colonne indique la surface de la matrice haptique, la troisième colonne indique la tension de pilotage, la quatrième colonne indique la distance de l’effet haptique (P=200 Pa), les cinquième et sixième colonnes indiquent les pressions ressenties à 30 cm et 50 cm respectivement, la septième colonne indique le nombre de transducteurs formant la matrice haptique, et la huitième colonne indique le diamètre de chaque transducteur.
The table below shows the sizing of some configurations. The first column indicates the technology used (silicon or ceramic), the second column indicates the surface area of the haptic matrix, the third column indicates the driving voltage, the fourth column indicates the distance of the haptic effect (P=200 Pa), the fifth and sixth columns indicate the pressures felt at 30 cm and 50 cm respectively, the seventh column indicates the number of transducers forming the haptic matrix, and the eighth column indicates the diameter of each transducer.

Ainsi, selon l’application souhaité, on peut avoir une matrice haptique 15 de faible dimension, légère, et de faible tension de pilotage. En outre, le dispositif d’interface haptique 3 peut être dimensionné pour émettre une sensation haptique de quelques centimètres à plusieurs mètres en fonction de la tension de pilotage et de la surface des matrices haptiques utilisées.Thus, depending on the desired application, a haptic matrix 15 of small size, light weight, and low driving voltage can be provided. In addition, the haptic interface device 3 can be sized to emit a haptic sensation from a few centimeters to several meters depending on the driving voltage and the surface area of the haptic matrices used.

LaFIG. 4illustre de manière très schématique la commande des transducteurs ultrasonores par le module de contrôle.There FIG. 4 illustrates very schematically the control of the ultrasonic transducers by the control module.

Le module de contrôle 5 est configuré pour commander les matrices ou sous-matrices de transducteurs 13 avec des déphasages entre les différentes sous-matrices 15 de manière à focaliser les ondes émises en un point de focalisation 21 à distance de l’utilisateur. Cette distance peut par exemple être comprise entre 5 cm et 200 cm.The control module 5 is configured to control the transducer matrices or sub-matrices 13 with phase shifts between the different sub-matrices 15 so as to focus the emitted waves at a focusing point 21 at a distance from the user. This distance can for example be between 5 cm and 200 cm.

Ceci permet de générer, au voisinage du point de focalisation 21, une pression suffisamment forte pour être ressentie par l’utilisateur et/ou par un collaborateur dans son environnement. Différents points de focalisation peuvent être successivement balayés à une vitesse relativement élevée de façon à générer de manière dynamique une distribution de pressions perceptibles dans l’espace d’interaction haptique 19. L’espace d’interaction haptique 19 peut ainsi être assimilé à un objet haptique virtuel et dynamique.This makes it possible to generate, in the vicinity of the focal point 21, a pressure strong enough to be felt by the user and/or by a collaborator in his environment. Different focal points can be successively scanned at a relatively high speed so as to dynamically generate a distribution of perceptible pressures in the haptic interaction space 19. The haptic interaction space 19 can thus be likened to a virtual and dynamic haptic object.

Par ailleurs, la source d’alimentation 7 est configurée pour fournir aux transducteurs 13 une tension de pilotage pouvant être comprise entre 5V et 50V. Avantageusement, on utilise une piste de pilotage pour chaque matrice ou sous-matrice haptique 5. Ainsi, chaque piste de pilotage regroupe une pluralité de transducteurs 13 ce qui facilite la faisabilité du dispositif d’interface haptique 3. La source d’alimentation 7 peut être intégrée dans le dispositif d’interface haptique 3 et peut éventuellement fournir une tension au module de contrôle 5 lorsque ce dernier est également intégré dans le dispositif d’interface haptique 3.Furthermore, the power source 7 is configured to provide the transducers 13 with a driving voltage that can be between 5V and 50V. Advantageously, a driving track is used for each haptic matrix or sub-matrix 5. Thus, each driving track groups together a plurality of transducers 13, which facilitates the feasibility of the haptic interface device 3. The power source 7 can be integrated into the haptic interface device 3 and can optionally provide a voltage to the control module 5 when the latter is also integrated into the haptic interface device 3.

Il est possible d’intégrer dans un vêtement 9 un dispositif d’interface haptique 3 comportant une relativement large surface de matrices ou sous-matrices haptiques 15. Ainsi, une grande surface d’émission acoustique peut émaner d’un utilisateur 11 portant un vêtement 9 dont lequel est intégré un tel dispositif d’interface haptique. Ceci induit une augmentation de la puissance acoustique émise et donc une augmentation de la sensation de touché ressentie par l’utilisateur et/ou ses collaborateurs. Ceci induit également une augmentation du volume d’une zone d’utilisation et de la taille des contours des simulations haptiques impliquant ainsi des plus grands volumes de zones d’interaction en surface et en profondeur.It is possible to integrate into a garment 9 a haptic interface device 3 comprising a relatively large surface area of haptic matrices or sub-matrices 15. Thus, a large acoustic emission surface area can emanate from a user 11 wearing a garment 9 in which such a haptic interface device is integrated. This induces an increase in the emitted acoustic power and therefore an increase in the sensation of touch felt by the user and/or his colleagues. This also induces an increase in the volume of a zone of use and the size of the contours of the haptic simulations, thus involving larger volumes of interaction zones on the surface and in depth.

Il est à noter que le système de réalité étendue 1 peut être utilisé par plusieurs utilisateurs 11, chacun étant équipé d'un dispositif d'interface haptique 3, formant ainsi collectivement un espace d'interaction haptique enrichi au sein de leur environnement commun. Lorsque plusieurs utilisateurs sont équipés de ces dispositifs d'interface haptique 3, ils bénéficient de la possibilité d'interactions dynamiques entre eux, avec leur environnement immédiat, ou encore avec des entités virtuelles telles que des objets optiques. Cette configuration multimodale favorise une expérience collaborative et immersive où l'interaction tactile, soit entre les utilisateurs, soit avec des éléments virtuels ou réels est rendue possible.It should be noted that the extended reality system 1 can be used by several users 11, each being equipped with a haptic interface device 3, thus collectively forming an enriched haptic interaction space within their common environment. When several users are equipped with these haptic interface devices 3, they benefit from the possibility of dynamic interactions between themselves, with their immediate environment, or even with virtual entities such as optical objects. This multimodal configuration promotes a collaborative and immersive experience where tactile interaction, either between users or with virtual or real elements is made possible.

Une première application du système de réalité étendue 1 peut être la génération d’une sensation unidirectionnelle de touché sans contact d’un utilisateur 11 portant un dispositif d’interface haptique embarqué 3, envers une autre personne ou utilisateur. Cette sensation de touché peut être bidirectionnelle au cas où l’autre utilisateur porte également un dispositif d’interface haptique embarqué 3.A first application of the extended reality system 1 may be the generation of a unidirectional touch sensation without contact from a user 11 wearing an on-board haptic interface device 3, towards another person or user. This touch sensation may be bidirectional in case the other user also wears an on-board haptic interface device 3.

A titre d’exemple, un membre d’une équipe médicale portant des vêtements 9 intégrant un dispositif d’interface haptique embarqué 3, peut générer une sensation de touché sur un patient sans que cela soit fait avec un contact direct. Un autre exemple est un patient alité ne pouvant pas bouger et portant un dispositif d’interface haptique embarqué 3 peut actionner à distance une fonction spécifique sur un objet qu’il ne peut pas atteindre ou toucher.For example, a member of a medical team wearing clothing 9 incorporating an onboard haptic interface device 3 can generate a sensation of touch on a patient without this being done with direct contact. Another example is a bedridden patient who cannot move and who is wearing an onboard haptic interface device 3 can remotely activate a specific function on an object that he cannot reach or touch.

LaFIG. 5illustre de manière très schématique un système de réalité étendue, selon un autre mode de réalisation préféré de l’invention.There FIG. 5 very schematically illustrates an extended reality system, according to another preferred embodiment of the invention.

Selon ce mode de réalisation, le système de réalité étendue 1 comporte un dispositif de réalité étendue 31, qui peut être portatif ou non-portatif, en plus du dispositif d’interface haptique embarqué 3. Le dispositif de réalité étendue 31 comporte un module d’affichage 33 configuré pour afficher une image 2D ou 3D représentative d’un objet optique virtuel.According to this embodiment, the extended reality system 1 comprises an extended reality device 31, which may be portable or non-portable, in addition to the on-board haptic interface device 3. The extended reality device 31 comprises a display module 33 configured to display a 2D or 3D image representative of a virtual optical object.

Selon ce mode de réalisation, le dispositif d’interface haptique embarqué 3 est configuré pour être connectable (par exemple sans fil) au dispositif de réalité étendue 31. Par exemple, le dispositif de réalité étendue 31 et le dispositif d’interface haptique embarqué 3 peuvent chacun comporter un module de communication 35a, 35b leur permettant de communiquer entre eux.According to this embodiment, the on-board haptic interface device 3 is configured to be connectable (for example wirelessly) to the extended reality device 31. For example, the extended reality device 31 and the on-board haptic interface device 3 may each comprise a communication module 35a, 35b allowing them to communicate with each other.

Par ailleurs, le module de contrôle 5 peut être intégré dans l’un et/ou l’autre des dispositifs de réalité étendue 33 et d’interface haptique embarqué 3.Furthermore, the control module 5 can be integrated into one and/or the other of the extended reality devices 33 and the on-board haptic interface 3.

En variante, le module de contrôle 5 peut être compris dans un dispositif déporté (non représenté) configuré pour commander à distance via des signaux de contrôle les transducteurs ultrasonores 9 du dispositif d’interface haptique embarqué 3 et/ou du dispositif de réalité étendue 31. A titre d’exemple, le dispositif déporté peut être un téléphone portable comportant des applications de contrôle haptique et d’affichage configurées pour commander le dispositif d’interface haptique embarqué 3 et le dispositif de réalité étendue 31.Alternatively, the control module 5 may be included in a remote device (not shown) configured to remotely control via control signals the ultrasonic transducers 9 of the on-board haptic interface device 3 and/or the extended reality device 31. By way of example, the remote device may be a mobile phone comprising haptic control and display applications configured to control the on-board haptic interface device 3 and the extended reality device 31.

Par ailleurs, une ou plusieurs sources d’alimentations 7a, 7b est(sont) configurée(s) pour fournir l’alimentation nécessaire au dispositif d’interface haptique embarqué 3, dispositif de réalité étendue 31, et au module de contrôle 5 (qui peut être compris dans l’un et/ou l’autre des dispositifs 3 et 31).Furthermore, one or more power sources 7a, 7b is (are) configured to provide the power required for the on-board haptic interface device 3, extended reality device 31, and the control module 5 (which may be included in one and/or the other of the devices 3 and 31).

Le dispositif de réalité étendue 31 peut en outre comprendre un module de détection 37 adapté à détecter des éléments de l'environnement. Le module de contrôle 5 est configuré pour lire les données de sortie du module de détection 37 et modifier en conséquence la commande du module d’affichage 33 et des transducteurs ultrasonores 13.The extended reality device 31 may further comprise a detection module 37 adapted to detect elements of the environment. The control module 5 is configured to read the output data of the detection module 37 and accordingly modify the control of the display module 33 and the ultrasonic transducers 13.

A titre d'exemple, le module de détection 37 est configuré pour détecter la position de la main de l'utilisateur 11 de façon à détecter d'éventuelles interactions de l'utilisateur avec des objets optiques virtuels générés par le dispositif de réalité étendue 31, et modifier en conséquence les objets optiques virtuels et/ou les effets haptiques générés.By way of example, the detection module 37 is configured to detect the position of the hand of the user 11 so as to detect possible interactions of the user with virtual optical objects generated by the extended reality device 31, and to modify accordingly the virtual optical objects and/or the haptic effects generated.

Le module de détection 37 peut comprendre une caméra, un élément de détection à émission/réception d'infrarouges.The detection module 37 may comprise a camera, an infrared emission/reception detection element.

Dans un mode de réalisation préféré, le dispositif de réalité étendue 31 peut également comporter une pluralité de transducteurs ultrasonores 13. Dans ce cas, le module de détection 37 utilise un ou plusieurs des transducteurs ultrasonores 13 pour détecter des éléments de l'environnement. Par exemple, lors d'une phase de détection, certains transducteurs ultrasonores 13 peuvent être commandés pour générer un signal acoustique adapté à se réfléchir sur les mains de l'utilisateur, et d'autres transducteurs ultrasonores 13 peuvent être activés en réception pour lire le signal acoustique réfléchi. Ainsi, la main de l'utilisateur peut être localisée et imagée par le système de réalité étendue 31.In a preferred embodiment, the extended reality device 31 may also comprise a plurality of ultrasonic transducers 13. In this case, the detection module 37 uses one or more of the ultrasonic transducers 13 to detect elements of the environment. For example, during a detection phase, certain ultrasonic transducers 13 may be controlled to generate an acoustic signal adapted to be reflected on the hands of the user, and other ultrasonic transducers 13 may be activated in reception to read the reflected acoustic signal. Thus, the hand of the user can be located and imaged by the extended reality system 31.

Les transducteurs ultrasonores 13 utilisés pour la détection peuvent être les mêmes que ceux utilisés pour la génération de l'effet haptique. Dans ce cas, les phases de détection et les phases de génération d'un effet haptique peuvent être séquentielles. Alternativement, certains transducteurs ultrasonores 13 peuvent être dédiés à la détection de l'environnement et d'autres transducteurs peuvent être dédiés à la génération d'effets haptiques, auquel cas les phases de détection et les phases de génération d'objets virtuels peuvent être simultanées.The ultrasonic transducers 13 used for detection may be the same as those used for generating the haptic effect. In this case, the detection phases and the haptic effect generation phases may be sequential. Alternatively, some ultrasonic transducers 13 may be dedicated to detecting the environment and other transducers may be dedicated to generating haptic effects, in which case the detection phases and the virtual object generation phases may be simultaneous.

LaFIG. 6illustre de manière très schématique un système de réalité étendue selon laFIG. 5comportant un dispositif de réalité étendue portatif selon un mode de réalisation préféré de l’invention.There FIG. 6 illustrates in a very schematic way an extended reality system according to the FIG. 5 comprising a portable extended reality device according to a preferred embodiment of the invention.

Selon cet exemple, le dispositif de réalité étendue 31 est un dispositif portatif de type lunettes ou de type casque de réalité virtuelle ou augmentée ou mixte.According to this example, the extended reality device 31 is a portable device of the glasses type or of the virtual, augmented or mixed reality headset type.

Les lunettes de réalité étendue 131 comprennent une monture 133 destinée à être portée sur la tête de l’utilisateur. La monture 133 est munie d’un ou de deux écrans d’affichage(s) 135 destiné(s) à être disposé(s) devant au moins un œil de l’utilisateur.The extended reality glasses 131 comprise a frame 133 intended to be worn on the user's head. The frame 133 is provided with one or two display screens 135 intended to be placed in front of at least one eye of the user.

A titre d’exemple non limitatif, on considère ici le cas d’un dispositif de réalité entendue 31 de type lunettes 131 comme celui décrit dans la demande FR3092680 de la demanderesse.As a non-limiting example, we consider here the case of a reality device 31 of the glasses 131 type like that described in the applicant's application FR3092680.

Les écrans d’affichages 135 sont des écrans partiellement transparents, transmettant vers les yeux de l’utilisateur tout ou partie des rayons visibles en provenance de la scène réelle située devant l’utilisateur. L’utilisateur voit alors des images affichées par les écrans 135 en superposition de la scène réelle dans son champ de vision.The display screens 135 are partially transparent screens, transmitting to the user's eyes all or part of the visible rays coming from the real scene located in front of the user. The user then sees images displayed by the screens 135 superimposed on the real scene in his field of vision.

Selon ce mode de réalisation, le module de contrôle 5 est configuré pour commander l’affichage d’images 2D ou 3D sur les écrans 135 en plus de la commande de l’émission des impulsions ultrasonores par les transducteurs 13 du dispositif d’interface haptique 3 selon la description relative à laFIG. 1et éventuellement ceux intégrés sur les lunettes 131. En particulier, le module de contrôle 5 en coopération avec le module de détection 37 peut localiser les mains de l'utilisateur.According to this embodiment, the control module 5 is configured to control the display of 2D or 3D images on the screens 135 in addition to controlling the emission of ultrasonic pulses by the transducers 13 of the haptic interface device 3 according to the description relating to the FIG. 1 and possibly those integrated on the glasses 131. In particular, the control module 5 in cooperation with the detection module 37 can locate the user's hands.

Plus particulièrement, le module de contrôle 5 est configuré pour commander l’affichage d’un objet virtuel optique et d’un objet virtuel haptique de sorte que les deux objets se superposent au moins à l’endroit où les mains de l’utilisateur sont localisées. En effet, la position relative des transducteurs ultrasonores 13 intégrés dans le vêtement 9 ou les lunettes 131 de l’utilisateur 11 par rapport aux écrans d’affichage 135 peut être facilement prédéterminée. Il en résulte une détermination aisée à réaliser de la concordance entre l’objet virtuel optique et un objet virtuel haptique dynamique en fonction de la position des mains de l’utilisateur.More particularly, the control module 5 is configured to control the display of an optical virtual object and a haptic virtual object so that the two objects overlap at least at the location where the user's hands are located. Indeed, the relative position of the ultrasonic transducers 13 integrated in the clothing 9 or the glasses 131 of the user 11 relative to the display screens 135 can be easily predetermined. This results in an easy determination to be made of the concordance between the optical virtual object and a dynamic haptic virtual object as a function of the position of the user's hands.

Ainsi, la vision et la sensation de toucher des objets virtuels peuvent être réalisées en harmonie quel que soit le lieu d’utilisation du système de réalité étendue.Thus, the vision and the sensation of touching virtual objects can be achieved in harmony regardless of where the extended reality system is used.

LaFIG. 7illustre très schématiquement une application du système de réalité étendue, selon le mode de réalisation de laFIG. 6.There FIG. 7 illustrates very schematically an application of the extended reality system, according to the embodiment of the FIG. 6 .

Cette application concerne la projection d’un objet optique (hologramme) 19 par les lunettes de réalité étendue 131 portées par l’utilisateur 11 ainsi que la projection correspondante d’un objet haptique dynamique 191 par le dispositif d’interface haptique 3 intégré aux vêtements 9 de l’utilisateur 11. Par exemple, un soignant portant le dispositif d’interface haptique 3 et les lunettes de réalité étendue 131 peut projeter l’hologramme d’un mannequin de simulation médical et son correspondant haptique selon les positions des mains du soignant. Ceci permet au soignant de pratiquer une opération virtuelle sur ce mannequin de simulation.This application relates to the projection of an optical object (hologram) 19 by the extended reality glasses 131 worn by the user 11 as well as the corresponding projection of a dynamic haptic object 191 by the haptic interface device 3 integrated into the clothing 9 of the user 11. For example, a caregiver wearing the haptic interface device 3 and the extended reality glasses 131 can project the hologram of a medical simulation mannequin and its corresponding haptic according to the positions of the caregiver's hands. This allows the caregiver to perform a virtual operation on this simulation mannequin.

Selon un autre mode de réalisation, le dispositif de réalité étendue 31 est un dispositif externe. Dans ce cas, le dispositif d’interface haptique embarquée 3 peut être connecté sans fil (Wifi, Bluetooth, etc.) au moyen du module de communication 35a avec le dispositif de réalité étendue 31 externe. Une application du système de réalité étendue 1 selon ce mode de réalisation peut être la projection d’un hologramme par le dispositif de réalité étendue 31 externe et la génération par le dispositif d’interface haptique embarqué 3 porté par un utilisateur d’une sensation haptique sur les doigts de l’utilisateur. Par exemple, le dispositif de réalité étendue 31 externe projette sur une table ou une pièce un plan holographique en 3D. Le dispositif d’interface haptique embarqué 3 intégré aux vêtements d’un utilisateur 11 génère une sensation haptique sur les doigts de l’utilisateur qui aura alors la sensation de réellement toucher le plan holographique.According to another embodiment, the extended reality device 31 is an external device. In this case, the on-board haptic interface device 3 can be connected wirelessly (Wifi, Bluetooth, etc.) by means of the communication module 35a with the extended reality device 31 external. An application of the extended reality system 1 according to this embodiment may be the projection of a hologram by the external extended reality device 31 and the generation by the onboard haptic interface device 3 worn by a user of a haptic sensation on the user's fingers. For example, the external extended reality device 31 projects a 3D holographic plane onto a table or a room. The onboard haptic interface device 3 integrated into the clothing of a user 11 generates a haptic sensation on the user's fingers who will then have the sensation of actually touching the holographic plane.

Claims (11)

Système de réalité étendue comportant un dispositif d’interface haptique embarqué (3) adapté pour être intégré dans un article d’habillement (9) destiné à être porté par un utilisateur (11), le dispositif d’interface haptique (3) comprenant un ensemble de transducteurs ultrasonores (13) commandables par un module de contrôle (5) pour générer un espace d’interaction haptique dans au moins une partie de l’environnement de l’utilisateur portant ledit dispositif d’interface haptique embarqué.Extended reality system comprising an on-board haptic interface device (3) adapted to be integrated into an item of clothing (9) intended to be worn by a user (11), the haptic interface device (3) comprising a set of ultrasonic transducers (13) controllable by a control module (5) to generate a haptic interaction space in at least part of the environment of the user wearing said on-board haptic interface device. Système selon la revendication 1, caractérisé en ce qu’il comporte un dispositif de réalité étendue (31) comprenant un module d’affichage (33) configuré pour afficher une image représentative d’un objet optique virtuel, et en ce que le dispositif d’interface haptique embarqué (3) est configuré pour être connectable audit dispositif de réalité étendue (31).System according to claim 1, characterized in that it comprises an extended reality device (31) comprising a display module (33) configured to display an image representative of a virtual optical object, and in that the on-board haptic interface device (3) is configured to be connectable to said extended reality device (31). Système selon la revendication 2, caractérisé en ce que le dispositif de réalité étendue (31) est un dispositif portatif destiné à être porté sur la tête de l’utilisateur, le module d’affichage (33) du dispositif portatif de réalité étendue (31) comprenant au moins un écran d’affichage destiné à être disposé devant au moins un œil de l’utilisateur, l’écran d’affichage étant commandable par le module de contrôle (5).System according to claim 2, characterized in that the extended reality device (31) is a portable device intended to be worn on the user's head, the display module (33) of the extended reality portable device (31) comprising at least one display screen intended to be placed in front of at least one eye of the user, the display screen being controllable by the control module (5). Système selon la revendication 2 ou 3, caractérisé en ce que le module de contrôle (5) est intégré dans l’interface haptique embarquée (3) et/ou dans le dispositif de réalité étendue (31).System according to claim 2 or 3, characterized in that the control module (5) is integrated into the on-board haptic interface (3) and/or into the extended reality device (31). Système selon l’une quelconque des revendications 2 à 4, caractérisé en ce que le module de contrôle (5) est compris dans un dispositif déporté configuré pour commander à distance les transducteurs ultrasonores (13) et/ou le module d’affichage (33) via des signaux de contrôle.System according to any one of claims 2 to 4, characterized in that the control module (5) is included in a remote device configured to remotely control the ultrasonic transducers (13) and/or the display module. (33) via control signals. Système selon l’une quelconque des revendications 2 à 5, caractérisé en ce que le dispositif de réalité étendue (31) comporte un module de détection (37) adapté pour détecter au moins une main de l’utilisateur.System according to any one of claims 2 to 5, characterized in that the extended reality device (31) comprises a detection module (37) adapted to detect at least one hand of the user. Système selon la revendication 6, caractérisé en ce que le module de contrôle (5) est configuré pour lire les données de sortie du module de détection (37) et modifier en conséquence la commande du module d’affichage (33) et des transducteurs ultrasonores (13). System according to claim 6, characterized in that the control module (5) is configured to read the output data of the detection module (37) and accordingly modify the control of the display module (33) and the ultrasonic transducers (13). Système selon l’une quelconque des revendications précédentes, caractérisé en ce que les transducteurs ultrasonores (13) sont arrangés en un ensemble de matrices ou sous-matrices haptiques (15), et en ce que le module de contrôle (5) est configuré pour commander l’émission d’impulsions ultrasonores des sous-matrices haptiques (15) avec des déphasages entre les différentes sous-matrices haptiques (15) de façon à focaliser les ondes émises en un point donné de l’espace haptique.System according to any one of the preceding claims, characterized in that the ultrasonic transducers (13) are arranged in a set of haptic matrices or sub-matrices (15), and in that the control module (5) is configured to control the emission of ultrasonic pulses from the haptic sub-matrices (15) with phase shifts between the different haptic sub-matrices (15) so as to focus the emitted waves at a given point in the haptic space. Système selon l’une quelconque des revendications précédentes, caractérisé en ce que les transducteurs ultrasonores (13) sont des transducteurs piézoélectriques de type PMUT arrangés en un ensemble de matrices haptiques.System according to any one of the preceding claims, characterized in that the ultrasonic transducers (13) are PMUT type piezoelectric transducers arranged in a set of haptic matrices. Système selon l’une quelconque des revendications précédentes, caractérisé en ce que chaque transducteur ultrasonore (13) comprend une membrane (23) flexible suspendue sur un support rigide (25) et un élément de conversion piézoélectrique (27) fixé sur la membrane flexible.System according to any one of the preceding claims, characterized in that each ultrasonic transducer (13) comprises a flexible membrane (23) suspended on a rigid support (25) and a piezoelectric conversion element (27) fixed on the flexible membrane. Système selon l’une quelconque des revendications précédentes, caractérisé en ce qu'un ensemble de dispositifs d'interfaces haptiques est adapté pour être porté par un ensemble correspondant d'utilisateurs, générant ainsi au moins un espace d'interaction haptique dans l'environnement dudit ensemble d'utilisateurs.System according to any one of the preceding claims, characterized in that a set of haptic interface devices is adapted to be worn by a corresponding set of users, thus generating at least one haptic interaction space in the environment of said set of users.
FR2403254A 2024-03-29 2024-03-29 EXTENDED REALITY SYSTEM Pending FR3160785A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2403254A FR3160785A1 (en) 2024-03-29 2024-03-29 EXTENDED REALITY SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2403254A FR3160785A1 (en) 2024-03-29 2024-03-29 EXTENDED REALITY SYSTEM
FR2403254 2024-03-29

Publications (1)

Publication Number Publication Date
FR3160785A1 true FR3160785A1 (en) 2025-10-03

Family

ID=91738863

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2403254A Pending FR3160785A1 (en) 2024-03-29 2024-03-29 EXTENDED REALITY SYSTEM

Country Status (1)

Country Link
FR (1) FR3160785A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190369731A1 (en) * 2018-06-02 2019-12-05 Harman International Industries, Incorporated Haptics device for producing directional sound and haptic sensations
US20200257366A1 (en) * 2019-02-08 2020-08-13 Commissariat à l'énergie atomique et aux énergies alternatives Virtual, augmented, or mixed reality device
US11347312B1 (en) * 2019-09-23 2022-05-31 Apple Inc. Ultrasonic haptic output devices
US20230251720A1 (en) * 2017-12-22 2023-08-10 Ultrahaptics Ip Ltd Human Interactions with Mid-Air Haptic Systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230251720A1 (en) * 2017-12-22 2023-08-10 Ultrahaptics Ip Ltd Human Interactions with Mid-Air Haptic Systems
US20190369731A1 (en) * 2018-06-02 2019-12-05 Harman International Industries, Incorporated Haptics device for producing directional sound and haptic sensations
US20200257366A1 (en) * 2019-02-08 2020-08-13 Commissariat à l'énergie atomique et aux énergies alternatives Virtual, augmented, or mixed reality device
FR3092680A1 (en) 2019-02-08 2020-08-14 Commissariat A L'energie Atomique Et Aux Energies Alternatives Virtual, augmented or mixed reality device
US11347312B1 (en) * 2019-09-23 2022-05-31 Apple Inc. Ultrasonic haptic output devices

Similar Documents

Publication Publication Date Title
EP3734421B1 (en) Device for virtual, augmented or mixed reality
EP2859428B1 (en) Time-reversal tactile stimulation interface
CN105934227B (en) Audio Navigation Aid
JP6557730B2 (en) Method and device for irradiating light for photographing iris
EP2981879B1 (en) Device for contactless interaction with an electronic and/or computer apparatus, and apparatus equipped with such a device
CN114341747B (en) Light Field Displays for Mobile Devices
US20150199025A1 (en) Object detection and tracking for providing a virtual device experience
US20100238184A1 (en) Method and apparatus for three-dimensional visualization in mobile devices
FR2964761A1 (en) HAPTIC INTERACTION DEVICE AND METHOD FOR GENERATING HAPTIC AND SOUND EFFECTS
KR20160109681A (en) Method and device for irradiating light used to capture iris
FR2882600A1 (en) Virtual keyboard apparatus for e.g. personal digital assistant, has signal processor with output providing data corresponding to determined location of vibration detected by vibration transducer matrix that is in contact with sound surface
FR2851347A1 (en) Man-machine interface device for use in vehicle control panel, has touch screen moved with respect to case by actuator based on displacement patterns controlled by analysis and treatment unit to produce touch differential effects
EP3729241B1 (en) Areal device offering improved localized deformation
Maeda et al. Hapticaid: Haptic experiences system using mobile platform
FR3095875A1 (en) TOUCH INTERFACE OFFERING VIBROTACTILE FEEDBACK WITH IMPROVED LOCATION
US12257393B2 (en) Methods, systems, apparatuses, and devices for facilitating stress-adaptive virtual exerience stations
FR3160785A1 (en) EXTENDED REALITY SYSTEM
WO2019122762A1 (en) Areal device offering improved localized deformation
JP2025501092A (en) Mixed reality optical system using microphosphor and lens element arrays in curved waveguides
WO2018141928A1 (en) Method and system for moving a virtual character in a virtual environment
WO2023147996A1 (en) Orientation assistance system comprising means for acquiring a real or virtual visual environment, non-visual human-machine interface means and means for processing the digital representation of said visual environment.
WO2017149254A1 (en) Man/machine interface with 3d graphics applications
FR3066841A1 (en) METHOD FOR CONTROLLING A NOMAD DEVICE
FR2971864A1 (en) Virtual reality equipment i.e. immersive virtual reality environment equipment, for virtual reality interaction with human-machine interface car, has contact device with touch pad positioned at point where interface is intended to appear
FR2879885A1 (en) Asymmetric acoustic waves transmitting and receiving piezoelectric plate for e.g. silverer, has sensors stuck oppositely and on both sides of plate with their electric polarization vectors oriented asymmetrically/symmetrically wrt plane

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20251003