FR3160785A1 - Systeme de réalité etendue - Google Patents
Systeme de réalité etendueInfo
- Publication number
- FR3160785A1 FR3160785A1 FR2403254A FR2403254A FR3160785A1 FR 3160785 A1 FR3160785 A1 FR 3160785A1 FR 2403254 A FR2403254 A FR 2403254A FR 2403254 A FR2403254 A FR 2403254A FR 3160785 A1 FR3160785 A1 FR 3160785A1
- Authority
- FR
- France
- Prior art keywords
- haptic
- extended reality
- user
- haptic interface
- interface device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
L’invention concerne un système de réalité étendue comportant un dispositif d’interface haptique embarqué (3) adapté pour être intégré dans un article d’habillement destiné à être porté par un utilisateur, le dispositif d’interface haptique (3) comprenant un ensemble de transducteurs ultrasonores (13) commandables par un module de contrôle (5) pour générer un espace d’interaction haptique dans au moins une partie de l’environnement de l’utilisateur portant ledit dispositif d’interface haptique embarqué.
Figure pour l’abrégé : Figure 1A.
Description
La présente invention concerne le domaine de la réalité étendue et plus particulièrement, celui des dispositifs haptiques qui peuvent lui être associés.
Un système de réalité étendue est une interface d’interaction en temps réel entre le monde réel et des effets physiques créés artificiellement permettant d’augmenter notre perception ou action sur notre environnement. Les effets physiques peuvent être des signaux visuels pour créer des images, des signaux sonores, ou des impulsions ultrasonores pour créer des sensations haptiques.
On connaît dans l’art antérieur des systèmes haptiques permettant de créer, pour un utilisateur, une sensation de toucher dans un espace fixe prédéfini tel à l’intérieur d’un gant. Un tel système comporte un ensemble de transducteurs ultrasonores commandables pour générer des impulsions ultrasonores. Un circuit de contrôle commande les transducteurs en émission avec des déphasages entre les différents transducteurs de manière à focaliser les ondes émises en un point de focalisation donné de l’espace prédéfini. Ceci permet de générer, au voisinage du point de focalisation, une pression suffisamment forte pour être ressentie par l’utilisateur. Différents points de focalisation peuvent être successivement balayés à une vitesse relativement élevée de façon à générer dans l’espace prédéfini une distribution de pressions perceptibles par l’utilisateur.
Toutefois, il faut définir au préalable une zone fixe correspondant à l’ensemble des points de focalisation accessibles par les transducteurs pour que l’utilisateur puisse bénéficier des sensations haptiques.
L’objet de la présente invention est de proposer un système de réalité étendue comportant une interface haptique remédiant aux inconvénients précités, en particulier en ne limitant pas les sensations haptiques dans un espace délimité tout en augmentant les simulations haptiques ressenties par l’utilisateur.
Cet objectif est atteint avec un système de réalité étendue comportant un dispositif d’interface haptique embarqué adapté pour être intégré dans un article d’habillement destiné à être porté par un utilisateur, le dispositif d’interface haptique comprenant un ensemble de transducteurs ultrasonores commandables par un module de contrôle pour générer dans l’air un espace d’interaction haptique dans au moins une partie de l’environnement de l’utilisateur portant ledit dispositif d’interface haptique embarqué.
Ce système permet de créer un espace de configuration haptique quel que soit le lieu d’utilisation. Le système permet aussi d’avoir une grande surface d’émission acoustique émanant de l’utilisateur portant le dispositif haptique.
Selon un mode de réalisation, le système comporte un dispositif de réalité étendue comprenant un module d’affichage configuré pour afficher une image représentative d’un objet optique virtuel, et en ce que le dispositif d’interface haptique embarqué est configuré pour être connectable (par exemple sans fil) audit dispositif de réalité entendue.
Avantageusement, le dispositif de réalité étendue est un dispositif portatif destiné à être porté sur la tête de l’utilisateur, le module d’affichage du dispositif portatif de réalité étendue comprenant au moins un écran d’affichage destiné à être disposé devant au moins un œil de l’utilisateur, l’écran d’affichage étant commandable par le module de contrôle.
L’utilisation de l’interface haptique en association avec le port de dispositif portatif de réalité étendue permet de combiner la sensation haptique avec la vision optique permettant à l’utilisateur une plus grande immersion dans son expérience de réalité étendue, virtuelle, augmentée ou mixte. En outre, la vision et la sensation de touché sont permises quel que soit le lieu d’utilisation du système.
Selon une particularité de réalisation, le module de contrôle est intégré dans l’interface haptique embarquée et/ou dans le dispositif de réalité étendue.
Selon une variante, le module de contrôle est compris dans un dispositif déporté configuré pour commander à distance les transducteurs ultrasonores et/ou le module d’affichage via des signaux de contrôle.
Le dispositif déporté peut être un téléphone portable comportant une application de contrôle haptique et/ou de contrôle d’affichage.
Avantageusement, le dispositif de réalité étendue comporte un module de détection adapté pour détecter au moins une main de l’utilisateur.
Avantageusement, le module de contrôle est configuré pour lire les données de sortie du module de détection et modifier en conséquence la commande du module d’affichage et des transducteurs ultrasonores.
Avantageusement, les transducteurs ultrasonores sont arrangés en un ensemble de matrices ou sous-matrices haptiques, le module de contrôle étant configuré pour commander l’émission d’impulsions ultrasonores des sous-matrices haptiques avec des déphasages entre les différentes sous-matrices haptiques de façon à focaliser les ondes émises en un point donné de l’espace haptique.
Selon un mode de réalisation, les transducteurs ultrasonores sont des transducteurs piézoélectriques de type PMUT arrangés en un ensemble de matrices haptiques. Chaque transducteur ultrasonore PMUT comprend une membrane flexible suspendue sur un support rigide et un élément de conversion piézoélectrique fixé sur la membrane flexible.
Avantageusement, un ensemble de dispositifs d'interfaces haptiques est adapté pour être porté par un ensemble correspondant d'utilisateurs, générant ainsi au moins un espace d'interaction haptique dans l'environnement dudit ensemble d'utilisateurs.
Ainsi, les utilisateurs peuvent interagir les uns avec les autres, avec leur environnement, ou avec des objets optiques virtuels.
La présente invention sera mieux comprise à la lecture de la description d’exemples de réalisation donnés à titre purement indicatif et nullement limitatif, en faisant référence aux dessins annexés sur lesquels :
LesFIG. 1 etFIG. 1 illustrent de manière schématique un système de réalité étendue comportant un dispositif d’interface haptique embarqué, selon un mode de réalisation de l’invention ;
LaFIG. 2 illustre de manière schématique un transducteur ultrasonore de l’interface haptique de laFIG. 1 ;
LaFIG. 3 illustre, une courbe de pression en Pa en fonction de la distance en cm pour un transducteur PMUT en silicium ;
LaFIG. 4 illustre de manière très schématique la commande des transducteurs ultrasonores par le module de contrôle ;
LaFIG. 5 illustre de manière très schématique un système de réalité étendue, selon un autre mode de réalisation préféré de l’invention ;
LaFIG. 6 illustre de manière schématique un système de réalité étendue selon laFIG. 5 , comportant un dispositif de réalité étendue portatif selon un mode de réalisation préféré de l’invention ; et
LaFIG. 7 illustre schématiquement une application du système de réalité étendue, selon le mode de réalisation de laFIG. 5 .
EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERS
Le concept à la base de l’invention est de proposer un dispositif d’interface haptique embarqué sur l’utilisateur de sorte que la source acoustique émane de l’utilisateur lui-même.
Les Figs. 1A et 1B illustrent de manière très schématique un système de réalité étendue comportant un dispositif d’interface haptique embarqué, selon un mode de réalisation de l’invention.
Le système de réalité étendue 1 comporte un dispositif d’interface haptique embarqué 3, un module ou circuit de contrôle 5, et une source d’alimentation 7.
Le dispositif d’interface haptique embarqué 3 est adapté pour être intégré dans un article d’habillement 9 (voirFIG. 1 ) destiné à être porté par un utilisateur 11. On entend par article d’habillement tout ce qui peut être porté par un utilisateur y compris tout élément (par exemple, bretelles, plastron, etc.) ajouté par-dessus les vêtements portés par l’utilisateur. Le dispositif d’interface haptique embarqué 3 comprend un ensemble de transducteurs ultrasonores 13.
Selon un aspect d’un mode de réalisation, les transducteurs ultrasonores 13 sont arrangés en un ensemble de matrices ou sous-matrices haptiques 15 disposées sur un support 17 en tissus ou en toute autre matière adaptée pour être intégrés dans un article d’habillement 9 pouvant être porté par l’utilisateur 11.
Les transducteurs ultrasonores 13 sont commandables par le module de contrôle 5 pour générer dans l’air des impulsions ultrasonores formant un espace d’interaction haptique 19 dans au moins une partie de l’environnement de l’utilisateur 11 portant le dispositif d’interface haptique embarqué 3. La fréquence d’impulsions ultrasonores peut être comprise entre 20 kHz et 10 THz, de préférence comprises entre 20kHz et 100 MHz.
L’espace d’interaction haptique 19 forme ainsi une variété tridimensionnelle (au sens géométrique du terme) à laquelle sont associées des pressions directionnelles à effet haptique émanant de l’utilisateur 11 portant le dispositif d’interface haptique embarqué 3.
Le module de contrôle 5 est un circuit électronique qui peut être intégré dans le dispositif d’interface haptique 3. En variante, le module de contrôle 5 peut être une application logicielle (ou également un circuit) comprise dans un dispositif extérieur en lien ou en communication avec le dispositif d’interface haptique 3.
Selon un aspect d’un mode de réalisation, les transducteurs ultrasonores 13 sont des transducteurs piézoélectriques ultrasonore micro-usiné, dit PMUT (Piezoelectric Micromachined Ultrasonic Transducers). Les transducteurs PMUT peuvent être en céramique ou en silicium. D’autres types de transducteurs peuvent être utilisés.
LaFIG. 2 illustre de manière schématique un transducteur ultrasonore de l’interface haptique de laFIG. 1 .
Cet exemple concerne un transducteur PMUT 13 comprenant une membrane flexible 23 suspendue par sa périphérie sur un support rigide 25. Le support rigide 25 est par exemple en silicium ou en céramique. La membrane 23 est fixée, par sa face inférieure, sur la face supérieure du support 25. La membrane 23 peut avoir une forme circulaire, rectangulaire, ou carrée.
Le transducteur PMUT 13 comprend en outre un élément de conversion piézoélectrique 27 fixé sur la membrane, du côté de sa face supérieure. L’élément de conversion piézoélectrique comprend deux électrodes 27a, 27b.
L’application d’une tension entre les électrodes 27a, 27b de l’élément de conversion piézoélectrique 27 provoque une déformation de la membrane 23 permettant de générer une onde acoustique ultrasonore. A l’inverse, une déformation de la membrane 23 génère une tension qui peut être utilisée pour mesurer une onde acoustique ultrasonore reçue par le transducteur 13. Ce genre de transducteurs est décrit en détail dans la demande de brevet FR3092680 de la demanderesse.
Un transducteur PMUT 13 peut fonctionner selon différentes fréquences ultrasonores en fonction de sa taille ou de la technologie utilisée (silicium, céramique ou autre). A titre d’exemple non limitatif, on considère ici le cas d’un transducteur PMUT 13 de type silicium, fonctionnant à 100kHz.
En effet, laFIG. 3 illustre, la courbe de la pression en Pa en fonction de la distance en cm pour un transducteur PMUT en silicium.
Plus particulièrement, cette courbe est issue des mesures réalisées pour un transducteur PMUT 13 unitaire à 100kHz fonctionnant sous une tension de pilotage de 5V. Par exemple, la courbe montre que le transducteur PMUT 13 génère une pression acoustique de l’ordre de 0.15 Pa à une distance de 30 cm.
On notera que la pression acoustique augmente quasi-linéairement avec l’augmentation de la tension. Ainsi, pour une tension de pilotage de 48 V, le transducteur PMUT 13 génère une pression acoustique de l’ordre de 1.45 Pa à une distance de 30 cm.
En général, le seuil pour ressentir un effet haptique est autour de 200 Pa. Ainsi, pour obtenir un effet haptique à 30 cm, on peut utiliser environ 140 transducteurs PMUT sachant que les pressions s’ajoutent quasi-linéairement.
A titre indicatif, le diamètre d’un transducteur PMUT circulaire est de l’ordre de 800 µm pour un transducteur de type silicium et est de l’ordre de 5 mm pour un transducteur de type céramique. On notera que le diamètre dépend de la raideur de la membrane 23, liée à son épaisseur et ses matériaux constitutifs. Les diamètres considérés ci-dessus sont indicatifs et pris en guise d’exemple dans le dimensionnement d’une matrice haptique 15.
Ainsi, en utilisant des transducteurs PMUT de type silicium et pour un écart de l’ordre de 300 µm entre les membranes 23 des transducteurs 13 voisins, il résulte une matrice haptique 15 de l’ordre de 1.5 x 1.5 cm2ayant un effet haptique (i.e. 200 Pa) à une distance de 30 cm. On notera que l’écart de 300 µm entre membranes est un écart indicatif qui est suffisant pour permettre une solidité de la matrice tout en gardant les membranes proches les unes des autres.
Les dimensions des matrices ou sous-matrices haptiques 15 peuvent être déterminées selon les fréquences d’émission des transducteurs PMUT, de la technologie utilisée (silicium ou céramique), de la tension de pilotage de ceux-ci, et des spécificités d’applications.
Le tableau ci-dessous indique le dimensionnement de quelques configurations. La première colonne indique la technologie utilisée (silicium ou céramique), la deuxième colonne indique la surface de la matrice haptique, la troisième colonne indique la tension de pilotage, la quatrième colonne indique la distance de l’effet haptique (P=200 Pa), les cinquième et sixième colonnes indiquent les pressions ressenties à 30 cm et 50 cm respectivement, la septième colonne indique le nombre de transducteurs formant la matrice haptique, et la huitième colonne indique le diamètre de chaque transducteur.
Ainsi, selon l’application souhaité, on peut avoir une matrice haptique 15 de faible dimension, légère, et de faible tension de pilotage. En outre, le dispositif d’interface haptique 3 peut être dimensionné pour émettre une sensation haptique de quelques centimètres à plusieurs mètres en fonction de la tension de pilotage et de la surface des matrices haptiques utilisées.
LaFIG. 4 illustre de manière très schématique la commande des transducteurs ultrasonores par le module de contrôle.
Le module de contrôle 5 est configuré pour commander les matrices ou sous-matrices de transducteurs 13 avec des déphasages entre les différentes sous-matrices 15 de manière à focaliser les ondes émises en un point de focalisation 21 à distance de l’utilisateur. Cette distance peut par exemple être comprise entre 5 cm et 200 cm.
Ceci permet de générer, au voisinage du point de focalisation 21, une pression suffisamment forte pour être ressentie par l’utilisateur et/ou par un collaborateur dans son environnement. Différents points de focalisation peuvent être successivement balayés à une vitesse relativement élevée de façon à générer de manière dynamique une distribution de pressions perceptibles dans l’espace d’interaction haptique 19. L’espace d’interaction haptique 19 peut ainsi être assimilé à un objet haptique virtuel et dynamique.
Par ailleurs, la source d’alimentation 7 est configurée pour fournir aux transducteurs 13 une tension de pilotage pouvant être comprise entre 5V et 50V. Avantageusement, on utilise une piste de pilotage pour chaque matrice ou sous-matrice haptique 5. Ainsi, chaque piste de pilotage regroupe une pluralité de transducteurs 13 ce qui facilite la faisabilité du dispositif d’interface haptique 3. La source d’alimentation 7 peut être intégrée dans le dispositif d’interface haptique 3 et peut éventuellement fournir une tension au module de contrôle 5 lorsque ce dernier est également intégré dans le dispositif d’interface haptique 3.
Il est possible d’intégrer dans un vêtement 9 un dispositif d’interface haptique 3 comportant une relativement large surface de matrices ou sous-matrices haptiques 15. Ainsi, une grande surface d’émission acoustique peut émaner d’un utilisateur 11 portant un vêtement 9 dont lequel est intégré un tel dispositif d’interface haptique. Ceci induit une augmentation de la puissance acoustique émise et donc une augmentation de la sensation de touché ressentie par l’utilisateur et/ou ses collaborateurs. Ceci induit également une augmentation du volume d’une zone d’utilisation et de la taille des contours des simulations haptiques impliquant ainsi des plus grands volumes de zones d’interaction en surface et en profondeur.
Il est à noter que le système de réalité étendue 1 peut être utilisé par plusieurs utilisateurs 11, chacun étant équipé d'un dispositif d'interface haptique 3, formant ainsi collectivement un espace d'interaction haptique enrichi au sein de leur environnement commun. Lorsque plusieurs utilisateurs sont équipés de ces dispositifs d'interface haptique 3, ils bénéficient de la possibilité d'interactions dynamiques entre eux, avec leur environnement immédiat, ou encore avec des entités virtuelles telles que des objets optiques. Cette configuration multimodale favorise une expérience collaborative et immersive où l'interaction tactile, soit entre les utilisateurs, soit avec des éléments virtuels ou réels est rendue possible.
Une première application du système de réalité étendue 1 peut être la génération d’une sensation unidirectionnelle de touché sans contact d’un utilisateur 11 portant un dispositif d’interface haptique embarqué 3, envers une autre personne ou utilisateur. Cette sensation de touché peut être bidirectionnelle au cas où l’autre utilisateur porte également un dispositif d’interface haptique embarqué 3.
A titre d’exemple, un membre d’une équipe médicale portant des vêtements 9 intégrant un dispositif d’interface haptique embarqué 3, peut générer une sensation de touché sur un patient sans que cela soit fait avec un contact direct. Un autre exemple est un patient alité ne pouvant pas bouger et portant un dispositif d’interface haptique embarqué 3 peut actionner à distance une fonction spécifique sur un objet qu’il ne peut pas atteindre ou toucher.
LaFIG. 5 illustre de manière très schématique un système de réalité étendue, selon un autre mode de réalisation préféré de l’invention.
Selon ce mode de réalisation, le système de réalité étendue 1 comporte un dispositif de réalité étendue 31, qui peut être portatif ou non-portatif, en plus du dispositif d’interface haptique embarqué 3. Le dispositif de réalité étendue 31 comporte un module d’affichage 33 configuré pour afficher une image 2D ou 3D représentative d’un objet optique virtuel.
Selon ce mode de réalisation, le dispositif d’interface haptique embarqué 3 est configuré pour être connectable (par exemple sans fil) au dispositif de réalité étendue 31. Par exemple, le dispositif de réalité étendue 31 et le dispositif d’interface haptique embarqué 3 peuvent chacun comporter un module de communication 35a, 35b leur permettant de communiquer entre eux.
Par ailleurs, le module de contrôle 5 peut être intégré dans l’un et/ou l’autre des dispositifs de réalité étendue 33 et d’interface haptique embarqué 3.
En variante, le module de contrôle 5 peut être compris dans un dispositif déporté (non représenté) configuré pour commander à distance via des signaux de contrôle les transducteurs ultrasonores 9 du dispositif d’interface haptique embarqué 3 et/ou du dispositif de réalité étendue 31. A titre d’exemple, le dispositif déporté peut être un téléphone portable comportant des applications de contrôle haptique et d’affichage configurées pour commander le dispositif d’interface haptique embarqué 3 et le dispositif de réalité étendue 31.
Par ailleurs, une ou plusieurs sources d’alimentations 7a, 7b est(sont) configurée(s) pour fournir l’alimentation nécessaire au dispositif d’interface haptique embarqué 3, dispositif de réalité étendue 31, et au module de contrôle 5 (qui peut être compris dans l’un et/ou l’autre des dispositifs 3 et 31).
Le dispositif de réalité étendue 31 peut en outre comprendre un module de détection 37 adapté à détecter des éléments de l'environnement. Le module de contrôle 5 est configuré pour lire les données de sortie du module de détection 37 et modifier en conséquence la commande du module d’affichage 33 et des transducteurs ultrasonores 13.
A titre d'exemple, le module de détection 37 est configuré pour détecter la position de la main de l'utilisateur 11 de façon à détecter d'éventuelles interactions de l'utilisateur avec des objets optiques virtuels générés par le dispositif de réalité étendue 31, et modifier en conséquence les objets optiques virtuels et/ou les effets haptiques générés.
Le module de détection 37 peut comprendre une caméra, un élément de détection à émission/réception d'infrarouges.
Dans un mode de réalisation préféré, le dispositif de réalité étendue 31 peut également comporter une pluralité de transducteurs ultrasonores 13. Dans ce cas, le module de détection 37 utilise un ou plusieurs des transducteurs ultrasonores 13 pour détecter des éléments de l'environnement. Par exemple, lors d'une phase de détection, certains transducteurs ultrasonores 13 peuvent être commandés pour générer un signal acoustique adapté à se réfléchir sur les mains de l'utilisateur, et d'autres transducteurs ultrasonores 13 peuvent être activés en réception pour lire le signal acoustique réfléchi. Ainsi, la main de l'utilisateur peut être localisée et imagée par le système de réalité étendue 31.
Les transducteurs ultrasonores 13 utilisés pour la détection peuvent être les mêmes que ceux utilisés pour la génération de l'effet haptique. Dans ce cas, les phases de détection et les phases de génération d'un effet haptique peuvent être séquentielles. Alternativement, certains transducteurs ultrasonores 13 peuvent être dédiés à la détection de l'environnement et d'autres transducteurs peuvent être dédiés à la génération d'effets haptiques, auquel cas les phases de détection et les phases de génération d'objets virtuels peuvent être simultanées.
LaFIG. 6 illustre de manière très schématique un système de réalité étendue selon laFIG. 5 comportant un dispositif de réalité étendue portatif selon un mode de réalisation préféré de l’invention.
Selon cet exemple, le dispositif de réalité étendue 31 est un dispositif portatif de type lunettes ou de type casque de réalité virtuelle ou augmentée ou mixte.
Les lunettes de réalité étendue 131 comprennent une monture 133 destinée à être portée sur la tête de l’utilisateur. La monture 133 est munie d’un ou de deux écrans d’affichage(s) 135 destiné(s) à être disposé(s) devant au moins un œil de l’utilisateur.
A titre d’exemple non limitatif, on considère ici le cas d’un dispositif de réalité entendue 31 de type lunettes 131 comme celui décrit dans la demande FR3092680 de la demanderesse.
Les écrans d’affichages 135 sont des écrans partiellement transparents, transmettant vers les yeux de l’utilisateur tout ou partie des rayons visibles en provenance de la scène réelle située devant l’utilisateur. L’utilisateur voit alors des images affichées par les écrans 135 en superposition de la scène réelle dans son champ de vision.
Selon ce mode de réalisation, le module de contrôle 5 est configuré pour commander l’affichage d’images 2D ou 3D sur les écrans 135 en plus de la commande de l’émission des impulsions ultrasonores par les transducteurs 13 du dispositif d’interface haptique 3 selon la description relative à laFIG. 1 et éventuellement ceux intégrés sur les lunettes 131. En particulier, le module de contrôle 5 en coopération avec le module de détection 37 peut localiser les mains de l'utilisateur.
Plus particulièrement, le module de contrôle 5 est configuré pour commander l’affichage d’un objet virtuel optique et d’un objet virtuel haptique de sorte que les deux objets se superposent au moins à l’endroit où les mains de l’utilisateur sont localisées. En effet, la position relative des transducteurs ultrasonores 13 intégrés dans le vêtement 9 ou les lunettes 131 de l’utilisateur 11 par rapport aux écrans d’affichage 135 peut être facilement prédéterminée. Il en résulte une détermination aisée à réaliser de la concordance entre l’objet virtuel optique et un objet virtuel haptique dynamique en fonction de la position des mains de l’utilisateur.
Ainsi, la vision et la sensation de toucher des objets virtuels peuvent être réalisées en harmonie quel que soit le lieu d’utilisation du système de réalité étendue.
LaFIG. 7 illustre très schématiquement une application du système de réalité étendue, selon le mode de réalisation de laFIG. 6 .
Cette application concerne la projection d’un objet optique (hologramme) 19 par les lunettes de réalité étendue 131 portées par l’utilisateur 11 ainsi que la projection correspondante d’un objet haptique dynamique 191 par le dispositif d’interface haptique 3 intégré aux vêtements 9 de l’utilisateur 11. Par exemple, un soignant portant le dispositif d’interface haptique 3 et les lunettes de réalité étendue 131 peut projeter l’hologramme d’un mannequin de simulation médical et son correspondant haptique selon les positions des mains du soignant. Ceci permet au soignant de pratiquer une opération virtuelle sur ce mannequin de simulation.
Selon un autre mode de réalisation, le dispositif de réalité étendue 31 est un dispositif externe. Dans ce cas, le dispositif d’interface haptique embarquée 3 peut être connecté sans fil (Wifi, Bluetooth, etc.) au moyen du module de communication 35a avec le dispositif de réalité étendue 31 externe. Une application du système de réalité étendue 1 selon ce mode de réalisation peut être la projection d’un hologramme par le dispositif de réalité étendue 31 externe et la génération par le dispositif d’interface haptique embarqué 3 porté par un utilisateur d’une sensation haptique sur les doigts de l’utilisateur. Par exemple, le dispositif de réalité étendue 31 externe projette sur une table ou une pièce un plan holographique en 3D. Le dispositif d’interface haptique embarqué 3 intégré aux vêtements d’un utilisateur 11 génère une sensation haptique sur les doigts de l’utilisateur qui aura alors la sensation de réellement toucher le plan holographique.
Claims (11)
- Système de réalité étendue comportant un dispositif d’interface haptique embarqué (3) adapté pour être intégré dans un article d’habillement (9) destiné à être porté par un utilisateur (11), le dispositif d’interface haptique (3) comprenant un ensemble de transducteurs ultrasonores (13) commandables par un module de contrôle (5) pour générer un espace d’interaction haptique dans au moins une partie de l’environnement de l’utilisateur portant ledit dispositif d’interface haptique embarqué.
- Système selon la revendication 1, caractérisé en ce qu’il comporte un dispositif de réalité étendue (31) comprenant un module d’affichage (33) configuré pour afficher une image représentative d’un objet optique virtuel, et en ce que le dispositif d’interface haptique embarqué (3) est configuré pour être connectable audit dispositif de réalité étendue (31).
- Système selon la revendication 2, caractérisé en ce que le dispositif de réalité étendue (31) est un dispositif portatif destiné à être porté sur la tête de l’utilisateur, le module d’affichage (33) du dispositif portatif de réalité étendue (31) comprenant au moins un écran d’affichage destiné à être disposé devant au moins un œil de l’utilisateur, l’écran d’affichage étant commandable par le module de contrôle (5).
- Système selon la revendication 2 ou 3, caractérisé en ce que le module de contrôle (5) est intégré dans l’interface haptique embarquée (3) et/ou dans le dispositif de réalité étendue (31).
- Système selon l’une quelconque des revendications 2 à 4, caractérisé en ce que le module de contrôle (5) est compris dans un dispositif déporté configuré pour commander à distance les transducteurs ultrasonores (13) et/ou le module d’affichage (33) via des signaux de contrôle.
- Système selon l’une quelconque des revendications 2 à 5, caractérisé en ce que le dispositif de réalité étendue (31) comporte un module de détection (37) adapté pour détecter au moins une main de l’utilisateur.
- Système selon la revendication 6, caractérisé en ce que le module de contrôle (5) est configuré pour lire les données de sortie du module de détection (37) et modifier en conséquence la commande du module d’affichage (33) et des transducteurs ultrasonores (13).
- Système selon l’une quelconque des revendications précédentes, caractérisé en ce que les transducteurs ultrasonores (13) sont arrangés en un ensemble de matrices ou sous-matrices haptiques (15), et en ce que le module de contrôle (5) est configuré pour commander l’émission d’impulsions ultrasonores des sous-matrices haptiques (15) avec des déphasages entre les différentes sous-matrices haptiques (15) de façon à focaliser les ondes émises en un point donné de l’espace haptique.
- Système selon l’une quelconque des revendications précédentes, caractérisé en ce que les transducteurs ultrasonores (13) sont des transducteurs piézoélectriques de type PMUT arrangés en un ensemble de matrices haptiques.
- Système selon l’une quelconque des revendications précédentes, caractérisé en ce que chaque transducteur ultrasonore (13) comprend une membrane (23) flexible suspendue sur un support rigide (25) et un élément de conversion piézoélectrique (27) fixé sur la membrane flexible.
- Système selon l’une quelconque des revendications précédentes, caractérisé en ce qu'un ensemble de dispositifs d'interfaces haptiques est adapté pour être porté par un ensemble correspondant d'utilisateurs, générant ainsi au moins un espace d'interaction haptique dans l'environnement dudit ensemble d'utilisateurs.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2403254A FR3160785A1 (fr) | 2024-03-29 | 2024-03-29 | Systeme de réalité etendue |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2403254A FR3160785A1 (fr) | 2024-03-29 | 2024-03-29 | Systeme de réalité etendue |
| FR2403254 | 2024-03-29 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| FR3160785A1 true FR3160785A1 (fr) | 2025-10-03 |
Family
ID=91738863
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR2403254A Pending FR3160785A1 (fr) | 2024-03-29 | 2024-03-29 | Systeme de réalité etendue |
Country Status (1)
| Country | Link |
|---|---|
| FR (1) | FR3160785A1 (fr) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20190369731A1 (en) * | 2018-06-02 | 2019-12-05 | Harman International Industries, Incorporated | Haptics device for producing directional sound and haptic sensations |
| US20200257366A1 (en) * | 2019-02-08 | 2020-08-13 | Commissariat à l'énergie atomique et aux énergies alternatives | Virtual, augmented, or mixed reality device |
| US11347312B1 (en) * | 2019-09-23 | 2022-05-31 | Apple Inc. | Ultrasonic haptic output devices |
| US20230251720A1 (en) * | 2017-12-22 | 2023-08-10 | Ultrahaptics Ip Ltd | Human Interactions with Mid-Air Haptic Systems |
-
2024
- 2024-03-29 FR FR2403254A patent/FR3160785A1/fr active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20230251720A1 (en) * | 2017-12-22 | 2023-08-10 | Ultrahaptics Ip Ltd | Human Interactions with Mid-Air Haptic Systems |
| US20190369731A1 (en) * | 2018-06-02 | 2019-12-05 | Harman International Industries, Incorporated | Haptics device for producing directional sound and haptic sensations |
| US20200257366A1 (en) * | 2019-02-08 | 2020-08-13 | Commissariat à l'énergie atomique et aux énergies alternatives | Virtual, augmented, or mixed reality device |
| FR3092680A1 (fr) | 2019-02-08 | 2020-08-14 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Dispositif de réalité virtuelle, augmentée ou mixte |
| US11347312B1 (en) * | 2019-09-23 | 2022-05-31 | Apple Inc. | Ultrasonic haptic output devices |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP3734421B1 (fr) | Dispositif de réalité virtuelle, augmentée ou mixte | |
| EP2859428B1 (fr) | Interface de stimulation tactile par retournement temporel | |
| US9613262B2 (en) | Object detection and tracking for providing a virtual device experience | |
| JP7667980B2 (ja) | モバイルデバイス | |
| JP6557730B2 (ja) | 虹彩を撮影するための光を照射する方法及びそのデバイス | |
| EP2981879B1 (fr) | Dispositif pour interagir, sans contact, avec un appareil électronique et/ou informatique, et appareil équipé d'un tel dispositif | |
| US20100238184A1 (en) | Method and apparatus for three-dimensional visualization in mobile devices | |
| CN105934227A (zh) | 音频导航辅助 | |
| KR20160109681A (ko) | 홍채를 촬영하기 위하여 이용되는 광을 조사하는 방법 및 디바이스 | |
| EP2428879A1 (fr) | Dispositif d'interaction haptique et procédé de génération d'effets haptiques et sonores | |
| FR2882600A1 (fr) | Clavier virtuel acoustique, dispositif et procede. | |
| FR2851347A1 (fr) | Dispositif d'interface homme machine a retour d'information tactile pour dalle tactile | |
| EP3729241B1 (fr) | Dispositif surfacique offrant une deformation localisee amelioree | |
| US20190304191A1 (en) | Systems and methods to augment an appearance of physical object for an augmented reality experience | |
| Maeda et al. | Hapticaid: Haptic experiences system using mobile platform | |
| FR3160785A1 (fr) | Systeme de réalité etendue | |
| WO2019122762A1 (fr) | Dispositif surfacique offrant une deformation localisee amelioree | |
| WO2018141928A1 (fr) | Methode et systeme de deplacement d'un personnage virtuel dans un environnement virtuel | |
| EP3631608B1 (fr) | Procédé de commande d'un dispositif nomade | |
| WO2023147996A1 (fr) | Système d'aide à l'orientation comprenant des moyens d'acquisition d'un environnement visuel réel ou virtuel, des moyens d'interface homme-machine non visuelle et des moyens de traitement de la représentation numérique dudit environnement visuel. | |
| WO2017149254A1 (fr) | Dispositif d'interface homme machine avec des applications graphiques en trois dimensions | |
| FR2928468A1 (fr) | Dispositif pour une interaction non tactile avec une image ne reposant sur aucun support | |
| FR2971864A1 (fr) | Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle | |
| JP7770699B2 (ja) | 周囲環境情報伝達装置 | |
| FR2879885A1 (fr) | Dispositif interface emetteur et recepteur selectif d'ondes acoustiques antisymetriques de plaque |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PLFP | Fee payment |
Year of fee payment: 2 |
|
| PLSC | Publication of the preliminary search report |
Effective date: 20251003 |