[go: up one dir, main page]

FR3124280A1 - Module de calibration laser pour la réalité virtuelle et la réalité augmentée - Google Patents

Module de calibration laser pour la réalité virtuelle et la réalité augmentée Download PDF

Info

Publication number
FR3124280A1
FR3124280A1 FR2106469A FR2106469A FR3124280A1 FR 3124280 A1 FR3124280 A1 FR 3124280A1 FR 2106469 A FR2106469 A FR 2106469A FR 2106469 A FR2106469 A FR 2106469A FR 3124280 A1 FR3124280 A1 FR 3124280A1
Authority
FR
France
Prior art keywords
laser
environment
user
points
allowing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2106469A
Other languages
English (en)
Inventor
Malik Bouteldja
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR2106469A priority Critical patent/FR3124280A1/fr
Publication of FR3124280A1 publication Critical patent/FR3124280A1/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

L’invention concerne un dispositif équipé d’un laser autonome se fixant sur un périphérique de réalité virtuelle ou de réalité augmentée, permettant la projection d’un rayon laser dans l’environnement réel afin de spatialiser des points de correspondance entre le monde réel et l’environnement virtuel. Figure pour l’abrégé : Fig 1

Description

Module de calibration laser pour la réalité virtuelle et la réalité augmentée
La présente invention concerne un module permettant la génération de points spatialisés se fixant sur un périphérique de réalité virtuelle ou de réalité augmentée ( ). Ce module utilise la projection d’un rayon laser dans l’environnement réel afin de définir des points de correspondance entre le monde réel et un environnement virtuel.
Les périphériques de réalité virtuelle ou de réalité augmentée actuellement sur le marché sont en mesure de connaitre leur position en se spatialisant dans l’environnement réel, mais ils ne sont pas en mesure de déterminer précisément un point de référence entre ce monde réel et un monde virtuel.
A ce jour, il existe deux solutions pour définir une correspondance spatialisée entre le monde réel et le monde virtuel.
La première solution consiste à l’utilisation de marqueurs visuels. Cette solution contraint l’utilisateur à devoir placer au préalable des marqueurs visuels sur le modèle réel. Ces marqueurs ne doivent pas être situés loin du champ visuel de l’utilisateur pour être efficaces.
La seconde solution consiste à l’utilisation d’un traitement logiciel du flux vidéo du périphérique de réalité virtuelle ou de réalité augmentée. Cette solution fonctionne sur la détection des contours de l’objet et demande une préparation du modèle 3D. Pour le bon fonctionnement de cette solution, l’utilisateur doit pouvoir tourner autour de l’objet. Cela ne fonctionne pas dans un environnement où l’utilisateur est placé au centre.
Ce module de calibration laser permet la calibration au travers d’un positionnement de points dans l’espace sous les six degrés de liberté ( ), dans un environnement réel pour les périphériques de réalité virtuelle et de réalité augmentée en dispensant l’utilisation habituelle de marqueurs visuels ou d’application de traitement vidéo de reconnaissance de forme.
Le module de calibration laser selon l’invention permet de remédier aux inconvénients des solutions actuellement utilisées. Son principe de fonctionnement permet à l’utilisateur de la solution d’éviter la phase de préparation de son environnement. Le placement de marqueurs visuels dans l’environnement n’est plus nécessaire.
Le module de calibration laser est pourvu d’un système d’éclairage par LED ( ), permettant à l’utilisateur de travailler dans un environnement sombre. La gestion de cet éclairage est contrôlée par un capteur de luminosité qui adapte en temps réel la puissance d’éclairage en fonction de l’éclairage naturel de l’environnement.
Ce complément d’éclairage permet de stabiliser la spatialisation des périphériques de réalité virtuelle et de réalité augmentée en environnement dégradé, dépourvu d’éclairage.
Le module de calibration laser permet de corriger la dérive des projections 3D, engendrée par la différence entre les écarts pupillaires des utilisateurs. Ce dispositif fonctionne en projetant une première fois le laser pour effectuer une mesure de distance proche et enregistre simultanément la convergence oculaire fournie par capteur d’oculométrie (eye tracking). Un deuxième point de mesure est effectué à une distance plus lointaine avec la prise simultanée de la nouvelle mesure de la convergence oculaire de l’utilisateur. Cette captation de données permet le calcul de la dérive de position qui doit être appliquée aux objets 3D à afficher, en fonction de leur distance de l’utilisateur.
Le module de calibration laser permet de corriger les dérives de spatialisation subies par les périphériques de RA/RV sur des distances de plus de 5 mètres. A la détection de la limite de perte de précision, le module signale à l’utilisateur la nécessité de prendre un nouveau point de mesure pour calculer et corriger la dérive spatiale du périphérique.
Le module de calibration laser permet d’effectuer des mesures de distance autorisant les déplacements de l’utilisateur entre la saisie des points de mesure. Le segment de la mesure peut être généré au travers de la matière.
Le module de calibration laser permet de générer des points spatialisés afin d’établir une correspondance entre un environnement virtuel et un environnement réel.
Le module de calibration laser permet de modéliser des volumes 3D en générant les surfaces du volume au travers des points spatialisés captés dans l’environnement réel par le laser.
Le module de calibration laser est équipé d’un dispositif de télécommande amovible intégrée, permettant à l’utilisateur d’enregistrer les points projetés par le laser en gardant la tête immobile. Ceci afin d’éviter les imprécisions de la saisie qui pourraient être engendrés par le contact de la main sur la zone de la tête.
Le module de calibration laser est équipé d’un dispositif amovible ( ) se plaçant sur le périphérique de réalité augmentée ( ) entre l’environnement extérieur et les écrans d’affichages, permettant d’occulter partiellement la lumière de l’environnement en facilitant la vision sur les écrans du périphérique de réalité augmentée lorsque la lumière environnante est trop forte.
Les casques de réalité augmentée présentent un défaut de précision lors de la superposition des objets 3D sur leur écran. Ce manque de précision résulte d’une différence entre les écarts pupillaires des utilisateurs. Les écrans des casques AR/VR projettent deux images différentes permettant la perception du relief. Ils ne peuvent cependant pas déterminer un point de focus adaptable dynamiquement.
Le module de calibration laser selon l’invention permet grâce à la prise de deux points de mesure de calculer la dérive du positionnement des objets en fonction du focus visuel de l’utilisateur. Ce dispositif fonctionne en projetant une première fois le laser pour effectuer une mesure de distance proche et enregistre simultanément la convergence oculaire fournie par le capteur d’oculométrie des yeux (eye tracking). Un deuxième point de mesure est effectué à une distance plus lointaine avec la prise simultanée de la nouvelle mesure de l’oculométrie. Cette captation de données permet le calcul de la dérive de position qui doit être appliquée aux objets 3D à afficher, en fonction la distance de l’utilisateur.
Mode de fonctionnement de la calibration sur modèle réel.
Le module de calibration laser simplifie la calibration par l’utilisateur des points de correspondance entre le monde réel et le monde virtuel. L’utilisateur active le mode calibration, ce qui lui permet de visualiser le point du laser projeté dans le monde réel. L’utilisateur pointe le laser sur au minimum deux points de référence dans l’environnement réel. La mesure de distance obtenue est mise en relation avec la spatialisation existante calculée par le périphérique de réalité virtuelle ou de réalité augmentée. Le résultat de cette opération, permet de calculer précisément les points de référence entre le monde réel et le mode virtuel. Le périphérique ainsi calibré peut être utilisé sans la mesure du laser et continuer son suivi spatialisé de l’environnement. Cette calibration est sauvegardée et n’a pas besoin d’être de nouveau effectuée lors des cessions ultérieures. Ces points de référence seront automatiquement importés sur le modèle 3D et utilisables dans l’application 3D hors site.
Création externalisée de la calibration sur un modèle virtuel.
L’utilisateur peut préparer les points de calibration avant sa visite sur le site au travers d’une application. L’utilisateur visualise le modèle 3D de référence, il marque sur le modèle 3D les points de calibration qu’il choisit, et transfère le modèle sur le périphérique de réalité virtuelle ou de réalité augmentée.
Sur site, l’utilisateur au travers du périphérique RV-RA visualise le modèle 3D avec ces points de calibration. L’utilisateur pointe le laser sur les points correspondants sur le modèle réel, ce qui génère automatiquement la correspondance entre le modèle réel et le modèle virtuel.
Marquage de points.
L’utilisateur peut grâce au module laser générer autant de points souhaités dans son environnement et y associer des notes, des photos, des vidéos, des documents, des liens via une base de données externe ou interne. Ces points peuvent être importés dans l’application et pourront être déplacés ou agrémentés des éléments cités dans ce paragraphe.
Visualisation des points dans l’environnement réel.
L’utilisateur après avoir effectué sa calibration pourra visualiser en superposition au travers de son périphérique de RV-RA tous les points spatialisés présents dans l’environnement virtuel.
Superposition d’objet 3D dans l’environnement réel.
Le module de calibration laser permet de générer un référentiel de spatialisation rendant la superposition d’objet 3D précise sur le modèle réel. Ce référentiel est défini par la position des points mesurés par le laser et les points identifiés sur le modèle 3D.
Mesure de distance spatialisée.
Le module de calibration laser permet d’effectuer des mesures de l’environnement en autorisant les déplacements de l’utilisateur. Grâce au module de calibration laser, l’utilisateur peut prendre un premier point de mesure, se déplacer dans son environnement, et prendre un deuxième point de mesure. Par exemple, l’utilisateur peut facilement mesurer la distance entre deux points situés dans des pièces séparées par des cloisons.

Claims (10)

  1. Dispositif de calibration laser permettant la projection d’un laser se fixant sur un périphérique de réalité virtuelle et de réalité augmentée.
  2. Dispositif de calibration laser permettant la calibration avec un minimum de deux points de mesure, permettant le positionnement de points dans l’espace sous les six degrés de liberté.
  3. Dispositif d’éclairage complémentaire intégré dans le module. Le module de calibration laser est pourvu d’un système d’éclairage par LED, permettant à l’utilisateur de travailler dans un environnement sombre. La gestion de cet éclairage est contrôlée par un capteur de luminosité qui adapte en temps réel la puissance d’éclairage en fonction de l’éclairage naturel de l’environnement.
    Ce complément d’éclairage permet de stabiliser la spatialisation des périphériques de réalité virtuelle et de réalité augmentée en environnement dégradé, dépourvu d’éclairage.
  4. Dispositif permettant de corriger la dérive des projections 3D, engendrée par la différence entre les écarts pupillaires des utilisateurs. Ce dispositif fonctionne en projetant une première fois le laser pour effectuer une mesure de distance proche et enregistre simultanément la convergence oculaire fournie par capteur d’oculométrie (eye tracking). Un deuxième point de mesure est effectué à une distance plus lointaine avec la prise simultanée de la nouvelle mesure de la convergence oculaire de l’utilisateur. Cette captation de données permet le calcul de la dérive de position qui doit être appliquée aux objets 3D à afficher, en fonction de leur distance de l’utilisateur.
  5. Dispositif de calibration laser permettant de corriger les dérives de spatialisation subies par les périphériques de RA/RV sur des distances de plus de 5 mètres. A la détection de la limite de perte de précision, le module signale à l’utilisateur la nécessité de prendre un nouveau point de mesure pour calculer et corriger la dérive spatiale du périphérique.
  6. Dispositif de calibration laser permettant d’effectuer des mesures de distance autorisant les déplacements de l’utilisateur entre la saisie des points de mesure. Le segment de la mesure peut être généré au travers de la matière.
  7. Dispositif de pointage laser permettant de générer des points spatialisés afin d’établir une correspondance entre un environnement virtuel et un environnement réel.
  8. Dispositif de pointage laser permettant de modéliser des volumes 3D en générant les surfaces du volume au travers des points spatialisés captés dans l’environnement réel par le laser.
  9. Dispositif amovible se plaçant sur le périphérique de réalité augmentée entre l’environnement extérieur et les écrans d’affichages, permettant d’occulter partiellement la lumière de l’environnement en facilitant la vision sur les écrans du périphérique de réalité augmentée lorsque la lumière environnante est trop forte.
  10. Dispositif de télécommande amovible intégrée au module laser, permettant à l’utilisateur d’enregistrer les points projetés par le laser en gardant la tête immobile. Ceci afin d’éviter les imprécisions de la saisie qui pourraient être engendrés par le contact de la main sur la zone de la tête.
FR2106469A 2021-06-18 2021-06-18 Module de calibration laser pour la réalité virtuelle et la réalité augmentée Pending FR3124280A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2106469A FR3124280A1 (fr) 2021-06-18 2021-06-18 Module de calibration laser pour la réalité virtuelle et la réalité augmentée

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2106469A FR3124280A1 (fr) 2021-06-18 2021-06-18 Module de calibration laser pour la réalité virtuelle et la réalité augmentée
FR2106469 2021-06-18

Publications (1)

Publication Number Publication Date
FR3124280A1 true FR3124280A1 (fr) 2022-12-23

Family

ID=81851659

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2106469A Pending FR3124280A1 (fr) 2021-06-18 2021-06-18 Module de calibration laser pour la réalité virtuelle et la réalité augmentée

Country Status (1)

Country Link
FR (1) FR3124280A1 (fr)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050270494A1 (en) * 2004-05-28 2005-12-08 Banning Erik J Easily deployable interactive direct-pointing system and presentation control system and calibration method therefor
US20180181195A1 (en) * 2016-12-22 2018-06-28 ReScan, Inc. Head-Mounted Sensor System
US20200192089A1 (en) * 2010-02-28 2020-06-18 Microsoft Technology Licensing, Llc Head-worn adaptive display
JP2020148712A (ja) * 2019-03-15 2020-09-17 東芝インフォメーションシステムズ株式会社 測距システム、測距装置及び配置方法
CA3141746A1 (fr) * 2019-03-21 2020-09-24 Forsberg Services Ltd Ameliorations apportees a un ciblage et se rapportant a celui-ci

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050270494A1 (en) * 2004-05-28 2005-12-08 Banning Erik J Easily deployable interactive direct-pointing system and presentation control system and calibration method therefor
US20200192089A1 (en) * 2010-02-28 2020-06-18 Microsoft Technology Licensing, Llc Head-worn adaptive display
US20180181195A1 (en) * 2016-12-22 2018-06-28 ReScan, Inc. Head-Mounted Sensor System
JP2020148712A (ja) * 2019-03-15 2020-09-17 東芝インフォメーションシステムズ株式会社 測距システム、測距装置及び配置方法
CA3141746A1 (fr) * 2019-03-21 2020-09-24 Forsberg Services Ltd Ameliorations apportees a un ciblage et se rapportant a celui-ci

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LEONET CHRISTEL ET AL: "In-situ interactive modeling using a single-point laser rangefinder coupled with a new hybrid orientation tracker", 2013 IEEE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY (ISMAR), IEEE, 1 October 2013 (2013-10-01), pages 269 - 270, XP032534779, DOI: 10.1109/ISMAR.2013.6671799 *

Similar Documents

Publication Publication Date Title
US12423865B2 (en) Method and an apparatus for determining a gaze point on a three-dimensional object
JP6574461B2 (ja) 点群データ変換システム及びその方法
JP2014089203A (ja) 一体型の物体取り込みシステム及び表示装置並びに関連方法
JP2012181202A5 (fr)
EP3330928A1 (fr) Dispositif de génération d'image, système de génération d'image et procédé de génération d'image
EP4650919A2 (fr) Système de visualisation avec compensation de distance interpupillaire sur la base du mouvement de la tête
JP2014192861A (ja) 監視支援システム
JP2004024739A (ja) 眼底の立体表示および座標計測方法と装置
WO2021135854A1 (fr) Procédé et appareil pour réaliser une mesure de télémétrie à l'aide d'un engin volant sans pilote embarqué
FR3124280A1 (fr) Module de calibration laser pour la réalité virtuelle et la réalité augmentée
TWI664576B (zh) 頭戴式裝置及控制方法
TWI412729B (zh) Method and system of real navigation display
JP2012029940A (ja) 視線計測方法及び視線計測装置
JP2019065467A (ja) 杭位置検査装置及び杭位置検査方法
US20220296096A1 (en) Process for determining ophthalmic parameters by 3d mapping
US11393360B2 (en) Skill training device and skill training method
WO2021237952A1 (fr) Système et procédé d'affichage de réalité augmentée
JP7049636B1 (ja) 情報処理装置、プログラム、システム、及び情報処理方法
EP3853819B1 (fr) Procédé, module et système de projection sur une pièce d'une image calculée a partir d'une maquette numérique
CN114758404B (zh) 人眼感兴趣区域定位系统
JP2017103638A (ja) 観察領域推定方法、観察領域推定装置、及びプログラム
CN118570773A (zh) 视线采集方法、系统、电子设备和可读存储介质
CN117710445B (zh) 一种应用于ar设备的目标定位方法、装置及电子设备
CA3110696A1 (fr) Visualisateur de realite augmentee et systeme de mesure pour des composantes de piscine
WO2024224109A1 (fr) Système de mesure de dimensions faciales

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLSC Publication of the preliminary search report

Effective date: 20221223

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5