[go: up one dir, main page]

FR2889754A1 - Systeme permettant a un utilisateur de visualiser un cockpit reel dans un environnement video, notamment un environnement de conduite automobile - Google Patents

Systeme permettant a un utilisateur de visualiser un cockpit reel dans un environnement video, notamment un environnement de conduite automobile Download PDF

Info

Publication number
FR2889754A1
FR2889754A1 FR0552476A FR0552476A FR2889754A1 FR 2889754 A1 FR2889754 A1 FR 2889754A1 FR 0552476 A FR0552476 A FR 0552476A FR 0552476 A FR0552476 A FR 0552476A FR 2889754 A1 FR2889754 A1 FR 2889754A1
Authority
FR
France
Prior art keywords
cockpit
real
real cockpit
user
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0552476A
Other languages
English (en)
Inventor
Valentin Lefevre
Jean Marie Vaidie
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Total Immersion
Original Assignee
Total Immersion
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Total Immersion filed Critical Total Immersion
Priority to FR0552476A priority Critical patent/FR2889754A1/fr
Priority to PCT/FR2006/001932 priority patent/WO2007017595A2/fr
Priority to EP06794314A priority patent/EP1913765A2/fr
Publication of FR2889754A1 publication Critical patent/FR2889754A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

L'invention concerne un système permettant à un utilisateur de visualiser un cockpit réel dans un environnement vidéo comprenant :- un cockpit réel d'un véhicule,- un écran cylindrique de couleur uniforme entourant le cockpit réel,- un casque de réalité virtuelle comprenant une première caméra installée dans le prolongement de l'oeil droit et une seconde caméra installée dans le prolongement de l'oeil gauche de l'utilisateur,- un capteur de mouvement,- des premiers moyens de traitement informatique destinés à mélanger un signal vidéo reçu de la première caméra avec des images de synthèse d'éléments ajoutés au cockpit réel,- des seconds moyens de traitement informatique, associés à un second équipement informatique, destinés à mélanger un signal vidéo reçu de la seconde caméra avec des images de synthèse d'éléments ajoutés au cockpit réel,- des moyens d'affichage permettant de visualiser le cockpit réel et les images de synthèse d'éléments ajoutés au cockpit réel.

Description

Système permettant à un utilisateur de visualiser un cockpit réel
dans un environnement vidéo, notamment un environnement de conduite automobile L'inventeur a développé un produit, ci-après dénommé D'FUSION, qui permet de mixer et d'afficher en temps réel des images vidéo (en provenance de caméras) avec des images de synthèse, en utilisant du matériel PC standard.
Cette technologie permet de réaliser un enrichissement d'un cockpit réel par des images de synthèse.
- L'utilisateur s'installe dans un cockpit (par exemple dans le domaine automobile, le cockpit est tout simplement l'intérieur de la voiture, ou dans le domaine aéronautique, le cockpit est le poste de pilotage).
- Le cockpit est entouré d'un fond de couleur uniforme.
- L'utilisateur utilise un casque de réalité virtuelle ou HMD (Head Mounted Display).
- Grâce à la technologie décrite dans ce document, l'utilisateur visualise, en temps réel: o Le cockpit réel.
o Si besoin, des enrichissements virtuels intégrés au cockpit réel.
o Si besoin, l'extérieur du cockpit est une base de données de synthèse (par exemple un circuit routier dans le cas d'une application automobile).
o Si besoin, l'utilisateur peut piloter son cockpit en temps réel dans le monde de synthèse.
o Les bénéfices de la technologie décrite sont les suivants: ^ Tests et validation d'ergonomie d'un cockpit réel (pouvoir piloter la maquette réelle dans un monde de synthèse).
^ Tests et validation d'enrichissements de cockpit (les ajouts virtuels sur le cockpit réel permettent de faire de nombreux tests sans réaliser réellement ces ajouts).
L'invention concerne un système permettant à un utilisateur de visualiser un cockpit réel dans un environnement vidéo, notamment un environnement de conduite automobile, caractérisé en ce qu'il comprend: -un cockpit réel d'un véhicule, notamment comprenant un siège, un tableau de bord, des montants, une partie d'un habitacle d'une automobile, - un écran cylindrique de couleur uniforme, notamment vert ou bleu, entourant le cockpit réel, - un casque de réalité virtuelle comprenant une première caméra installée dans le prolongement de l'oeil droit de l'utilisateur et une seconde caméra installée dans le prolongement de l'oeil gauche de l'utilisateur, - un capteur de mouvement associé à la première et à la deuxième caméra, - des premiers moyens de traitement informatique, associés à un premier équipement informatique, destinés à mélanger un signal vidéo reçu de la première caméra avec des images de synthèse d'éléments ajoutés au cockpit réel et/ou des images de synthèse représentant un environnement extérieur au cockpit réel, notamment un paysage routier, en fonction d'informations reçues du capteur de mouvement, - des seconds moyens de traitement informatique, associés à un second équipement informatique, destinés à mélanger un signal vidéo reçu de la seconde caméra avec des images de synthèse d'éléments ajoutés au cockpit réel et/ou des images de synthèse représentant un environnement extérieur au cockpit réel, notamment un paysage routier, en fonction d'informations reçues du capteur de mouvement, - des moyens d'affichage, associés au casque de réalité virtuelle, permettant à l'utilisateur de visualiser le cockpit réel, et les images de synthèse d'éléments ajoutés au cockpit réel et/ou les images de synthèse représentant un environnement extérieur au cockpit réel.
Description de la solution But de la solution
La solution permet de valider le design ainsi que l'ergonomie de l'intérieur du véhicule (planche de bord par exemple).
Grâce à la mise en oeuvre d'un casque virtuel stéréoscopique (le casque peut aussi être monoscopique), l'utilisateur voit en relief la planche de bord réelle, de plus à l'extérieur de la planche de bord l'utilisateur visualise un environnement synthétique (routes, bâtiments etc...). En final l'utilisateur peut valider l'ergonomie de la planche de bord mise en situation dans un environnement virtuel, l'utilisateur peut bien entendu déplacer sa tête selon 6 degrés de liberté (changements de position et d'orientation).
L'intérêt du système est qu'il propose une approche différente de l'utilisation de projecteurs vidéo et d'écrans de projection (cas des salles immersives traditionnelles) : coût de revient, fiabilité, rapidité d'installation etc...
Description générale de la solution
Le schéma ci-dessus décrit le principe de la solution: L'utilisateur est assis devant le tableau de bord réel d'un véhicule en cours de conception. Ce tableau de bord peut être plus ou moins complexe en fonction des besoins: il peut par exemple inclure ou non les montants du véhicule, il peut aussi être complété par un habitacle entourant plus ou moins l'utilisateur.
L'utilisateur est muni d'un casque de réalité virtuelle ou HMD (Head Mounted Display). Sur le casque sont fixés 2 caméras vidéo ainsi qu'un capteur de mouvement (par exemple, un capteur de marque Laser Bird (voir schéma suivant)).
Un écran cylindrique de couleur uniforme entoure le tableau de bord.
Ecran de couleur uniforme Casque Virtuel
Tableau de bord réel
Dispositif embarqué sur la tête de l'utilisateur Tête de l'utilisateur Capteur (ex:Laser Bird)
I !Lw
\\\\TCaméra oeil gauche Caméra oeil droit Casque virtuel (HMD) Le HMD peut être soit monoscopique (dans ce cas on utilise une seule caméra) soit stéréoscopique (dans ce cas on utilise deux caméras).
Si le HMD est en mode stéréoscopique, deux caméras vidéo sont fixées sur le HMD: une caméra par oeil dans le but de restituer le relief à l'utilisateur.
Le dispositif de capture de mouvement (par exemple de type Laser Bird ) est aussi fixé au HMD pour que le logiciel récupère en temps réel la position et l'orientation du HMD, ce qui permet ensuite d'afficher les images de synthèse bien calées par rapport aux images vidéo. Le dispositif de capture de mouvement est rigidement lié aux caméras.
Principe du mixage des images de synthèse avec les images vidéo Le tableau de bord réel est placé devant un fond de couleur uniforme (fond bleu ou vert par exemple).
Les images vidéo en provenance des deux caméras sont acquises puis traitées selon l'algorithme du chroma-key: on autorise l'affichage des images de synthèse dans les zones où l'on rencontre la couleur bleu (schéma ci-dessous).
Image vidéo originale Image après insertion du décor virtuel L'intérêt de cette technique est que le système informatique n'a pas besoin de connaître la forme de l'habitacle pour mixer les images vidéo avec les images virtuelles.
Image habitacle réel.
Fond bleu placé à l'extérieur de l'habitacle.
Les images de synthèse remplacent les zones bleues Architecture du système de génération d'images PC OEil Gauche Entrée Vidéo
O O
Genlock Sortie SXGA RS232 Capture de mouvement (ex: Laser Bird) :
HMD
Port Ethernet RJ45 É É Entrée Vidéo Genlock PC OEil Droit Port Ethernet RJ45 Sortie SXGA Caméra gauche Caméra droite Légendes: Signal Video Composite Signal Genlock (synchro) Signal par exemple XGA (1280 X 1024)
Description du système:
Deux PC sont utilisés: un PC génère les images pour l'oeil gauche, l'autre génère les images pour l'oeil droit.
La caméra oeil gauche est branchée sur l'entrée vidéo du PC oeil gauche.
La caméra oeil droit est branchée sur l'entrée vidéo du PC oeil droit.
Chaque PC est en charge d'afficher en temps réel l'image vidéo en provenance de sa caméra mixée avec les images de synthèse.
Le casque virtuel (HMD) est muni de deux entrées (par exemple de résolution SXGA), les deux PC génèrent des images à la résolution du HMD.
Le système de capture de mouvement (par exemple de type Laser Bird ) est connecté à un des deux PC par le port série (RS232). Ce PC est en charge de transmettre les informations de position/orientation du Laser Bird vers le second PC par des envois sur réseau Ethernet.
Le casque virtuel impose le refresh rate (par exemple 60 Hz), les sortie vidéo des 2 PC auront un refresh rate compatible avec le casque.
Idéalement, le choix des caméras vidéo se portera sur les fonctionnalités suivantes: - Caméras vidéo avec un standard de balayage le plus proche du casque: o Par exemple 60 Hz (standard US) pour un casque à 60 Hz o Par exemple 50 Hz (standard Europe) pour un casque à 50 Hz Idéalement, les caméras vidéo ainsi que les sorties des cartes graphiques sont genlockable , ce qui permet de synchroniser les éléments suivants entre eux (voir schéma ci-dessus) : - les 2 cartes graphiques - les 2 caméras vidéo La synchronisation de ces 4 éléments permet d'obtenir les avantages suivants: - Le meilleur transport delay possible pour le système visuel.
- Une restitution stéréoscopique sans artefacts même en dynamique (durant les mouvements de l'utilisateur).
Exemple des Moyens matériels mis en oeuvre pour réaliser la solution: Les deux PC oeil gauche et oeil droit : - Pentium 4, 3 Ghz.
- Disque dur 80 Go.
- RAM 1 Go.
- Cartes nVidia GeforceFX Quadro 4400G.
- Option Genlock (G-SYNC option card).
- Carte acquisition vidéo sur bus PCI, normes PAL et NTSC en entrée vidéo.
- Operating System Windows XP professional.
- Capteur de mouvement Laser Bird - Casque virtuel stéréoscopique Cas de Caméras en résolution SD: - 2 caméras NTSC sony XC555 avec entrée Genlock. Champ de vision le plus proche possible du champ de vision du casque pour chaque oeil (exemple: optique de focale 3.5 mm sur monture NF) .
Remarque: Le système décrit peut aussi être compatible HD: Dans ce cas la solution hardware préconisée est la suivante: - Caméras vidéo avec une sortie HD-SDI ou camera link.
- La carte d'acquisition est alors: o Soit une carte avec entrée HD-SDI (ex Decklink HD) sur bus PCI-X.
o Soit une carte avec entrée camera link.
Moyens logiciels Le logiciel D'FUSION configuré spécifiquement pour la solution L'inventeur a développé le logiciel D'FUSION, qui permet de réaliser des applications de Réalité Augmentée.
Chaque PC oeil gauche et oeil droit , est équippé d'une licence runtime de la technologie D'FUSION.
Le logiciel D'FUSION est configuré avec les fonctionnalités suivantes: Acquisition et affichage de fluxs vidéo en temps réel avec de hautes performances.
- Le traitement temps réel des fluxs vidéo pour corriger les distorsions optiques radiales des caméras vidéo et permettre ainsi de mettre en parfaite correspondance les images caméra avec les images de synthèse.
- Dé-entrelacement des images vidéo avant tracé dans la boucle de rendu.
- Le traitement temps réel du flux de motion capture (ex Laser Bird ) par des techniques d'extrapolations et d'interpolations pour synchroniser dynamiquement les flux vidéos et de synthèse, en recalculant les positions et orientations du capteur (ex Laser Bird ) aux dates de réception des images vidéo.
- Le calcul temps réel des paramètres extrinsèques (positions/orientations par rapport à un repère absolu) des deux caméras vidéo oeil gauche et oeil droit pour faire correspondre les images caméras avec les images de synthèse.
- Les outils de calibration offline du système: o Calibration des distorsions optiques radiales des deux caméras (paramètres intrinsèques) par analyse d'image (mires de distorsions).
o Calibration des paramètres extrinsèques des caméras dans le repère du capteur (ex Laser Bird ) (méthode dite d'extraction de pose caméra ) . Cette calibration s'effectue à l'aide de l'outil de localisation (voir fichier outil localisation. doc).
- La fonction de chroma key qui peut être réalisée de deux manières différentes: o Transformation du flux vidéo en texture vidéo, avec formatage dans cette texture des données RGB et Alpha pour affichage ultérieur des images de synthèse à la place du fond bleu.
o A la fin de la boucle de rendu, l'image vidéo est tracée dans le back buffer avec l'algorithme suivant, pour chaque pixel: ^ Si le pixel à la couleur de l'écran uniforme placé à l'extérieur du cockpit, alors le pixel n'est pas tracé.
^ Sinon le pixel est tracé.
- Quelle que soit la manière de faire le chroma key, les performances du traitement chroma key sont optimisées grâce aux techniques des pixels shaders .
Performances de la solution (système de génération d'images) Le tableau suivant résume les performances de la solution dans le cas d'un HMD ayant un refresh rate de 60 Hz et des entrées vidéo SXGA (1280 par 1024).
Fonction Performance attendue Remarque Refresh Rate en sortie SXGA 60 Hz. 60 Hz imposé par l'utilisation des PC du casque (HMD) (fréquence de rafraîchissement des écrans LCD du HMD) Update Rate 60 Hz. On générera les images (fréquence de (images vidéo + synthèse) à la rafraîchissement des images) même fréquence que celle du Refresh Rate pour éviter les effets de dédoublement d'images.
Acquisitions vidéo Standard vidéo 60 Hz. Si besoin, les images vidéo sont désentrelacées avant mixage avec les images de synthèse.
Temps de réponse du système 33 ms (seulement si les Temps de réponse hors ( transport delay ) caméras sont genlockées affichage des images par le avec les cartes graphiques FX casque.
4400 G).
Résolution des images SXGA: 1280 pixels par 1024 Les images en provenance des générées lignes caméras vidéo seront adaptées à la résolution SXGA par la méthode de ré- échantillonnage avec filtrage bi-linéaire.
Pour information: Inférieur à 5 ms grâce aux Le but est de laisser environ Temps de traitement pour une optimisations par les pixels 10 ms par cycle visuel pour acquisition vidéo + temps de shaders . afficher les polygones de la traitement des algorithmes de base de données de synthèse.
type chroma key + temps de traitement des distorsions vidéo

Claims (1)

Revendication
1. Système permettant à un utilisateur de visualiser un cockpit réel dans un environnement vidéo, notamment un environnement de conduite automobile, caractérisé en ce qu'il comprend: - un cockpit réel d'un véhicule, notamment comprenant un siège, un tableau de bord, des montants, une partie d'un habitacle d'une automobile, - un écran cylindrique de couleur uniforme, notamment vert ou bleu, entourant le cockpit réel, - un casque de réalité virtuelle comprenant une première caméra installée dans le prolongement de l'ceil droit de l'utilisateur et une seconde caméra installée dans le prolongement de l'ceil gauche de l'utilisateur, - un capteur de mouvement associé à la première et à la deuxième caméra, - des premiers moyens de traitement informatique, associés à un premier équipement informatique, destinés à mélanger un signal vidéo reçu de la première caméra avec des images de synthèse d'éléments ajoutés au cockpit réel et/ou des images de synthèse représentant un environnement extérieur au cockpit réel, notamment un paysage routier, en fonction d'informations reçues du capteur de mouvement, - des seconds moyens de traitement informatique, associés à un second équipement informatique, destinés à mélanger un signal vidéo reçu de la seconde caméra avec des images de synthèse d'éléments ajoutés au cockpit réel et/ou des images de synthèse représentant un environnement extérieur au cockpit réel, notamment un paysage routier, en fonction d'informations reçues du capteur de mouvement, - des moyens d'affichage, associés au casque de réalité virtuelle, permettant à l'utilisateur de visualiser le cockpit réel, et les images de synthèse d'éléments ajoutés au cockpit réel et/ou les images de synthèse représentant un environnement extérieur au cockpit réel.
FR0552476A 2005-08-09 2005-08-09 Systeme permettant a un utilisateur de visualiser un cockpit reel dans un environnement video, notamment un environnement de conduite automobile Withdrawn FR2889754A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR0552476A FR2889754A1 (fr) 2005-08-09 2005-08-09 Systeme permettant a un utilisateur de visualiser un cockpit reel dans un environnement video, notamment un environnement de conduite automobile
PCT/FR2006/001932 WO2007017595A2 (fr) 2005-08-09 2006-08-09 Procede et dispositifs pour visualiser un habitacle reel dans un environnement de synthese
EP06794314A EP1913765A2 (fr) 2005-08-09 2006-08-09 Procede et dispositifs pour visualiser un habitacle reel dans un environnement de synthese

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0552476A FR2889754A1 (fr) 2005-08-09 2005-08-09 Systeme permettant a un utilisateur de visualiser un cockpit reel dans un environnement video, notamment un environnement de conduite automobile

Publications (1)

Publication Number Publication Date
FR2889754A1 true FR2889754A1 (fr) 2007-02-16

Family

ID=37663328

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0552476A Withdrawn FR2889754A1 (fr) 2005-08-09 2005-08-09 Systeme permettant a un utilisateur de visualiser un cockpit reel dans un environnement video, notamment un environnement de conduite automobile

Country Status (3)

Country Link
EP (1) EP1913765A2 (fr)
FR (1) FR2889754A1 (fr)
WO (1) WO2007017595A2 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011116765A3 (fr) * 2010-03-24 2012-01-12 Krauss-Maffei Wegmann Gmbh & Co. Kg Procédé pour former un membre d'équipage d'un véhicule, en particulier d'un véhicule militaire
US10534430B2 (en) 2017-03-23 2020-01-14 Interdigital Ce Patent Holdings Device and method for immersive visual representations and individual head equipment

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112908084A (zh) * 2021-02-04 2021-06-04 三一汽车起重机械有限公司 作业机械的模拟训练系统、方法、装置和电子设备
CN113448445B (zh) * 2021-09-01 2021-11-30 深圳市诚识科技有限公司 一种基于虚拟现实的目标位置跟踪方法和系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9121707D0 (en) * 1991-10-12 1991-11-27 British Aerospace Improvements in computer-generated imagery
JP4878083B2 (ja) * 2001-03-13 2012-02-15 キヤノン株式会社 画像合成装置及び方法、プログラム
JP4022868B2 (ja) * 2002-11-13 2007-12-19 マツダ株式会社 企画支援プログラム、方法、装置並びに記憶媒体
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011116765A3 (fr) * 2010-03-24 2012-01-12 Krauss-Maffei Wegmann Gmbh & Co. Kg Procédé pour former un membre d'équipage d'un véhicule, en particulier d'un véhicule militaire
US9202385B2 (en) 2010-03-24 2015-12-01 Krauss-Maffei Wegmann Gmbh & Co. Kg Method for training a crew member of a, in particular, military vehicle
US10534430B2 (en) 2017-03-23 2020-01-14 Interdigital Ce Patent Holdings Device and method for immersive visual representations and individual head equipment

Also Published As

Publication number Publication date
WO2007017595A3 (fr) 2007-04-05
WO2007017595A2 (fr) 2007-02-15
EP1913765A2 (fr) 2008-04-23

Similar Documents

Publication Publication Date Title
US11127217B2 (en) Shared environment for a remote user and vehicle occupants
JP5815026B2 (ja) 追加の視点及び増大された解像度を有する道路情報カメラのためのシミュレートされた映像
JP4642723B2 (ja) 画像生成装置および画像生成方法
US20140285523A1 (en) Method for Integrating Virtual Object into Vehicle Displays
RU2010138614A (ru) Визуализация трансляций камер на карте
EP1840861A3 (fr) Imagerie virtuelle avec détection par l'avant
WO2012169355A1 (fr) Dispositif de génération d'image
JP2007042055A (ja) 画像処理方法、画像処理装置
CN101189643A (zh) 3d图像生成和显示系统
CN102540485A (zh) 一种可重叠显示组合图像的立体显示模块
JP2011035638A (ja) 仮想現実空間映像制作システム
CN108528341B (zh) 用于演示车载抬头显示装置的功能的方法
US11317082B2 (en) Information processing apparatus and information processing method
US10088678B1 (en) Holographic illustration of weather
FR2889754A1 (fr) Systeme permettant a un utilisateur de visualiser un cockpit reel dans un environnement video, notamment un environnement de conduite automobile
CN106412562A (zh) 三维场景中显示立体内容的方法及其系统
WO2025156823A1 (fr) Système d'affichage et procédé de commande d'affichage et appareil associé, support et véhicule
JP7728717B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
FR2889753A1 (fr) Systeme permettant a un utilisateur de visualiser un cockpit virtuel dans un environnement video
US8767053B2 (en) Method and apparatus for viewing stereoscopic video material simultaneously with multiple participants
US12304395B2 (en) Camera monitoring system display including parallax manipulation
KR20170044319A (ko) 헤드 마운트 디스플레이의 시야 확장 방법
CN112905005A (zh) 用于车辆的自适应显示方法、装置及存储介质
JP6182883B2 (ja) 映像信号処理装置、映像表示装置及び映像信号処理方法
Matysczok et al. Rendering of highly polygonal augmented reality applications on a scalable PC-cluster architecture

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20070430