[go: up one dir, main page]

JP2006308674A - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
JP2006308674A
JP2006308674A JP2005128203A JP2005128203A JP2006308674A JP 2006308674 A JP2006308674 A JP 2006308674A JP 2005128203 A JP2005128203 A JP 2005128203A JP 2005128203 A JP2005128203 A JP 2005128203A JP 2006308674 A JP2006308674 A JP 2006308674A
Authority
JP
Japan
Prior art keywords
observer
unit
image
eyeball
camera unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005128203A
Other languages
English (en)
Inventor
Tatsuki Okamoto
達樹 岡本
Yukio Sato
行雄 佐藤
Tatsuyuki Kawamura
竜幸 河村
Yasuyuki Kono
恭之 河野
Masatsugu Kidode
正継 木戸出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Nara Institute of Science and Technology NUC
Original Assignee
Mitsubishi Electric Corp
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Nara Institute of Science and Technology NUC filed Critical Mitsubishi Electric Corp
Priority to JP2005128203A priority Critical patent/JP2006308674A/ja
Priority to PCT/JP2006/308448 priority patent/WO2006118057A1/ja
Publication of JP2006308674A publication Critical patent/JP2006308674A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • G02B27/024Viewing apparatus comprising a light source, e.g. for viewing photographic slides, X-ray transparancies
    • G02B27/026Viewing apparatus comprising a light source, e.g. for viewing photographic slides, X-ray transparancies and a display device, e.g. CRT, LCD, for adding markings or signs or to enhance the contrast of the viewed object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7475Constructional details of television projection apparatus
    • H04N5/7491Constructional details of television projection apparatus of head mounted projectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】 観測者の視線方向の映像に対し仮想空間映像を適切に重畳して提示する画像表示装置を提供する。
【解決手段】 本発明に係る画像表示装置は、映像を表示するディスプレイ部と、前記ディスプレイ部に表示された映像を観測者の眼球に導く第1のミラー部と、観測者の眼球の向きを撮影し観測者の視線方向を検出する第1のカメラ部と、光軸が第1のカメラ部と一致し観測者の視線方向を撮影する第2のカメラ部と、前記第1のカメラ部及び前記第2のカメラ部と有線又は無線で接続し、前記第2のカメラ部により撮影される観測者の視線方向の映像と仮想の情報とを合成するコンピュータ端末とを備え、前記ディスプレイ部にコンピュータ端末により前記観測者の視線方向の映像と仮想の情報とが重畳して表示されることを特徴とする。
【選択図】図1

Description

本発明は、画像表示素子の透過光束若しくは反射光束を観察者の網膜に直接投影するとともに、観測者の視線を感知し、視線方向の映像に対し仮想空間映像を重畳して提示する眼球投射型画像表示装置に関する。
現実と仮想を融合する技術である複合現実感(Mixed Reality)の分野において、違和感なく現実仮想を融合(重畳表示)してユーザに見せる表示デバイス(画像表示装置)は、重要な機器の一つである。
そのような表示デバイスであるオプティカルシースルー方式のディスプレイの問題として、視野角、映像の鮮明さ(コントラスト)、現実と仮想映像の焦点が合う距離の違いなどが挙げられる。その中の映像の鮮明さにおいて、現実空間の映像の明るさが状況により逐次変化するのに対して、仮想映像の明るさは適切な調整がなければ観測者に違和感を与える原因になってしまう、という問題点がある。
また、従来の表示デバイスでは、観測者の視線とカメラの光軸間の視差をなくすため、撮像光学系と表示光学系を一致させている。しかし、この場合、固定された前方においてのみ臨場感のある映像が提示されているに過ぎない。
また、従来の表示デバイスにおいて、遠隔地の映像の臨場感を出すために映像提示装置と遠隔地のカメラを観察者の視線方向上に一致させているものがある(例えば、特許文献1)。しかし、この発明の場合、カメラ回転軸を眼球と物理的に同位置に設置できないことにより、眼球運動の有効範囲に合わせて実世界上の観察者の視線方向にある風景と複合現実感技術による仮想生成物とを、観察者自身の光軸と一致させて立体的に表示することが不可能であるという問題点がある。
更に、従来の画像表示装置では、該装置が実世界のある特定の位置に仮想生成物を提示したときに、観測者がその仮想生成物と異なる位置に焦点を結ぶとしても、その仮想生成物はクリアな像のまま観測者に提示される。そこで、仮想生成物のぼかし処理が不可欠となる。仮想生成物の幾何学的位置は計算機上で厳密に知ることができる。ここで、実世界の像のボケと仮想生成物のボケを位置の観点から一致させることができれば、観測者は実世界の像の中で仮想生成物の位置を適切に認識できる。
周知の画像表示装置において、視線方向の映像の臨場感を出すために視線検出装置を用いて、異なる2つの精細度の映像を観察者に提示するものがある。この装置は、観察者が実世界を観察するときに発生するボケと同様のボケを、表示装置上の仮想オブジェクトに対して付加することを目指す(例えば、特許文献2)。また、三次元仮想空間に設置されるカメラに対して被写界深度を変化させる要素によって、仮想オブジェクトに対するボケ量を算出しているものもある(例えば、特許文献3)。しかし、特許文献2に記載の発明には、実世界上のボケと仮想世界内の仮想オブジェクトとのボケとを一致させることができないという問題がある。特許文献3に記載の発明には、視界深度方向のボケを表現できないという問題がある。
特開平8−313843号公報 特開平11−109279号公報 特開平11−134074号公報
本発明は、観測者の視線方向の映像に対し仮想空間映像を適切に重畳して提示する画像表示装置を提供することを目的とする。
本発明は、上記の目的を達成するためになされたものである。本発明に係る画像表示装置は、
映像を表示するディスプレイ部と、
前記ディスプレイ部に表示された映像を観測者の眼球に導く第1のミラー部と、
観測者の眼球の向きを撮影し観測者の視線方向を検出する第1のカメラ部と、
光軸が第1のカメラ部と一致し観測者の視線方向を撮影する第2のカメラ部と、
前記第1のカメラ部及び前記第2のカメラ部と有線又は無線で接続し、前記第2のカメラ部により撮影される観測者の視線方向の映像と仮想の情報とを合成するコンピュータ端末とを備え、
前記ディスプレイ部にコンピュータ端末により前記観測者の視線方向の映像と仮想の情報とが重畳して表示されることを特徴とする。
本発明に係る画像表示装置は、観測者の視線を検出する手段、観測者の視線方向の映像を検出する手段を備え、観測者の視線方向の映像に対し仮想空間映像を重畳して提示することにより、観測者の視線方向に合わせて現実空間映像と仮想空間映像を重ねて観測できるので、観測者は違和感なく現実仮想を融合できる。
また、本発明に係る画像表示装置は、観測者の視点の距離に応じて、観測者の視点の距離近傍以外の仮想情報をぼかして提示することにより、観測者は仮想生成物が実世界上のどこに置かれているかを正しく知ることができる効果を奏するものである。
以下において、図面を参照しつつ本発明に係る好適な実施の形態を説明する。
実施の形態1.
図1は、本発明の実施の形態1に係る画像表示装置を示す構成図である。なお、図1の構成図は、画像表示装置の片方の目(左目)のための部分を示すものである。もう一方の目(右目)のための部分も通常存在しそれは図1の部分と鏡面対象をなす。
図1の画像表示装置は、表示ユニット10、第1の回転式駆動部7、アーム部6、第2の回転式駆動部8及びスライド式駆動部9を含む。表示ユニット10は概ね半球形状をしており、その一端が第1の回転式駆動部7に固定され駆動部(第1の回転式駆動部7、アーム部6、第2の回転式駆動部8及びスライド式駆動部9)により方向を変える。表示ユニット10には、ディスプレイ部1、第1のミラー部2、眼球撮影用カメラ部4及び視線方向撮影用カメラ部5が備わる。また、図示していないが映像を合成してディスプレイ部1に表示するコンピュータ端末が利用される。
実施の形態1の画像表示装置において、表示ユニット10に内蔵されたディスプレイ部1に表示された映像は、第1のミラー部2によって反射され、眼球3に投影される。(眼球の主である)観測者は、ディスプレイ部1に表示された映像を観察する。
また、第1のミラー部2は、例えば半透明であり、眼球撮影用カメラ部4は、観測者の眼球3の向いている方向、すなわち視線を観測する。また、視線方向撮影用カメラ部5は、眼球撮影用カメラ部4と撮影部の光軸が一致しており、観測者の視線方向の現実の映像を撮影する。視線方向撮影用カメラ部5は撮影した画像情報を無線又は有線を経由してコンピュータ端末(図示せず。)に送信する。ここで、コンピュータ端末(図示せず。)により生成される仮想の映像と、視線方向撮影用カメラ部5によって撮影された現実の画像とが、明るさを調整された上で重畳され、ディスプレイ部1に表示される。このようにすれば、観測者は違和感のない現実と仮想の融合映像を観測することができる。
また、アーム部6で連結された第1の回転式駆動部7と第2の回転式駆動部8、及びスライド式駆動部9により、眼球撮影用カメラ部4が計測する観測者の視線方向に合わせて表示ユニット10が動かされる。眼球撮影用カメラ部4が撮影した眼球の画像情報を無線又は有線を経由してコンピュータ端末(図示せず。)に送信し、コンピュータ端末が第1の回転式駆動部7と第2の回転式駆動部8、及びスライド式駆動部9をその画像情報に従い制御して駆動してもよい。これと同時に、表示ユニット10に内蔵された視線方向撮影用カメラ部5が観測者の視線方向の現実映像を撮影する。従って、観測者は常に視線方向の現実映像を観測できると共に、仮想映像による情報提供が受けられる。
実施の形態2.
図2は、本発明の実施の形態2に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態2に係る画像表示装置は、実施の形態1に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
実施の形態2の画像表示装置において、ディスプレイ部1に表示された映像情報を含む光束は、第1のミラー部2に反射され眼球3に到達する。観測者はディスプレイ部1に表示された映像を観察する。
ここで、第1のミラー部2は半透明である。第1のミラー部2に反射され眼球3に向かうディスプレイ部1からの光束と同じ光軸上であって、第1のミラー部2の(眼球3と)反対側に、眼球撮影用カメラ部4が配置される。眼球撮影用カメラ部4は半透明の第1のミラー部2を介して観測者の眼球3を観測する。
更に、眼球撮影用カメラ部4の背後に備わる第2のミラー部11により、視線方向撮影用カメラ部5の光軸を、第1のミラー部2に反射され眼球3に向かうディスプレイ部1からの光束と同じ光軸上に一致させる。以上のことにより、第1のミラー部2に反射され眼球3に向かうディスプレイ部1からの光束の光軸、眼球撮影用カメラ部4の光軸、及び視線方向撮影用カメラ部5の光軸が一致する。従って、眼球撮影用カメラ部4により計測された観測者の視線を、一致した光軸に合わせることで、観測者は常に視線方向の現実映像を観測できると共に、仮想映像による情報提供が受けられる。
ここで、第1のミラー部2は半透明であるとしたが、偏光分離ミラーであってもよい。更に、第1のミラー部2は、可視光反射且つ赤外光透過のミラーであってもよい。
実施の形態3.
図3は、本発明の実施の形態3に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態3に係る画像表示装置は、実施の形態1に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
実施の形態3の画像表示装置において、ディスプレイ部1は、LCD(Liquid Crystal Digital;液晶ディジタル)パネル等の透過型の画像表示素子102である。画像表示素子102は、光源部102からの光束によって照明される。画像表示素子102を透過した光束は、偏光ビームスプリッタ14により、観測者の眼球3の方向に反射し、接眼レンズ103により眼球3内の網膜に投影される。従って、観測者は、画像表示素子102に表示された映像の虚像を観測できるため、視線方向撮影用カメラ部5で撮影された現実映像を、現実の距離感で観測できる。
実施の形態4.
図4及び図5は、本発明の実施の形態4に係る画像表示装置のディスプレイ部1から放射された光の光軸と眼球撮影用カメラ部4の光軸とを一致させるためのキャリブレーションの方法を示す図である。画像表示装置としては、例えば、実施の形態1、2又は3に係るものが利用されればよい。
光軸のキャリブレーション時には、ディスプレイ部1および眼球撮影用カメラ部4を利用する。キャリブレーションの手順は次の通りである。
(1)ディスプレイ部1からキャリブレーション用の信号(第1のキャリブレーション信号)41を発光する。この信号はキャリブレーション終了後に光軸中心(眼球3の視線方向に対して垂直かつ中心を通るような一点)となるような一点に発光させる。
(2)ディスプレイ部1から発光された光は眼球3に第2のキャリブレーション信号42として入光し、更に光は眼球3に対して反射して第3のキャリブレーション信号43となる。
(3)反射光(第3のキャリブレーション信号43)は、第1のミラー部2を介して眼球撮影用カメラ部4に入光する。光軸中心が一致している場合は、図5の左部に示すように、キャリブレーション用信号照射位置44が眼球撮影用カメラ部4で撮影された映像の中心となる。光軸中心が一致していない場合は、図5の右部に示すように、中心からずれる。第3のキャリブレーション信号43が、眼球撮影用カメラ部4へ入光しない可能性もある。
上記のようなずれの情報を利用して、ディスプレイ部1から放射された光の光軸と眼球撮影用カメラ部4の光軸を一致させることができる。即ち、眼球撮影用カメラ部4が撮影した眼球の画像情報を無線又は有線を経由してコンピュータ端末(図示せず。)に送信し、コンピュータ端末が第1の回転式駆動部7と第2の回転式駆動部8、及びスライド式駆動部9をその画像情報に従い制御して駆動してもよい。このようなキャリブレーションの手順を観測者の認識可能な時間より短い時間で定期的に行うことで、観測者の視線を計測することができる。
実施の形態5.
図6は、本発明の実施の形態5に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態5に係る画像表示装置は、実施の形態3に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
実施の形態5の画像表示装置において、眼球撮影用カメラ部4は赤外線カメラである。つまり、眼球撮影用カメラ部4に備わる赤外線光源21が、赤外線照射22を眼球3に照射することにより、観測者に気付かれることなく観測者の視線を計測できる。即ち、視線計測が観測者の映像観測の邪魔にならない。更に、第1のミラー部2を可視光反射赤外光透過ミラー23にすることで、ディスプレイ部1からの光、及び眼球観測用カメラ部4で観測する光の損失を少なくできる。
実施の形態6.
図7は、本発明の実施の形態6に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態6に係る画像表示装置は、実施の形態5に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
実施の形態6に係る画像表示装置では、視線方向撮影用カメラ部5を構成するCCD、CMOS等の撮像デバイス25に対して、その裏面に眼球撮影用カメラ部4の受ける光束を入射して受像処理するように、眼球撮影用カメラ部4を一体形成している。つまり、撮像デバイス25は眼球撮影用カメラ部4の撮像(受像)処理を行う回路も含む。一般にCCD、CMOS等の撮像デバイス25はシリコン基板上に形成されるが、シリコン基板を透過する赤外光が裏面から入射しても視線方向撮影用カメラ部5は撮像が可能である。
このような構成にすることにより、撮像デバイス25及び撮像に必要な電子回路を視線方向撮影用カメラ部5と眼球撮影用カメラ部4とが共有できるため、部品点数を削減できると共に、表示ユニット10全体を小型化若しくは軽量化できる。
また、視線方向撮影用カメラ部5の前部にはシャッター24が備わる。視線方向撮影用カメラ部5での現実空間撮像時にはシャッター24を開放して赤外線光源21を消灯し、眼球撮影用カメラ部4で眼球を撮影する際にはシャッター24を閉め赤外線光源21を点灯することにより、現実空間映像と眼球映像が同時に撮影されない。更に、眼球撮影用カメラ部4で眼球を撮影する際にはシャッター24が閉じていることになるが、この間に現実映像として直前に撮像した映像をディスプレイ部1に提示すれば、観測者に違和感を与えない。
実施の形態7.
図8は、本発明の実施の形態7に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態7に係る画像表示装置は、実施の形態6に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
実施の形態7に係る該像表示装置は、ディスプレイ部1の画像表示素子102をLCDパネルやDLPなどの反射型としたものである。光源101からの光束は、可視光偏光ビームスプリッタ26を透過し、画像表示素子102で反射され、再び可視光偏光ビームスプリッタ26により、観測者の眼球3方向に反射され、接眼レンズ103により眼球3内の網膜に投影される。ここで、可視光偏光ビームスプリッタ26は赤外線を透過し、眼球撮影用カメラ部4は赤外線照射22により眼球観測用カメラ4で眼球を観測する。
画像表示素子102としての反射型デバイスは、一般的に高精細化が容易であるため、観測者は高精細な映像を観測することができる。
実施の形態8.
図9は、本発明の実施の形態8に係る画像表示装置の表示ユニット10の構成を示す図である。実施の形態8に係る画像表示装置は、実施の形態6に係る画像表示装置と略同様のものである。従って、同一部位には同一符号を付して説明を省略する。
眼球観測用カメラ4に備わる赤外線光源21の発する赤外線は、可視光透過・赤外線反射ミラー27及び赤外線反射・可視光ハーフミラー28で反射し眼球3に向かう。眼球3で反射した赤外線は赤外線反射・可視光ハーフミラー28及び可視光透過・赤外線反射ミラー27で反射し眼球観測用カメラ4が撮像する。視線方向撮影用カメラ部5は、補正レンズ29を介し赤外線反射・可視光ハーフミラー28で反射して入射する現実の映像を撮影する。
実施の形態8に係る画像表示装置において、観測者は、接眼レンズ103と補正レンズ部29を通して、現実空間を直接見ることができる。視線方向撮影用カメラ5は、観測者の視線方向を撮影することで、観測者の見ている現実空間の明るさが把握できる。従って、ディスプレイ部1は仮想情報のみを提示するのであるが、観測者の見ている現実空間との重畳位置および提示する明るさを調整できるので、観測者に違和感のない映像を提供できる。
実施の形態9.
図10は、本発明の実施の形態9に係る画像表示装置の表示ユニット10の動作を示す図である。
図10において、表示ユニット10は、球面である移動面51に沿って移動する。即ち、移動面51は、表示ユニット10の移動可能範囲を拘束する移動球面を示す。移動球面51は、人の眼球が様々な方向を向いたときにも、常に視線方向撮影用カメラ部5及び眼球撮影用カメラ部4の光軸を視線方向と一致させるような表示ユニット10の配置によって形成される球面である。ここで、眼球3の回転中心52から延ばした線に対して表示ユニット10の光軸が平行かつ距離が一定である時に光軸が常に一致する。このような構成により、初期キャリブレーションが行われた後、移動球面51に沿って眼球3の移動を追跡するだけで光学一致状態を維持できる。
移動球面51に沿った表示ユニット10の移動は、例えば、図1に示した第1の回転式駆動部7、アーム部6、第2の回転式駆動部8及びスライド式駆動部9によって行われる。
移動球面51に沿った表示ユニット10の移動を制御する仕組みは、別のものであってもよい。例えば、移動球面51に沿って表示ユニット10を移動させるための表示部移動用ガイドを配置し、表示部移動ガイドに複数の第1の位置制御磁石を配置し、表示ユニット10に第2の位置制御磁石を配置する。ここで、第1の位置制御磁石を電磁石で構成し、第2の位置制御磁石を永久磁石で構成する。第1の位置制御磁石の磁力を調節することで、表示部移動ガイドに沿って表示ユニット10を移動させることができる。
実施の形態10.
図11は、本発明の実施の形態10に係る画像表示装置の仮想情報提示の概念を示す図である。
観測者が、目の焦点位置62の位置を視点とし、観測者の視点にある情報63を見ている。このとき、仮想情報61が、目の焦点位置62よりも観測者から離れた位置の情報である場合、現実空間であれば形状がぼやけて見えるのに対し、従来の画像表示装置では情報に基づく形状がぼやけずにクリアに見えてしまう。従って、観測者にとって、仮想的な表示位置と実際の見え方とにギャップが生じる。このギャップが観測者の認知不可を高める原因となる。
そこで、本発明の実施の形態10に係る画像表示装置では、観測者の視点である目の焦点位置62の距離近傍以外の仮想情報をぼやかして提示する。かように観測者の視点の距離に応じて、観測者の視点の距離近傍以外の仮想情報をぼやかして提示することにより、観測者は仮想生成物が実世界上のどこに置かれているか(置かれるべきものか)を正しく知ることができる。
実施の形態11.
図12は、本発明の実施の形態11に係る視点計測の方法を示す図である。
視線交差位置37は、右目眼球31と左目眼球34の視線が交わる点である。即ち、観測者の視点62(図11参照)に相当する。左右の眼球31、34内部に眼球回転中心33、36があり各眼球の回転中心間距離をLとする。回転中心間線分Lと眼球31、34の視線との為す角度θ1とθ2は、眼球の回転中心のベクトルを求め且つ眼球の視線方向を計測することで計算可能である。これら3つのパラメータ(L、θ1、θ2)が決定されることにより、視線交差位置37の座標が計算され、結果として左目中心・視線交差位置間距離L1と右目中心・視線交差位置間距離L2を導出でき、観測者の視点62を同定できる。
図13は、本発明の実施の形態11に係る画像表示装置を示す構成図である。実施の形態1に係るものと同様のものでよい。表示ユニット10に内蔵されたディスプレイ部1に表示された映像は、第1のミラー部2によって反射され、眼球3に投影され、観測者はディスプレイ部1に表示された映像を観察する。また、第1のミラー部2は、例えば半透明であり、眼球撮影用カメラ部4により、観測者の眼球3の向いている方向、すなわち視線が観測される。このような構成で、左右の眼球31、34の視線方向32、35を測定することができる。眼球撮影用カメラ部4がこれらの視線方向の情報を無線又は有線を経由してコンピュータ端末(図示せず。)に送信すれば、コンピュータ端末(図示せず。)は、観測者の視線交差位置37及び観測者の視点の位置を算出できる。
実施の形態12.
まず、図14にて表示ユニット10内のディスプレイ部1の光源101の指向性と観測者の見え方の概念図を示す。図14(a)は、拡散光源時の見え方の概念図である。図14(a)に示すように、拡散光源時は、眼球位置200に対して、接眼レンズ103の位置と実際の表示位置201の間隔に依存して、仮想表示面202の眼球からの距離が決定される。
図15は、拡散光源時のディスプレイ部1の構成の例であり、光源301が画像表示素子(映像板)302に近接して配置されている。画像表示素子(映像板)302を透過する照明光はあらゆる方向に拡散しているので、接眼レンズ303を介して観測者は、観測者の目のレンズ(即ち、水晶体)を調整することにより、画像表示素子(映像板)302の虚像を観測する。このとき虚像の位置は、接眼レンズ303の焦点距離および接眼レンズ303と画像表示素子(映像板)302との距離で決められる一定の位置になる。即ち、観測者は、虚像を常に同じ位置に見ることになるため、現実空間の映像が画像表示素子(映像板)302に表示されても現実の距離感が得られない。その上、画像表示素子(映像板)302の映像に仮想空間イメージを重畳しても、観測者は、仮想生成物の実世界上での置かれるべき位置(距離)を距離感から把握するということができない。従って、観測者の視覚イメージに違和感が生じることになる。
一方、図14(b)は、指向性光源時の見え方の概念図である。指向性光源時は、眼球位置200に対して、接眼レンズ103の位置と実際の表示位置201の間隔に依存することなく、仮想表示面202の眼球からの距離が可変範囲203にて変化できる。即ち、観測者は、あるべき位置に虚像を見ることができる。
図16は、指向性光源時のディスプレイ部1の構成の例であり、実施の形態12に係る画像表示装置の表示ユニット10の構成を示す図である。表示ユニット10において、光源301から放出された光束が画像表示素子302を透過して、接眼レンズ303により観測者の眼球3の瞳孔308位置で光束が収束された状態で、水晶体306を経て網膜307に画像表示素子302に表示された映像が投影される。
図中の“a”は、瞳孔308上での光束の幅である。“a”が瞳孔径に比べて十分小さくなるように光源301から放射される光束の指向性が選択されると、いわゆるマクスウエル視の状態になる。このとき、水晶体306のレンズ効果に依存せずに、観測者は鮮明な像を見ることができる。即ち、このような指向性光源時では、観測者の視点62が変わっても、映像をぼやかすことなく提示することができる。
実施の形態1乃至9で示した画像表示装置は、観測者の視線に表示ユニット10の光軸を一致させるという視線追従の構成を有する。従って、本実施の形態12のような構成と組み合わせることにより、観測者に常に鮮明な映像を提供できることになる。
本実施の形態12に係る指向性光源を用いた表示ユニット10を用いると、画像表示装置に表示された映像の虚像の位置を、現実空間の位置に対応して観測者が随意に設定できる。更に、実施の形態10又は11のように観測者の視点の距離に応じて観測者の視点の距離近傍以外の仮想情報をぼかして提示することにより、観測者は現実映像と仮想情報を重畳して観測できると共に、仮想生成物が実世界上のどこに置かれているかを正しく認識できる。
なお、上記の説明では、表示ユニット10を構成する光学系をマクスウエル視の状態であるとしている。実際は、光源301が有限の大きさであるとともに、光源301から放出される光束も指向性分布を持っている。そこで、瞳孔308上での光束幅を瞳孔径の2倍から4倍、即ち6mmから12mm程度と設定し、光源301のサイズ及び光源301から放出される光束にも指向性分布を備えるように設定すると、マクスウエル視に近い状態となる。このとき水晶体106のレンズ効果の影響を受けにくくなり、しかも観測者の視線と表示ユニット10の光軸とが多少ずれても、観測者は鮮明な像を見ることができる。こうすれば、視線追従の精度がやや緩和でき、観測者の画像表示装置の装着を容易にできる。
実施の形態13.
図17は、本発明の実施の形態12に係る画像表示装置の動作の概念図である。表示ユニット10や画像を表示させるためのコンピュータ等に障害が発生したときに行うべき対処法の概念を示す。
本発明に係る表示ユニット10は、常に人の視線方向上かつ視線の中心に存在する。ここで、表示ユニット10や画像を表示させるためのコンピュータ等の故障により映像を提示できなくなるといった問題が発生したとき、人の行動に対して危険性を増すことになる。けだし、表示ユニット10が観測者の視線方向を遮った状態になるからである。
そこで、表示ユニット10の電源が落ちると物理的に視線方向から表示ユニット10が例えばバネにより外れるようにする。更に、画像を表示させるためのコンピュータ等から映像が送られなくなると表示ユニット10は自動的かつ即座に表示ユニット10の電源を落とすようにし、これにより表示ユニット10がバネにより視線方向から外れるようにする。これらの動作により、観測者の安全を確保することができる。
本発明の実施の形態1に係る画像表示装置を示す構成図である。 本発明の実施の形態2に係る画像表示装置の表示ユニットの構成を示す図である。 本発明の実施の形態3に係る画像表示装置の表示ユニットの構成を示す図である。 本発明の実施の形態4に係る画像表示装置のディスプレイ部から放射された光の光軸と眼球撮影用カメラ部の光軸とを一致させるためのキャリブレーションの方法を示す図である。 本発明の実施の形態4に係る画像表示装置のディスプレイ部から放射された光の光軸と眼球撮影用カメラ部の光軸とを一致させるためのキャリブレーションの方法を示す図である。 本発明の実施の形態5に係る画像表示装置の表示ユニットの構成を示す図である。 本発明の実施の形態6に係る画像表示装置の表示ユニットの構成を示す図である。 本発明の実施の形態7に係る画像表示装置の表示ユニットの構成を示す図である。 本発明の実施の形態8に係る画像表示装置の表示ユニットの構成を示す図である。 本発明の実施の形態9に係る画像表示装置の表示ユニットの動作を示す図である。 本発明の実施の形態10に係る画像表示装置の仮想情報提示の概念を示す図である。 本発明の実施の形態11に係る視点計測の方法を示す図である。 本発明の実施の形態11に係る画像表示装置を示す構成図である。 (a)は、拡散光源時の見え方の概念図である。(b)は、指向性光源時の見え方の概念図である。 拡散光源時のディスプレイ部の構成の例である。 指向性光源時のディスプレイ部の構成の例である。 本発明の実施の形態12に係る画像表示装置の動作の概念図である。
符号の説明
1 ディスプレイ部、 2 第1のミラー部、 3 眼球、 4 眼球撮影用カメラ部、 5 視線方向撮影用カメラ部、 6 アーム部、 7 第1の回転式駆動部、 8 第2の回転式駆動部、 9 スライド式駆動部、 10 表示ユニット、 11 第2のミラー部、 13 接眼レンズ、 14 偏光ビームスプリッタ、 21 赤外線光源、 22 赤外線照射、 23 可視光反射赤外線透過ミラー、 24 シャッター、 25 撮像デバイス、 26 可視偏光ビームスプリッタ、赤外光透過ミラー、 27 可視光透過、赤外光反射ミラー、 28 赤外光反射、可視光ハーフミラー、 29 補正レンズ部、 31 右目眼球、 32 右目視線方向、 33 右目眼球回転中心、 34 左目眼球、 35 左目視線方向、 36 左目眼球回転中心、 37 視線交差位置、 41 第1のキャリブレーション信号、 42 第2のキャリブレーション信号、 43 第3のキャリブレーション信号、 44 キャリブレーション信号照射位置、 51 移動球面、 52 眼球回転中心、 61 仮想情報、 62 目の焦点位置、 63 観測者の視点にある情報、 200 眼球位置、 201 実際の表示位置、 202 仮想表示面、 203 可変範囲、 301 光源、 302 画像表示素子(映像板)、 306 水晶体、 307 網膜、 308 瞳孔。

Claims (11)

  1. 映像を表示するディスプレイ部と、
    前記ディスプレイ部に表示された映像を観測者の眼球に導く第1のミラー部と、
    観測者の眼球の向きを撮影し観測者の視線方向を検出する第1のカメラ部と、
    光軸が第1のカメラ部と一致し観測者の視線方向を撮影する第2のカメラ部と、
    前記第1のカメラ部及び前記第2のカメラ部と有線又は無線で接続し、前記第2のカメラ部により撮影される観測者の視線方向の映像と仮想の情報とを合成するコンピュータ端末とを備え、
    前記ディスプレイ部にコンピュータ端末により前記観測者の視線方向の映像と仮想の情報とが重畳して表示されることを特徴とする画像表示装置。
  2. 映像を表示するディスプレイ部と、
    前記ディスプレイ部に表示された映像を観測者の眼球に導く第1のミラー部と、
    観測者の眼球の向きを撮影し観測者の視線方向を検出する第1のカメラ部と、
    光軸が第1のカメラ部と一致し観測者の視線方向を撮影する第2のカメラ部と、
    前記第1のミラー部を介して観測者に直接現実空間を見せしめる接眼レンズ及び補正レンズ部と、
    前記第2のカメラ部と有線又は無線で接続し、前記第2のカメラ部により撮影される観測者の視線方向の映像を受け、該映像の情報に基づき前記ディスプレイ部に仮想の情報を表示するコンピュータ端末とを備える画像表示装置。
  3. 前記ディスプレイ部、前記第1のミラー部、前記第1のカメラ部及び前記第2のカメラ部が表示ユニットに含まれ、
    コンピュータ端末と無線又は有線により接続し表示ユニットを駆動する駆動部が更に備わり、
    前記第1のカメラ部の光軸と観測者の視線を一致させるため、前記ディスプレイ部の映像表示範囲の一部を点灯し、眼球に写った点灯位置の情報を前記第1のカメラ部が撮像してコンピュータ端末に送信し、眼球に写った点灯位置が前記眼球の瞳孔の中心になるようにコンピュータ端末が前記駆動部を制御することを特徴とする請求項1又は2に記載の画像表示装置。
  4. 前記第1のカメラ部に赤外線照射部を備え、前記赤外線照射部からの赤外線により眼球を撮影することを特徴とする請求項1〜3のうちのいずれか一つに記載の画像表示装置。
  5. 前記第1のカメラ部の撮像素子と前記第2のカメラ部の撮像素子とが、一体に形成されていることを特徴とする請求項4記載の画像表示装置。
  6. 前記ディスプレイ部に備わる画像表示部が反射型素子であることを特徴とする請求項1〜5のうちのいずれか一つに記載の画像評価装置。
  7. 前記表示ユニットが前記観測者の眼球の回転中心を中心とした球面上を観測者の視線方向に追従して移動するように、前記コンピュータ端末が表示ユニットの駆動部を制御することを特徴とする請求項1〜6のうちのいずれか一つに記載の画像表示装置。
  8. 前記コンピュータ端末による仮想の情報のうち、観測者の視点近傍以外の映像をぼやかすことを特徴とする請求項1〜7のうちのいずれか一つに記載の画像表示装置。
  9. 一方の目のための第1のカメラ部から検出される第1の視線の情報と、他方の目のための第1のカメラ部から検出される第2の視線の情報がコンピュータ端末に送信され、
    コンピュータ端末が第1の視線の情報と第2の視線の情報とから観測者の視点を決定することを特徴とする請求項1〜8のうちのいずれか一つに記載の画像表示装置。
  10. 前記ディスプレイ部から放射される光束が指向性を有し、且つ通常の瞳孔サイズの4倍以下の幅であることを特徴とする請求項3〜9のうちのいずれか一つに記載の画像表示装置。
  11. 前記表示ユニットの表示が停止した際に、前記表示ユニットが前記観測者の眼球の前から移動することを特徴とする請求項3〜10のうちのいずれか一つに記載の画像表示装置。

JP2005128203A 2005-04-26 2005-04-26 画像表示装置 Pending JP2006308674A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005128203A JP2006308674A (ja) 2005-04-26 2005-04-26 画像表示装置
PCT/JP2006/308448 WO2006118057A1 (ja) 2005-04-26 2006-04-21 画像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005128203A JP2006308674A (ja) 2005-04-26 2005-04-26 画像表示装置

Publications (1)

Publication Number Publication Date
JP2006308674A true JP2006308674A (ja) 2006-11-09

Family

ID=37307857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005128203A Pending JP2006308674A (ja) 2005-04-26 2005-04-26 画像表示装置

Country Status (2)

Country Link
JP (1) JP2006308674A (ja)
WO (1) WO2006118057A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010085786A (ja) * 2008-09-30 2010-04-15 Brother Ind Ltd 頭部装着型表示装置
JP2010102215A (ja) * 2008-10-27 2010-05-06 Sony Computer Entertainment Inc 表示装置、画像処理方法、及びコンピュータプログラム
JP2011215550A (ja) * 2010-04-02 2011-10-27 Olympus Corp 表示装置、電子機器、携帯用電子機器、携帯電話、及び撮像装置
JP2015213226A (ja) * 2014-05-02 2015-11-26 コニカミノルタ株式会社 ウエアラブルディスプレイ及びその表示制御プログラム
KR20160064388A (ko) * 2014-11-28 2016-06-08 현대자동차주식회사 시선 인식 기능을 갖는 차량 및 그 제어방법과 시선 인식 시스템
WO2016113951A1 (ja) * 2015-01-15 2016-07-21 株式会社ソニー・インタラクティブエンタテインメント 頭部装着型表示装置、及び映像表示システム
CN109856796A (zh) * 2018-11-20 2019-06-07 成都理想境界科技有限公司 图像源模组、波导、近眼显示系统及其控制方法
WO2020095801A1 (ja) * 2018-11-05 2020-05-14 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイシステム、移動体、およびプログラム
JP2022049247A (ja) * 2020-09-16 2022-03-29 株式会社テックジェーピー 頭部装着型画像表示装置
US11854444B2 (en) 2019-07-26 2023-12-26 Sony Group Corporation Display device and display method
JP2024109394A (ja) * 2023-02-01 2024-08-14 トヨタ自動車株式会社 端末装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5342132B2 (ja) * 2007-11-16 2013-11-13 パナソニック株式会社 網膜投影ディスプレイ装置
JP5494192B2 (ja) * 2010-04-30 2014-05-14 カシオ計算機株式会社 表示装置
US8681426B2 (en) * 2011-11-04 2014-03-25 Honeywell International Inc. Steerable near-to-eye display and steerable near-to-eye display system
JP5955348B2 (ja) * 2013-05-22 2016-07-20 株式会社テレパシーホールディングス 撮影画像のプライバシー保護機能を有するウェアラブルデバイス及びその制御方法並びに画像共有システム
CN110199324B (zh) * 2017-01-31 2023-12-29 株式会社和冠 显示装置及其控制方法
JP2018173661A (ja) * 2018-07-23 2018-11-08 旭化成株式会社 眼鏡レンズを有する光学装置、及びそれを用いた眼鏡、並びに眼鏡型表示装置
CN109991746A (zh) * 2019-03-08 2019-07-09 成都理想境界科技有限公司 图像源模组及近眼显示系统
JP6949389B2 (ja) 2020-03-11 2021-10-13 国立大学法人福井大学 網膜走査型表示装置および画像表示システム
WO2022054740A1 (ja) * 2020-09-09 2022-03-17 株式会社Qdレーザ 画像投影装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3141835B2 (ja) * 1997-12-27 2001-03-07 株式会社エム・アール・システム研究所 表示装置
JP2000059666A (ja) * 1998-08-07 2000-02-25 Victor Co Of Japan Ltd 撮像装置
JP2002090688A (ja) * 2000-09-12 2002-03-27 Masahiko Inami 視線方向依存型の網膜ディスプレイ装置
JP2002271691A (ja) * 2001-03-13 2002-09-20 Canon Inc 画像処理方法、画像処理装置、記憶媒体及びプログラム
JP4385742B2 (ja) * 2002-11-29 2009-12-16 ブラザー工業株式会社 画像表示装置
JP4370997B2 (ja) * 2004-07-29 2009-11-25 株式会社島津製作所 頭部装着型表示装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010085786A (ja) * 2008-09-30 2010-04-15 Brother Ind Ltd 頭部装着型表示装置
JP2010102215A (ja) * 2008-10-27 2010-05-06 Sony Computer Entertainment Inc 表示装置、画像処理方法、及びコンピュータプログラム
JP2011215550A (ja) * 2010-04-02 2011-10-27 Olympus Corp 表示装置、電子機器、携帯用電子機器、携帯電話、及び撮像装置
JP2015213226A (ja) * 2014-05-02 2015-11-26 コニカミノルタ株式会社 ウエアラブルディスプレイ及びその表示制御プログラム
KR101648021B1 (ko) * 2014-11-28 2016-08-23 현대자동차주식회사 시선 인식 기능을 갖는 차량 및 그 제어방법과 시선 인식 시스템
KR20160064388A (ko) * 2014-11-28 2016-06-08 현대자동차주식회사 시선 인식 기능을 갖는 차량 및 그 제어방법과 시선 인식 시스템
US20180217380A1 (en) * 2015-01-15 2018-08-02 Sony Interactive Entertainment Inc. Head-mounted display device and image display system
JPWO2016113951A1 (ja) * 2015-01-15 2017-09-07 株式会社ソニー・インタラクティブエンタテインメント 頭部装着型表示装置、及び映像表示システム
WO2016113951A1 (ja) * 2015-01-15 2016-07-21 株式会社ソニー・インタラクティブエンタテインメント 頭部装着型表示装置、及び映像表示システム
US10591735B2 (en) 2015-01-15 2020-03-17 Sony Interactive Entertainment Inc. Head-mounted display device and image display system
WO2020095801A1 (ja) * 2018-11-05 2020-05-14 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイシステム、移動体、およびプログラム
JP2020077913A (ja) * 2018-11-05 2020-05-21 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイシステム、移動体、およびプログラム
JP7207954B2 (ja) 2018-11-05 2023-01-18 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイシステム、移動体、およびプログラム
CN109856796A (zh) * 2018-11-20 2019-06-07 成都理想境界科技有限公司 图像源模组、波导、近眼显示系统及其控制方法
US11854444B2 (en) 2019-07-26 2023-12-26 Sony Group Corporation Display device and display method
JP2022049247A (ja) * 2020-09-16 2022-03-29 株式会社テックジェーピー 頭部装着型画像表示装置
JP2024109394A (ja) * 2023-02-01 2024-08-14 トヨタ自動車株式会社 端末装置

Also Published As

Publication number Publication date
WO2006118057A1 (ja) 2006-11-09

Similar Documents

Publication Publication Date Title
US12069233B2 (en) Head-mounted augmented reality near eye display device
EP3330771B1 (en) Display apparatus and method of displaying using focus and context displays
JP2006308674A (ja) 画像表示装置
JP2025000843A (ja) 操作可能な中心窩ディスプレイ
EP3330772B1 (en) Display apparatus and method of displaying using projectors
US6078427A (en) Smooth transition device for area of interest head-mounted display
HK1245897A1 (en) Display apparatus and method of displaying using the display apparatus
TW201640181A (zh) 自動調焦頭戴式顯示裝置
US11178380B2 (en) Converting a monocular camera into a binocular stereo camera
JPH0777665A (ja) 画像表示装置及びその為の画像撮影装置
JPH0759032A (ja) 画像ディスプレー装置
JPH08313843A (ja) 視線追従方式による広視野高解像度映像提示装置
TW201843494A (zh) 具有視訊透視之顯示系統
US20120307210A1 (en) Stereoscopic display apparatus and method
JPH11197108A (ja) 視機能検査装置
JP2000199871A (ja) 映像表示装置
US10495895B2 (en) Display apparatus and method of displaying using polarizers
JP2507913B2 (ja) 投射方式による眼球運動追従型視覚提示装置
CN114578554A (zh) 实现虚实融合的显示设备
US20200241298A1 (en) Display apparatus and method of displaying
JP2008227834A (ja) 頭部搭載型映像提示装置、頭部搭載型撮影装置、及び頭部搭載型映像装置
JP2000131643A (ja) 映像表示装置
JP2025010946A (ja) 頭部装着型撮像装置および視線画像調整方法
WO2014028006A1 (en) Stereoscopic display apparatus and method
HK40005588B (zh) 使用便携式电子设备的显示装置和方法

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070301

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100506

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100914