[go: up one dir, main page]

WO2013179425A1 - 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 - Google Patents

表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 Download PDF

Info

Publication number
WO2013179425A1
WO2013179425A1 PCT/JP2012/063984 JP2012063984W WO2013179425A1 WO 2013179425 A1 WO2013179425 A1 WO 2013179425A1 JP 2012063984 W JP2012063984 W JP 2012063984W WO 2013179425 A1 WO2013179425 A1 WO 2013179425A1
Authority
WO
WIPO (PCT)
Prior art keywords
calibration
unit
line
user
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2012/063984
Other languages
English (en)
French (fr)
Inventor
明 後藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to PCT/JP2012/063984 priority Critical patent/WO2013179425A1/ja
Publication of WO2013179425A1 publication Critical patent/WO2013179425A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Definitions

  • FIG. 6 is a flowchart showing the overall processing of the HMD 100.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
 本発明は、現実環境に対して情報を付加提示する技術分野に関する。
 従来から、ヘッドマウントディスプレイなどの光学透過可能な表示装置を用いて、CG(Computer Graphics)や文字等の付加情報を、現実環境に対して付加提示する拡張現実感(AR:Augment Reality)に関する技術が提案されている。また、このような光学透過可能な表示装置を用いたAR(以下では適宜「光学透過式AR」と呼ぶ。)に関して、ユーザの視点から見た現実像の位置と情報の表示位置とのずれを補正するために校正を行う技術が提案されている。
 例えば、非特許文献1には、現実環境上のマーカの位置とディスプレイの表示位置とをユーザが合わせて、その際の情報に基づいて校正を行う技術が記載されている。また、特許文献1には、ユーザ毎に校正を行うのではなく、以前校正を行った際の眼球の位置と現在の眼球の位置とのずれを告知することで、再校正せずに合成位置のずれを無くすことが記載されている。
 また、特許文献2には、光学透過型ヘッドマウントディスプレイと外界撮影用のカメラと視線検出手段とを有する装置に関して、ユーザの視線の動きにより外界撮影用カメラ内の特定の範囲を選択し、その選択範囲をカメラから画像情報として取り込んで処理する技術が記載されている。この技術では、例えば、英文を朗読中に、視線による指定領域を画像処理し、判読、翻訳してデータを表示している。また、特許文献3には、医用ディスプレイ装置に関して、瞳孔位置を正確に検出して、その瞳孔の位置に応じて表示の位置を補正することが記載されている。
特開2006-133688号公報 特開2000-152125号公報 特開2008-18015号公報
加藤博一,Mark Billinghurst,浅野浩一,橘啓八郎,"マーカー追跡に基づく拡張現実感システムとそのキャリブレーション",日本バーチャルリアリティ学会論文誌,Vol.4,No.4,pp.607-616,1999
 非特許文献1に記載された技術では、現実環境上のマーカの位置とディスプレイの表示位置とを調整する作業をユーザが複数回行う必要がある。そのため、ユーザがマーカや頭を何度も移動させる必要があり、手間や時間がかかる傾向にあった。加えて、表示装置が両眼用である場合には左右の眼で別々に校正を行う必要があるため、この場合には手間や時間が更にかかる傾向にあった。
 他方で、特許文献1に記載の技術は、眼の位置を自由に調整可能な構成が必要であり、さらには、カメラや表示装置の設定や位置の変更をしたい場合には適用できなかった。また、特許文献2に記載の技術では、校正を行っていないため、所望の位置から表示の位置がずれる可能性があった。また、特許文献3に記載の技術は、カメラや表示装置の設定や位置の変更をしたい場合には適用できなかった。
 本発明が解決しようとする課題は上記のようなものが例として挙げられる。本発明は、容易に校正を行うことが可能な表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体を提供することを課題とする。
 請求項1に記載の発明では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置は、前記現実環境に存在する対象物の位置を検出する位置検出手段と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備える。
 請求項10に記載の発明では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式のヘッドマウントディスプレイは、前記現実環境に存在する対象物の位置を検出する位置検出手段と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備える。
 請求項11に記載の発明では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正方法は、前記現実環境に存在する対象物の位置を検出する位置検出工程と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出工程と、前記位置検出工程が検出した前記位置と前記視線方向検出工程が検出した前記視線方向とに基づいて、前記位置検出工程にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正工程と、を備える。
 請求項12に記載の発明では、コンピュータを有し、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正プログラムは、前記コンピュータを、前記現実環境に存在する対象物の位置を検出する位置検出手段、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段、として機能させる。
 請求項13に記載の発明では、記録媒体は、請求項12に記載の校正プログラムを記録したことを特徴とする。
HMDの概略構成を示す外観図である。 HMDの内部構造を概略的に示す図である。 校正を行う理由を説明するための図を示す。 第1実施例で用いるマーカの一例を示す。 第1実施例に係る制御部の構成を示すブロック図である。 HMDの全体処理を示すフローチャートである。 第1実施例に係る校正処理を示すフローチャートである。 第2実施例に係る制御部の構成を示すブロック図である。 第2実施例に係る校正処理を示すフローチャートである。
 本発明の1つの観点では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置は、前記現実環境に存在する対象物の位置を検出する位置検出手段と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備える。
 上記の表示装置は、光学透過式ARを実現可能に構成され、ユーザが視認する現実環境に対して付加情報を表示する。位置検出手段は、現実環境に存在する対象物の位置を検出し、視線方向検出手段は、ユーザが対象物に視線を向けている際の視線方向を検出する。「対象物」としては、現実環境に存在する人工特徴点(マーカなど)や自然特徴点などの種々のものが挙げられる。校正手段は、光学透過式ARにおける、位置検出手段と表示装置とユーザの眼との位置や姿勢関係に起因する、ユーザの視点から見た現実像と表示との位置ずれを補正するための校正を行う。具体的には、校正手段は、位置検出手段が検出した対象物の位置と視線方向検出手段が検出した視線方向とに基づいて、位置検出手段にて規定される第1座標系から表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する。
 上記の表示装置によれば、視線方向に基づいて校正を行うため、校正時にユーザは対象物に視線を向けるといった作業を行うだけで良い。このような作業は、非特許文献1に記載されたような、表示装置やマーカを移動させて十字表示とマーカとの位置を合わせる作業よりも、校正時のユーザの負担は小さいと言える、つまり手間や時間がかからないと言える。また、表示装置が両眼用の場合、視線方向検出手段を左右それぞれに設けることで、左右の眼について同時に校正を行うことが可能となる。以上より、上記の表示装置によれば、校正時のユーザの負担を効果的に軽減することができる。
 上記の表示装置の一態様では、前記視線方向検出手段は、前記ユーザが注視したことを入力するための入力手段を操作した際に、前記視線方向を検出する。この態様では、ユーザは、ボタンなどの入力手段を操作することで注視していることを知らせる。これにより、ユーザが対象物を注視している際の視線方向を適切に検出することができる。
 上記の表示装置の他の一態様では、前記視線方向検出手段は、前記ユーザが注視動作を所定時間行った際に、前記視線方向を検出する。これにより、ボタンなどを操作して注視を知らせる場合と比較して、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。
 上記の表示装置の他の一態様では、前記視線方向検出手段は、前記ユーザが瞬きを行った際に、前記視線方向を検出する。これによっても、ボタンなどを操作して注視を知らせる場合と比較して、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。
 好適な例では、前記位置検出手段は、前記現実環境を画像取得装置で撮影した撮影画像に基づいて、前記位置を検出し、前記第1座標系は、前記画像取得装置を基準とした座標系である。
 好適な例では、前記対象物は、前記校正手段による前記校正データの算出のために用いられるものであり、マーカである。これにより、校正時において、対象物の位置を容易に検出することができる。
 また好適な例では、前記視線方向検出手段は、前記視線方向と前記表示装置による表示面との交点に当たる、前記第2座標系での座標を求め、前記校正手段は、前記視線方向検出手段によって求められた前記座標と前記位置検出手段が検出した前記位置とに基づいて、前記校正データを算出する。
 上記の表示装置の他の一態様では、前記ユーザに注視させるべき前記対象物を指定する指定手段を更に備え、前記視線方向検出手段は、前記指定手段によって指定された前記対象物を前記ユーザが注視している際の視線方向を検出する。これにより、ユーザは指定された対象物を注視するといった作業を行うだけで、校正を行うことが可能となる。
 上記の表示装置において好適には、前記指定手段は、前記注視させるべき対象物に応じた画像を表示させることで、当該対象物の指定を行うことができる。これにより、注視すべき対象物をユーザに適切に把握させることができる。
 本発明の他の観点では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式のヘッドマウントディスプレイは、前記現実環境に存在する対象物の位置を検出する位置検出手段と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備える。
 本発明の更に他の観点では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正方法は、前記現実環境に存在する対象物の位置を検出する位置検出工程と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出工程と、前記位置検出工程が検出した前記位置と前記視線方向検出工程が検出した前記視線方向とに基づいて、前記位置検出工程にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正工程と、を備える。
 本発明の更に他の観点では、コンピュータを有し、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正プログラムは、前記コンピュータを、前記現実環境に存在する対象物の位置を検出する位置検出手段、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段、として機能させる。
 上記の校正プログラムは、記録媒体に記録した状態で好適に取り扱うことができる。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [第1実施例]
 まず、第1実施例について説明する。
 (装置構成)
 図1は、第1実施例に係るヘッドマウントディスプレイ(以下、適宜「HMD」と表記する。)の概略構成を示す外観図である。図1に示すように、HMD100は、主に、透過型ディスプレイ部1と、撮像部2と、装着部3とを有する。HMD100は眼鏡型に構成されており、ユーザはHMD100を頭部に装着して使用する。HMD100は、現実環境に設けられたマーカの位置に対応するように透過型ディスプレイ部1に、本発明における「付加情報」の一例としてのCGを表示させることで、AR(拡張現実)を実現する。なお、HMD100は、本発明における「表示装置」の一例である。
 撮像部2は、カメラを含んでなり、ユーザがHMD100を装着した状態でユーザの前方の現実環境を撮影する。撮像部2は、左右に並んだ2つの透過型ディスプレイ部1の間に設けられている。本実施例では、撮像部2の撮影画像に基づいて、マーカの位置などを検出する。
 装着部3は、ユーザの頭部に装着可能に構成された部材(眼鏡フレーム状の部材)であり、ユーザの頭部を左右両側から挟むことが可能に構成されている。
 透過型ディスプレイ部1は、光学透過式に構成されており、ユーザの左右の眼にそれぞれ対応して1つずつ設けられている。ユーザは、透過型ディスプレイ部1を介して現実環境を見るとともに、透過型ディスプレイ部1に表示されるCGを見ることで、現実環境には存在しないCGが、現実環境にあたかも存在しているかのように感じることができる。つまり、AR(拡張現実)を実現することができる。
 なお、撮像部2の撮影画像を用いてマーカなどの3次元位置を検出するため(詳細は後述する)、好適には、撮像部2はステレオカメラにて構成される。但し、ステレオカメラを用いることに限定はされず、他の例では、撮像部2に単眼カメラを用いることができる。この場合には、大きさや特徴の既知のマーカやピクチャーマーカや3次元物体を利用したり、カメラの移動による視点の違いを利用したりして、3次元位置を検出すれば良い。更に他の例では、撮像部2にTOF(Time-of-Flight)カメラと可視光カメラとを併用して、3次元位置を検出することができる。更に他の例では、レーザやプロジェクタなどによるパターン投影とカメラを利用した三角測量を利用して、3次元位置を検出することができる。
 図2は、HMD100の内部構造を概略的に示す図である。図2に示すように、HMD100は、上記した透過型ディスプレイ部1や撮像部2以外に、制御部5、近赤外線光源6及び視線方向検出部7を有する。また、透過型ディスプレイ部1は、表示部1a、レンズ1b及びハーフミラー1cを有する(破線で囲った領域を参照)。
 表示部1aは、LCD(Liquid Crystal Display)や、DLP(Digital Light Processing)や、有機ELなどで構成され、表示すべき画像に対応する光を出射する。なお、レーザ光源からの光をミラーでスキャンするような構成を、表示部1aに適用しても良い。このような表示部1aから出射された光は、レンズ1bで拡大等された後にハーフミラー1cで反射されて、ユーザの眼に入射する。これにより、ユーザは、ハーフミラー1cを介して、図2中の符号4で示す面(以下では適宜「表示面4」と呼ぶ。)に形成される虚像を視認することとなる。
 近赤外線光源6は、近赤外線を眼球に向けて照射する。視線方向検出部7は、角膜表面での近赤外線の反射光(プルキニエ像)および瞳孔の位置を検出することで、ユーザの視線方向を検出する。例えば、視線方向の検出には、公知の角膜反射法(1つの例では、『坂下祐輔,藤吉弘亘,平田豊,“画像処理による3次元眼球運動計測”,実験力学,Vol.6,No.3,pp.236-243,2006年9月』)などを用いることができる。この手法では、HMD100の表示を注視する作業を複数回行って視線方向の検出についての校正を行うことで、ユーザがHMD100の表示上の見ている場所をより精度良く検出することができる。視線方向検出部7は、このように検出した視線方向に関する情報を制御部5に供給する。なお、視線方向検出部7は、本発明における「視線方向検出手段」の一例である。
 制御部5は、図示しないCPUやRAMやROMなどを有し、HMD100の全体的な制御を行う。具体的には、制御部5は、撮像部2が撮影した撮影画像や視線方向検出部7が検出した視線方向に基づいて、CGの表示位置を校正する処理や、表示すべきCGについてのレンダリングなどを行う。制御部5が行う制御については、詳細は後述する。
 なお、視線方向の検出は、上記した方法に限定はされない。他の例では、赤外線ハーフミラーで反射した眼球を撮影することで、視線方向を検出することができる。更に他の例では、単眼カメラで瞳孔や眼球や顔を検出して、視線方向を検出することができる。更に他の例では、ステレオカメラを用いて、視線方向を検出することができる。また、非接触型の視線方向の検出方法を用いることにも限定はされず、接触型の視線方向の検出方法を用いても良い。
 (校正方法)
 次に、第1実施例に係る校正方法について具体的に説明する。
 図3は、校正を行う理由を説明するための図を示す。図3(a)に示すように、HMD100では、ユーザの眼の位置と撮像部2の位置とが互いに異なるため、撮像部2によって取得される像(撮影画像)と、ユーザの眼に映る像とは互いに異なる。例えば、ユーザの眼と、撮像部2と、現実環境に設けられたマーカ200とが、図3(a)に示すような位置関係にあるものとする。この場合には、撮像部2によって取得される像P1(図3(b)参照)では、マーカ200は当該像における左側に位置するが、ユーザの眼に映る像P3(図3(c)参照)では、マーカ200は当該像における右側に位置することになる。なお、マーカ200は、現実環境の物体400に設けられている。マーカ200は、CGなどの付加情報を提示すべき対象の1つである。
 ここで、撮像部2によって取得される像P1に基づいて、マーカ200の位置を検出し、当該像P1における検出した位置にCG300をそのまま合成すると、CG300とマーカ200との位置が一致した像P2が生成されることとなる。しかしながら、HMD100のような光学透過式の表示装置では、ユーザの眼の位置と撮像部2の位置との差異に応じて、校正を行う必要がある。というのは、校正を行わないと、図3(c)の像P4に示すように、ユーザの視点から見ると、マーカ200とCG300との位置と姿勢(方向)がずれてしまうおそれがあるからである。
 したがって、第1実施例では、制御部5は、図3(c)の像P5のように、CG300とマーカ200との位置と姿勢(方向)を一致させるように補正を行う。具体的には、制御部5は、撮像部2を基準とした像から眼を基準としたHMD100の像への変換を行うことで、当該補正を行う。つまり、制御部5は、撮像部2における座標系(以下では「撮像座標系」と呼ぶ。)から、HMD100による表示における座標系(以下では「表示座標系」と呼ぶ。)への変換を行う。なお、撮像座標系は本発明における「第1座標系」の一例であり、表示座標系は本発明における「第2座標系」の一例である。
 第1実施例では、制御部5は、校正として、撮像座標系から表示座標系へ変換するための行列である校正データを算出する処理(以下では適宜「校正処理」と呼ぶ。)を行う。校正データは、表示面4と撮像部2と眼との位置や姿勢の関係によって決まり、表示面4と撮像部2と眼との3つが共に同じ方向、同じ角度に同じだけ動く場合には、同じ校正データを使用しても問題ない。そのため、HMD100では、まず最初に校正データを算出し(例えばHMD100の使用開始時やユーザから要求があった際に校正データを算出する)、その後は算出した校正データを使用して上記したずれの補正を行う。
 具体的には、第1実施例では、制御部5は、視線方向検出部7が検出した視線方向及び撮像部2が撮影した撮影画像に基づいて、校正データを算出する。この場合、第1実施例では複数の校正用のマーカ(以下では単に「マーカ」とも表記する。)を配置させた現実環境を用いて、制御部5は、このような現実環境の撮影画像より検出された撮像座標系でのマーカの位置と、ユーザが現実環境中のマーカを注視している際に視線方向検出部7によって検出された視線方向とに基づいて、撮像座標系から表示座標系へ変換するための校正データを算出する。より詳しくは、制御部5は、撮像座標系でのマーカの位置と、ユーザの視線方向と表示面4との交点に当たる表示座標系の座標(以下では「視線方向座標」と呼ぶ。)とに基づいて、校正データを算出する。
 第1実施例では、制御部5は、複数の校正用のマーカについて、撮像座標系でのマーカの位置と視線方向座標とを得て、得られた複数のマーカの位置と複数の視線方向座標とに基づいて校正データを算出する。具体的には、制御部5は、複数のマーカの中から1つのマーカを指定して、ユーザが当該マーカを注視した後に別のマーカを指定するといった工程を所定回数行うことにより、その都度、撮像座標系でのマーカの位置と視線方向座標とを求めることで、複数のマーカの位置と複数の視線方向座標とを得る。この場合、制御部5は、注視すべきマーカを指定するための画像(以下では「注視対象画像」と呼ぶ。)を表示させ、ユーザは、注視対象画像に応じたマーカを注視した際に、校正用のユーザインターフェース(UI:User Interface)としてのボタンを押下することで、注視したことを制御部5に知らせる。
 以上述べたように、制御部5は、本発明における「位置検出手段」、「校正手段」及び「指定手段」の一例である。
 図4は、第1実施例で用いるマーカの一例を示している。図4では、0~8の数字が付された9つのマーカ200a~200iを用いる場合を例示している。図4(a)は、マーカ200a~200iを正面から観察した図を示し、図4(b)は、マーカ200a~200iを上から観察した図を示している。マーカ200a~200iは、概ね同一のサイズを有している。
 図4(a)に示すように、マーカ200a~200iは、上下左右における位置が互いに異なるように配置されている。また、図4(b)に示すように、マーカ200a~200eとマーカ200f~200iとで前後の位置が異なるように配置されている。具体的には、マーカ200a~200eは奥側に配置されており、マーカ200f~200iは手前側に配置されている。例えば、制御部5は、マーカ200a~200iの中でユーザに注視させる1つのマーカを指定する場合、当該マーカに付された数字(0~8のいずれか)を含むような注視対象画像を表示させる。
 なお、図4では矩形のマーカを用いる例を示したが、これに限定はされない。マーカは、3次元位置を検出可能でユーザが注視可能であれば、種々のものを用いることができる。例えば、円形マーカや、多角形のマーカや、反射物や発光物で構成されたマーカや、事前に登録した画像のマーカなどを用いることができる。
 また、マーカの配置は、図4に示したものに限定はされない。マーカの中心位置が同一平面上にならないような配置であれば、種々の配置を適用することができる。
 更に、複数のマーカを用いることに限定はされず、1つのマーカのみを用いても良い。1回の注視で用いるのは1つのマーカであり、複数回注視させる際の各回のマーカの位置が異なれば良いので、複数のマーカを用いなくても、1つのマーカでこれを実現することができるからである。例えば、ユーザに複数回注視させる際の各回ごとに、1つのマーカを動かしたり、1つのマーカを固定した状態でユーザの頭を動かしたりすることで、複数のマーカを用いた場合と同じことが実現できる。
 (制御部の構成)
 次に、図5を参照して、第1実施例に係る制御部5の具体的な構成について説明する。
 図5は、第1実施例に係る制御部5の構成を示すブロック図である。図5に示すように、制御部5は、主に、校正部51と、変換行列算出部52と、レンダリング部53と、セレクタ(SEL)54とを有する。
 ボタン8は、上記したように、ユーザがマーカを注視した際に押下されるボタンである。ボタン8は、ユーザによって押下された際に、ユーザがマーカを注視したことを示す注視完了信号を視線方向検出部7及び校正部51に出力する。なお、ボタン8は、本発明における「入力手段」の一例である。
 視線方向検出部7は、ボタン8から注視完了信号が入力された際に、この際のユーザの視線方向を検出する。具体的には、視線方向検出部7は、ユーザが注視している際の視線方向と表示面4との交点に当たる、表示座標系の座標である視線方向座標(Xd、Yd)を求めて、視線方向座標(Xd、Yd)を校正部51に出力する。
 校正部51は、校正制御部51aと、注視対象選択部51bと、視線方向座標蓄積部51cと、校正用マーカ位置検出部51dと、マーカ位置蓄積部51eと、校正データ算出部51fとを有する。校正部51は、所定のボタン(不図示)などが押下されることで校正開始トリガが入力された場合に、校正処理を行うことにより、校正データMを算出する。
 校正制御部51aは、校正処理を制御する。具体的には、校正制御部51aは、注視対象選択部51b、校正データ算出部51f及びセレクタ54を制御する。校正制御部51aは、上記の校正開始トリガが入力されると校正処理を開始する。具体的には、校正制御部51aは、校正開始トリガが入力されると、ボタン8からの注視完了信号に応じて、ユーザに注視させるマーカを指定する注視対象画像を更新するための表示更新信号を注視対象選択部51bに出力する。また、校正制御部51aは、ボタン8からの注視完了信号が所定回数入力された場合に、演算トリガを校正データ算出部51fに出力すると共に、モード切替信号をセレクタ54に出力する。後述するように、校正データ算出部51fは、演算トリガが入力されると、校正データMを算出する。また、セレクタ54は、モード切替信号が入力されると、表示部1aに出力するデータを、注視対象画像に対応するデータ(注視対象画像データ)と、付加情報として表示すべきCGなどの画像データ(表示データ)とで切り替えるモード切替を行う。
 注視対象選択部51bは、校正制御部51aから表示更新信号が入力された場合に、ユーザに注視させるマーカを指定するための注視対象画像を生成する。具体的には、注視対象選択部51bは、複数のマーカの中でユーザに注視させる1つのマーカを選択し(詳しくは、今回の校正処理において未だユーザに注視させていない1つのマーカを選択)、当該マーカに応じた注視対象画像データを生成する。例えば、注視対象選択部51bは、選択したマーカに付された数字や文字などを含むような注視対象画像を生成する。そして、注視対象選択部51bは、生成した注視対象画像データをセレクタ54に出力する。なお、注視対象選択部51bは、本発明における「指定手段」の一例に相当する。
 視線方向座標蓄積部51cは、視線方向検出部7から視線方向座標(Xd、Yd)が入力され、視線方向座標(Xd、Yd)を蓄積する。なお、視線方向座標(Xd、Yd)は、表示座標系を基準としたマーカの位置座標に相当する。
 校正用マーカ位置検出部51dは、撮像部2によって撮像された撮影画像が入力され、撮影画像から校正用のマーカの3次元位置を検出する。具体的には、校正用マーカ位置検出部51dは、撮影画像に対応する画像データに基づいて、校正用のマーカの位置を示す座標(Xc、Yc、Zc)を特定し、特定した座標(Xc、Yc、Zc)をマーカ位置蓄積部51eに出力する。マーカ位置蓄積部51eは、校正用マーカ位置検出部51dから出力された座標(Xc、Yc、Zc)を蓄積する。なお、座標(Xc、Yc、Zc)は、撮像座標系を基準としたマーカの位置座標に相当する。このように、校正用マーカ位置検出部51dは、本発明における「位置検出手段」の一例に相当する。
 校正データ算出部51fは、校正制御部51aから演算トリガが入力されると、視線方向座標蓄積部51cに蓄積された複数の視線方向座標(Xd、Yd)、及びマーカ位置蓄積部51eに蓄積された複数のマーカの位置座標(Xc、Yc、Zc)を読み出す。そして、校正データ算出部51fは、読み出した複数の視線方向座標(Xd、Yd)及び複数の位置座標(Xc、Yc、Zc)に基づいて、撮像座標系から表示座標系へ変換するための行列である校正データMを算出する。校正データ算出部51fは、校正データMを算出し終えると、その旨を示す演算終了信号を校正制御部51aに出力する。このように、校正データ算出部51fは、本発明における「校正手段」の一例に相当する。
 次に、変換行列算出部52は、マーカ検出部52aと、Rmc算出部52bとを有している。変換行列算出部52は、マーカにおける座標系(以下では「マーカ座標系」と呼ぶ。)から撮像座標系へ変換するための変換行列Rmcを算出する。
 マーカ検出部52aは、撮像部2によって撮像された撮像画像中のマーカの位置及びサイズを検出する。
 Rmc算出部52bは、マーカ検出部52aによって検出されたマーカの位置及びサイズに基づいて、マーカ座標系から撮像座標系へ変換するための変換行列Rmcを算出する。Rmc算出部52bは、算出した変換行列Rmcをレンダリング部53に出力する。変換行列Rmcが更新されることで、マーカに追従するようにCGが表示されることとなる。
 次に、レンダリング部53は、CGデータ格納部53aと、マーカto撮像座標変換部53bと、撮像to表示変換部53cとを有している。レンダリング部53は、表示すべきCGについてのレンダリングを行う。
 CGデータ格納部53aは、表示すべきCGのデータ(CGデータ)が格納された記憶手段である。CGデータ格納部53aには、マーカ座標系で規定されたCGデータが格納されている。なお、CGデータ格納部53aに格納されているCGデータは、3次元(3D)データである。以下では、CGデータ格納部53aに格納されているCGデータを、「マーカ座標系データ」と適宜称する。
 マーカto撮像座標変換部53bは、変換行列算出部52から変換行列Rmcが入力され、変換行列Rmcに基づいて、CGデータ格納部53aに格納されているCGデータを、マーカ座標系から撮像座標系へ変換する。以下では、マーカto撮像座標変換部53bによって変換された後の撮像部2の座標系を基準とするCGデータを、「撮像座標系データ」と適宜称する。
 撮像to表示変換部53cは、校正部51から校正データMが入力され、校正データMに基づいて、マーカto撮像座標変換部53bから入力された撮像座標系データ(3D)を表示データに変換する(座標変換及び投影変換)。表示データは、表示座標系を基準とする2次元(2D)データである。撮像to表示変換部53cは、表示データをセレクタ54に出力する。
 セレクタ54は、校正部51からのモード切替信号に応じて、校正部51から入力される注視対象画像データと、レンダリング部53から入力される表示データとを選択的に表示部1aに出力する。セレクタ54は、校正処理が行われるときには、注視対象画像データを表示部1aに出力し、HMD100にてCGが表示されるべきときには、表示データを表示部1aに出力する。表示部1aは、注視対象画像データに基づいて注視対象画像を表示し、表示データに基づいてCGを表示する。
 (処理フロー)
 次に、図6及び図7を参照して、第1実施例に係る処理フローについて説明する。
 図6は、HMD100の全体処理を示すフローチャートである。
 まず、ステップS10では、校正処理が行われる。校正処理については詳細は後述する。次に、ステップS20では、撮像部2によって現実環境の撮影画像が取得される。即ち、HMD100は、撮像部2によって現実環境を撮影することにより、現実環境の撮影画像を取得する。
 次に、ステップS30では、変換行列算出部52によって、CGなどの付加情報を提示すべき対象としてのマーカが検出され、変換行列Rmcが算出される。即ち、変換行列算出部52のマーカ検出部52aが、撮像部2によって取得された現実環境の撮影画像に基づいて、現実環境に設けられたマーカの位置、姿勢(方向)及びサイズを検出し、この検出されたマーカの位置、姿勢(方向)及びサイズに基づいて、変換行列算出部52のRmc算出部52bが変換行列Rmcを算出する。
 次に、ステップS40では、表示すべきCGの表示データを生成する描画処理が行われる。描画処理では、まず、CGデータ格納部53aに格納されているマーカ座標系データが、マーカto撮像座標変換部53bによって変換行列Rmcに基づいて撮像座標系データに変換される。次に、撮像座標系データが、撮像to表示変換部53cによって、校正データMに基づいて表示データに変換される。このように生成された表示データは、セレクタ54を介して表示部1aに入力される。
 次に、ステップS50では、HMD100によって、表示データに基づくCGが表示される。そして、ステップS60では、HMD100によるCGの表示を終了するか否かが判定される。終了すると判定された場合には(ステップS60:Yes)、CGの表示が終了され、終了しないと判定された場合には(ステップS60:No)、再びステップS10に係る処理が行われる。
 図7は、上記したステップS10の校正処理を示すフローチャートである。
 まず、ステップS101では、ユーザがHMD100の表示を注視する作業を複数回行うことで視線方向の検出についての校正を行う。
 次に、ステップS102では、校正部51によって、ユーザに注視させるマーカが指定される。具体的には、校正部51の注視対象選択部51bによって選択されたマーカに応じた注視対象画像が表示される。そして、ステップS103では、ボタン8が押下されたか否かが判定される。つまり、ユーザが、指定されたマーカを注視したか否かが判定される。
 ボタン8が押下された場合(ステップS103:Yes)、処理はステップS104に進む。これに対して、ボタン8が押下されていない場合(ステップS103:No)、再びステップS103に係る判定が行われる。つまり、ボタン8が押下されるまで、ステップS103の判定が繰り返し行われる。
 ステップS104では、視線方向検出部7によってユーザの視線方向が検出される。具体的には、視線方向検出部7は、ユーザの視線方向と表示面4との交点に当たる、表示座標系の座標である視線方向座標(Xd、Yd)を求める。
 次に、ステップS105では、撮像部2によって現実環境の撮影画像が取得される。そして、ステップS106では、校正部51の校正用マーカ位置検出部51dによって、撮影画像から校正用のマーカの3次元位置が検出される。具体的には、校正用マーカ位置検出部51dは、撮影画像に対応する画像データに基づいて、撮像座標系を基準としたマーカの位置座標である座標(Xc、Yc、Zc)を求める。
 次に、ステップS107では、ステップS104で得られた視線方向座標(Xd、Yd)と、ステップS106で得られたマーカの位置座標(Xc、Yc、Zc)とが蓄積される。具体的には、視線方向座標(Xd、Yd)は視線方向座標蓄積部51cに蓄積され、マーカの位置座標(Xc、Yc、Zc)はマーカ位置蓄積部51eに蓄積される。
 次に、ステップS108では、ステップS102~S107の処理が所定回数行われたか否かが判定される。判定に用いる所定回数は、例えば校正処理の精度などに応じて定められる。
 ステップS102~S107の処理が所定回数行われた場合(ステップS108:Yes)、校正部51の校正データ算出部51fによって、校正データMが算出される(ステップS109)。具体的には、校正データ算出部51fは、視線方向座標蓄積部51cに蓄積された複数の視線方向座標(Xd、Yd)と、マーカ位置蓄積部51eに蓄積された複数のマーカの位置座標(Xc、Yc、Zc)とに基づいて、校正データMを算出する。そして、処理は終了する。他方で、ステップS102~S107の処理が所定回数行われていない場合(ステップS108:No)、再びステップS102に係る処理が行われる。
 なお、人間の視線方向は注視している時でも安定しない傾向にあるため、ボタン8が押下されたタイミングの視線方向のみを使用する校正処理では、校正データMの誤差が大きくなる可能性がある。したがって、ボタン8が押下されたタイミングの前後1秒程度の間の視線方向のデータを取得して、このデータに対して平均化処理やヒストグラム処理などを行って、視線方向を決定すると良い。こうすることで、校正データMの誤差を低減することが可能となる。
 (作用・効果)
 ここで、上記した第1実施例の作用・効果について、前述した非特許文献1に記載された技術と比較しながら説明する。非特許文献1に記載された技術では、校正時にユーザが表示の十字と現実のマーカの位置とを合わせて、ボタンを利用して演算器に知らせる作業を繰り返す必要があった。そのため、ユーザは、表示装置やマーカを移動させ、表示とマーカとの位置調整を繰り返す必要があっため、手間や時間がかかる傾向にあった。加えて、表示装置が両眼用である場合には左右の眼で別々に校正を行う必要があるため、この場合には手間や時間が更にかかる傾向にあった。
 これに対して、第1実施例では、視線方向検出機能を利用することで、十字表示や現実のマーカを注視するだけで校正が可能となる。第1実施例のような注視する作業は、非特許文献1に記載されたような、表示装置やマーカを移動させて十字表示とマーカとの位置を合わせる作業よりも、校正時のユーザの負担は小さいと言える、つまり手間や時間がかからないと言える。また、HMD100が両眼用の場合、第1実施例に係る視線方向検出部7を左右それぞれに設けることで、校正処理を左右同時に行うことが可能となる。以上より、第1実施例によれば、非特許文献1に記載された技術と比較して、校正時のユーザの負担を軽減することができる。
 また、第1実施例は、前述した特許文献1、3に記載の技術と異なり、撮像部2やHMD100の設定や位置の変更、また眼の位置の変更にも適切に対応して校正することができる。
 [第2実施例]
 次に、本発明の第2実施例について説明する。第1実施例では、マーカを用いて校正を行っていたが、第2実施例では、マーカといった人工特徴点を用いる代わりに、現実環境に存在する自然特徴点を用いて校正を行う。つまり、第2実施例では、ユーザに、周囲の自然特徴点を順次注視させることで校正を行う。具体的には、第2実施例では、撮像部2によって周囲の現実環境を撮影して、校正処理に最適な自然特徴点が含まれるような撮像部2の撮影方向(以下では「最適な撮影方向」又は「最適方向」と呼ぶ。)を用いて校正を行う。
 ここで、最適な撮影方向について具体的に説明する。校正データMを正確に求めるためには、ユーザに注視させる自然特徴点のリストが、撮像部2に対して水平方向・垂直方向・奥行き方向に散らばっていることが望ましい。そのため、撮像部2の撮影方向は、自然特徴点が散らばって多数存在する方向が良いと言える。また、3次元位置を検出しやすい自然特徴点リストであることが望ましい。自然特徴点の3次元位置検出には、複数視点から撮影した画像内での自然特徴点の正確なマッチングが必要になる。例えば、壁のタイルなど同じ様な模様であると、画像間でマッチングのエラーが多くなる傾向にある。また、例えば、木の葉などの移動する物であると、撮影タイミングの異なる画像間では3次元位置が異なるため、3次元位置が正確に求められないと言える。以上より、上記した最適な撮影方向としては、互いに似通っておらず、且つ位置が移動しない複数の自然特徴点が散在するような撮影方向を用いることが望ましい。
 図8は、第2実施例に係る制御部5xの構成を示すブロック図である。なお、図5に示した制御部5と同一の符号を付した構成要素は同一の意味を有するものとし、その説明を省略する。また、ここで特に説明しない構成要素や処理などについては、第1実施例と同様であるものとする。
 図8に示すように、制御部5xは、校正部51の代わりに、校正部51xを有する。校正部51xは、校正制御部51axと、注視対象選択部51bxと、視線方向座標蓄積部51cと、特徴点位置検出部51dxと、特徴点位置蓄積部51exと、校正データ算出部51fと、最適方向判定部51gとを有する。
 最適方向判定部51gは、撮像部2によって撮像された撮影画像が入力され、撮影画像に、校正処理に最適な撮影方向が含まれているか否かを判定する。具体的には、最適方向判定部51gは、周囲を撮影した撮影画像を画像解析することで、互いに似通っておらず、且つ位置が移動しない複数の自然特徴点が散在するような撮影方向を検出する。最適方向判定部51gは、撮影画像から最適な撮影方向を検出した場合には、撮影画像に最適な撮影方向が含まれていることを示す最適方向検出信号を校正制御部51axに出力する。このように、最適方向判定部51gは、本発明における「判定手段」の一例に相当する。
 校正制御部51axは、最適方向判定部51gから最適方向検出信号が入力されると、ボタン8からの注視完了信号に応じて、ユーザに注視させる自然特徴点を指定する注視対象画像を更新するための表示更新信号を注視対象選択部51bxに出力する。
 注視対象選択部51bxは、校正制御部51axから表示更新信号が入力された場合に、撮影画像(最適な撮影方向に対応する画像)に含まれる自然特徴点の中で、ユーザに注視させる自然特徴点を選択し、当該自然特徴点に応じた注視対象画像データを生成する。例えば、注視対象選択部51bxは、撮影画像を縮小した画像において、ユーザに注視させる自然特徴点を強調表示した画像(1つの例では、注視させる自然特徴点を特定の色で表示させた画像や、当該自然特徴点を丸などで囲った画像)を生成する。そして、注視対象選択部51bxは、生成した注視対象画像データをセレクタ54に出力する。なお、注視対象選択部51bxは、本発明における「指定手段」の一例に相当する。
 特徴点位置検出部51dxは、撮像部2によって撮像された撮影画像が入力され、撮影画像から、ユーザに注視させる自然特徴点の3次元位置を検出する。具体的には、特徴点位置検出部51dxは、撮影画像に対応する画像データに基づいて、注視対象選択部51bxによって選択された自然特徴点の位置を示す座標(Xc’、Yc’、Zc’)を特定し、特定した位置座標(Xc’、Yc’、Zc’)を特徴点位置蓄積部51exに出力する。特徴点位置蓄積部51exは、特徴点位置検出部51dxから出力された位置座標(Xc’、Yc’、Zc’)を蓄積する。なお、位置座標(Xc’、Yc’、Zc’)は、撮像座標系を基準とした自然特徴点の位置座標に相当する。このように、特徴点位置検出部51dxは、本発明における「位置検出手段」の一例に相当する。
 校正データ算出部51fxは、校正制御部51axから演算トリガが入力されると、視線方向座標蓄積部51cに蓄積された複数の視線方向座標(Xd、Yd)、及び特徴点位置蓄積部51exに蓄積された複数の自然特徴点の位置座標(Xc’、Yc’、Zc’)を読み出す。そして、校正データ算出部51fxは、読み出した複数の視線方向座標(Xd、Yd)及び複数の位置座標(Xc’、Yc’、Zc’)に基づいて、撮像座標系から表示座標系へ変換するための行列である校正データMを算出する。このように、校正データ算出部51fxは、本発明における「校正手段」の一例に相当する。
 次に、図9を参照して、第2実施例に係る処理フローについて説明する。図9は、第2実施例に係る校正処理を示すフローチャートである。この校正処理は、上記したステップS10において(図6参照)、図7に示した校正処理の代わりに実行されるものである。
 まず、ステップS111では、ユーザがHMD100の表示を注視する作業を複数回行うことで視線方向の検出についての校正を行う。
 次に、ステップS112では、撮像部2によって現実環境の撮影画像が取得される。具体的には、HMD100は、撮像部2によってユーザの周囲の現実環境を撮影することで得られた、比較的広い範囲における現実環境の撮影画像を取得する。
 次に、ステップS113では、校正部51xの最適方向判定部51gによって、撮影画像に含まれる最適な撮影方向が検出される。具体的には、最適方向判定部51gは、撮影画像を画像解析することで、互いに似通っておらず、且つ位置が移動しない複数の自然特徴点が散在するような撮影方向を検出する。撮影画像に最適な撮影方向が含まれている場合(ステップS114:Yes)、処理はステップS116に進む。これに対して、撮影画像に最適な撮影方向が含まれていない場合(ステップS114:No)、処理はステップS115に進む。この場合には、ユーザに場所の移動が指示され(ステップS115)、再びステップS111に係る処理が行われる。つまり、ユーザに場所を移動してもらい、周囲の撮影を再度行ってもらう。
 ステップS116では、ユーザの頭の向きを、検出された最適な撮影方向へ誘導する。例えば、最適な撮影方向を指し示す矢印の画像などを表示させることで、ユーザの頭の向きを誘導する。
 次に、ステップS117では、校正部51xによって、ユーザに注視させる自然特徴点が指定される。具体的には、校正部51xの注視対象選択部51bxによって選択された自然特徴点に応じた注視対象画像が表示される。そして、ステップS118では、ボタン8が押下されたか否かが判定される。つまり、ユーザが、指定された自然特徴点を注視したか否かが判定される。
 ボタン8が押下された場合(ステップS118:Yes)、処理はステップS119に進む。これに対して、ボタン8が押下されていない場合(ステップS118:No)、再びステップS118に係る判定が行われる。つまり、ボタン8が押下されるまで、ステップS118の判定が繰り返し行われる。
 ステップS119では、視線方向検出部7によってユーザの視線方向が検出される。具体的には、視線方向検出部7は、ユーザの視線方向と表示面4との交点に当たる、表示座標系の座標である視線方向座標(Xd、Yd)を求める。
 次に、ステップS120では、撮像部2によって現実環境の撮影画像(最適な撮影方向に対応する画像)が取得される。そして、ステップS121では、校正部51xの特徴点位置検出部51dxによって、撮影画像から、ユーザが注視した自然特徴点の3次元位置が検出される。具体的には、特徴点位置検出部51dxは、撮影画像に対応する画像データに基づいて、注視対象選択部51bxによって選択された自然特徴点の位置座標(Xc’、Yc’、Zc’)を求める。
 次に、ステップS122では、ステップS119で得られた視線方向座標(Xd、Yd)と、ステップS121で得られた自然特徴点の位置座標(Xc’、Yc’、Zc’)とが蓄積される。具体的には、視線方向座標(Xd、Yd)は視線方向座標蓄積部51cに蓄積され、自然特徴点の位置座標(Xc’、Yc’、Zc’)は特徴点位置蓄積部51exに蓄積される。
 次に、ステップS123では、ステップS117~S122の処理が所定回数行われたか否かが判定される。判定に用いる所定回数は、例えば校正処理の精度などに応じて定められる。
 ステップS117~S122の処理が所定回数行われた場合(ステップS123:Yes)、校正部51xの校正データ算出部51fxによって、校正データMが算出される(ステップS124)。具体的には、校正データ算出部51fxは、視線方向座標蓄積部51cに蓄積された複数の視線方向座標(Xd、Yd)と、特徴点位置蓄積部51exに蓄積された複数の自然特徴点の位置座標(Xc’、Yc’、Zc’)とに基づいて、校正データMを算出する。そして、処理は終了する。他方で、ステップS117~S122の処理が所定回数行われていない場合(ステップS123:No)、再びステップS117に係る処理が行われる。
 以上説明した第2実施例によっても、第1実施例と同様に、校正時のユーザの負担を適切に軽減することができる。また、第2実施例によれば、第1実施例と異なり、自然特徴点を用いることで、マーカが無いような環境においても適切に校正を行うことができる。
 [変形例]
 以下では、上記の実施例に好適な変形例について説明する。なお、下記の変形例は、任意に組み合わせて上述の実施例に適用することができる。
 (変形例1)
 上記した実施例では、ユーザが注視した際にボタン8を押下することでHMD100に注視を知らせていた。しかしながら、ボタン8を押す作業を行うと、その作業により集中力が削がれ視線方向が乱れたり、ボタン8を押す動作で頭部の位置にも影響が現れたりする。そのため、他の例では、ボタン8で注視の完了を知らせる代わりに、ユーザが注視動作を所定時間行った場合に、注視の完了とすることができる。つまり、ユーザが注視動作を所定時間行ったタイミングで、視線方向を検出することができる。これにより、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。
 更に他の例では、ユーザが注視動作中に瞬きを行った場合に、注視の完了とすることができる。つまり、ユーザが瞬きを行ったタイミングで、視線方向を検出することができる。これによっても、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。
 なお、ユーザが注視動作を所定時間行ったこと、及び、ユーザが注視動作中に瞬きを行ったこと、のうちのいずれかの条件が成立した際に、注視の完了と扱うこととしても良い。
 (変形例2)
 上記した実施例では、視線方向の検出についての校正を手動で行う例を示したが、当該校正を自動で行っても良い。その場合には、図7及び図9に示した校正処理において、ステップS101及びS111の処理を行う必要はない。また、視線方向の検出についての校正が不要なような検出方法を用いた場合には、ステップS101及びS111の処理を行う必要はない。
 (変形例3)
 上記した実施例では、撮像部2(カメラ)の撮影画像に基づいて、マーカや自然特徴点の3次元位置を検出していたが、撮像部2の代わりに、磁気センサや、超音波センサや、ジャイロセンサや、加速度センサや、角速度センサや、GPS受信機や、無線通信装置を用いて、ターゲット(対象物)の3次元位置を検出しても良い。この場合には、マーカ等のターゲットの位置を固定するか、若しくはターゲットにもセンサを取り付けて、環境の基準位置に対してのHMD100に取り付けたセンサ自体の位置や方向等を検出すれば良い。なお、上記した実施例のように撮像部2(カメラ)を用いる場合には、ターゲットの位置を検出する方法、及び、カメラの位置と方向とを検出して固定のターゲットの位置を推定する方法のどちらも適用可能である。
 また、マーカ検出部52aは、上記したようなマーカ検出以外に、画像マーカを利用しても良いし、自然特徴点を利用しても良い。
 更に、3次元位置検出に、複数の検出手法を併用しても良い。但し、校正用マーカ位置検出部51dとマーカ検出部52aとで同じセンサの出力を利用する必要がある。
 (変形例4)
 本発明は、HMD100への適用に限定はされない。本発明は、光学透過式ARを実現可能な種々のシースルーディスプレイに適用することができる。例えば、ヘッドアップディスプレイ(HUD)やシースルーディスプレイなどに適用することができる。
 本発明は、ヘッドマウントディスプレイなどの光学透過式の表示装置に利用することができる。
 1 透過型ディスプレイ部
 1a 表示部
 2 撮像部
 3 装着部
 4 表示面
 5 制御部
 6 近赤外線光源
 7 視線方向検出部
 51 校正部
 52 変換行列算出部
 53 レンダリング部
 100 ヘッドマウントディスプレイ(HMD)
 200 マーカ

Claims (13)

  1.  ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置であって、
     前記現実環境に存在する対象物の位置を検出する位置検出手段と、
     前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、
     前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備えることを特徴とする表示装置。
  2.  前記視線方向検出手段は、前記ユーザが注視したことを入力するための入力手段を操作した際に、前記視線方向を検出することを特徴とする請求項1に記載の表示装置。
  3.  前記視線方向検出手段は、前記ユーザが注視動作を所定時間行った際に、前記視線方向を検出することを特徴とする請求項1に記載の表示装置。
  4.  前記視線方向検出手段は、前記ユーザが瞬きを行った際に、前記視線方向を検出することを特徴とする請求項1に記載の表示装置。
  5.  前記位置検出手段は、前記現実環境を画像取得装置で撮影した撮影画像に基づいて、前記位置を検出し、
     前記第1座標系は、前記画像取得装置を基準とした座標系であることを特徴とする請求項1乃至4のいずれか一項に記載の表示装置。
  6.  前記対象物は、前記校正手段による前記校正データの算出のために用いられるものであり、マーカであることを特徴とする請求項1乃至5のいずれか一項に記載の表示装置。
  7.  前記視線方向検出手段は、前記視線方向と前記表示装置による表示面との交点に当たる、前記第2座標系での座標を求め、
     前記校正手段は、前記視線方向検出手段によって求められた前記座標と前記位置検出手段が検出した前記位置とに基づいて、前記校正データを算出することを特徴とする請求項1乃至6のいずれか一項に記載の表示装置。
  8.  前記ユーザに注視させるべき前記対象物を指定する指定手段を更に備え、
     前記視線方向検出手段は、前記指定手段によって指定された前記対象物を前記ユーザが注視している際の視線方向を検出することを特徴とする請求項1乃至7のいずれか一項に記載の表示装置。
  9.  前記指定手段は、前記注視させるべき対象物に応じた画像を表示させることで、当該対象物の指定を行うことを特徴とする請求項8に記載の表示装置。
  10.  ユーザが視認する現実環境に対して付加情報を表示する光学透過式のヘッドマウントディスプレイであって、
     前記現実環境に存在する対象物の位置を検出する位置検出手段と、
     前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、
     前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備えることを特徴とするヘッドマウントディスプレイ。
  11.  ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正方法であって、
     前記現実環境に存在する対象物の位置を検出する位置検出工程と、
     前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出工程と、
     前記位置検出工程が検出した前記位置と前記視線方向検出工程が検出した前記視線方向とに基づいて、前記位置検出工程にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正工程と、を備えることを特徴とする校正方法。
  12.  コンピュータを有し、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正プログラムであって、
     前記コンピュータを、
     前記現実環境に存在する対象物の位置を検出する位置検出手段、
     前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段、
     前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段、として機能させることを特徴とする校正プログラム。
  13.  請求項12に記載の校正プログラムを記録したことを特徴とする記録媒体。
PCT/JP2012/063984 2012-05-30 2012-05-30 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体 Ceased WO2013179425A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/063984 WO2013179425A1 (ja) 2012-05-30 2012-05-30 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/063984 WO2013179425A1 (ja) 2012-05-30 2012-05-30 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体

Publications (1)

Publication Number Publication Date
WO2013179425A1 true WO2013179425A1 (ja) 2013-12-05

Family

ID=49672679

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/063984 Ceased WO2013179425A1 (ja) 2012-05-30 2012-05-30 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体

Country Status (1)

Country Link
WO (1) WO2013179425A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158802A (ja) * 2014-02-24 2015-09-03 国立研究開発法人宇宙航空研究開発機構 カメラ映像の視点位置補正によって、視差に起因する誤認を防止する方法とそれを実施するシステム
US11227441B2 (en) 2019-07-04 2022-01-18 Scopis Gmbh Technique for calibrating a registration of an augmented reality device
JP2022074455A (ja) * 2020-11-04 2022-05-18 トヨタ自動車株式会社 車外情報表示制御装置、車外情報表示制御方法及びプログラム
JP2023133506A (ja) * 2018-03-15 2023-09-22 マジック リープ, インコーポレイテッド 視認デバイスのコンポーネントの変形に起因する画像補正

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006133688A (ja) * 2004-11-09 2006-05-25 Olympus Corp 合成表示装置
JP2012014455A (ja) * 2010-06-30 2012-01-19 Toshiba Corp 情報表示装置、情報表示方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006133688A (ja) * 2004-11-09 2006-05-25 Olympus Corp 合成表示装置
JP2012014455A (ja) * 2010-06-30 2012-01-19 Toshiba Corp 情報表示装置、情報表示方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HIROKAZU KATO ET AL.: "An Augmented Reality System and its Calibration based on Marker Tracking", TRANSACTIONS OF THE VIRTUAL REALITY SOCIETY OF JAPAN, vol. 4, no. 4, 1999, pages 607 - 616, XP008167781 *
YOSHINOBU EBISAWA ET AL.: "Remote Eye-gaze Tracking System by One-point Gaze Calibration", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 65, no. 12, 1 December 2011 (2011-12-01), pages 1768 - 1775 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158802A (ja) * 2014-02-24 2015-09-03 国立研究開発法人宇宙航空研究開発機構 カメラ映像の視点位置補正によって、視差に起因する誤認を防止する方法とそれを実施するシステム
JP2023133506A (ja) * 2018-03-15 2023-09-22 マジック リープ, インコーポレイテッド 視認デバイスのコンポーネントの変形に起因する画像補正
JP2024149784A (ja) * 2018-03-15 2024-10-18 マジック リープ, インコーポレイテッド 視認デバイスのコンポーネントの変形に起因する画像補正
JP7617988B2 (ja) 2018-03-15 2025-01-20 マジック リープ, インコーポレイテッド 視認デバイスのコンポーネントの変形に起因する画像補正
JP7703090B2 (ja) 2018-03-15 2025-07-04 マジック リープ, インコーポレイテッド 視認デバイスのコンポーネントの変形に起因する画像補正
US11227441B2 (en) 2019-07-04 2022-01-18 Scopis Gmbh Technique for calibrating a registration of an augmented reality device
JP2022074455A (ja) * 2020-11-04 2022-05-18 トヨタ自動車株式会社 車外情報表示制御装置、車外情報表示制御方法及びプログラム
JP7322862B2 (ja) 2020-11-04 2023-08-08 トヨタ自動車株式会社 車外情報表示制御装置、車外情報表示制御方法及びプログラム

Similar Documents

Publication Publication Date Title
JP5923603B2 (ja) 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
US12175644B2 (en) Compensation for deformation in head mounted display systems
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
US10467770B2 (en) Computer program for calibration of a head-mounted display device and head-mounted display device using the computer program for calibration of a head-mounted display device
US9961335B2 (en) Pickup of objects in three-dimensional display
US10424117B2 (en) Controlling a display of a head-mounted display device
JP5844880B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP4649319B2 (ja) 視線検出装置、視線検出方法、および視線検出プログラム
JP6349660B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
CN110377148B (zh) 计算机可读介质、训练对象检测算法的方法及训练设备
JP2010259605A (ja) 視線測定装置および視線測定プログラム
US20200201038A1 (en) System with multiple displays and methods of use
JP2017187667A (ja) 頭部装着型表示装置およびコンピュータープログラム
JP6509101B2 (ja) 眼鏡状の光学シースルー型の両眼のディスプレイにオブジェクトを表示する画像表示装置、プログラム及び方法
CN118394205A (zh) 利用眼动追踪技术的混合现实交互
JP6701694B2 (ja) 頭部装着型表示装置およびコンピュータープログラム
WO2013179425A1 (ja) 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
JP6266580B2 (ja) ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
WO2017081915A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP2017215597A (ja) 情報表示方法及び情報表示装置
JP6701693B2 (ja) 頭部装着型表示装置およびコンピュータープログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12878002

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12878002

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP