[go: up one dir, main page]

JP6175945B2 - 視線検出装置及び視線検出方法 - Google Patents

視線検出装置及び視線検出方法 Download PDF

Info

Publication number
JP6175945B2
JP6175945B2 JP2013141990A JP2013141990A JP6175945B2 JP 6175945 B2 JP6175945 B2 JP 6175945B2 JP 2013141990 A JP2013141990 A JP 2013141990A JP 2013141990 A JP2013141990 A JP 2013141990A JP 6175945 B2 JP6175945 B2 JP 6175945B2
Authority
JP
Japan
Prior art keywords
user
line
eyeball
light
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013141990A
Other languages
English (en)
Other versions
JP2015013031A5 (ja
JP2015013031A (ja
Inventor
野田 卓郎
卓郎 野田
明香 渡辺
明香 渡辺
慎一 長谷野
慎一 長谷野
健太 片方
健太 片方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013141990A priority Critical patent/JP6175945B2/ja
Priority to CN201410299568.8A priority patent/CN104274151B/zh
Priority to US14/317,148 priority patent/US9092671B2/en
Publication of JP2015013031A publication Critical patent/JP2015013031A/ja
Publication of JP2015013031A5 publication Critical patent/JP2015013031A5/ja
Application granted granted Critical
Publication of JP6175945B2 publication Critical patent/JP6175945B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Eye Examination Apparatus (AREA)

Description

本開示は、視線検出装置及び視線検出方法に関する。
多様なコンテンツが表示される表示面に対するユーザの視線を検出し、検出された視線を各種の動作に利用する技術が提案されている。例えば、特許文献1には、ファインダーを覗き込むユーザの眼球に赤外帯域の光(赤外光)を照射し、その眼球からの反射光を検出器によって捉えることによりスルー画が表示される表示面に対するユーザの視線を検出するとともに、検出された視線を自動焦点調節(AF:Auto Focus)に利用する撮像装置が開示されている。
特開平5−333259号公報
ここで、特許文献1に記載の技術では、スルー画が表示される表示面からユーザの眼球までの間にプリズムやレンズ等の複数の光学部材が設けられる。そして、当該表示面からの光はこれら複数の光学部材を通過してユーザの眼球に入射するが、ユーザの眼球に照射された赤外光の当該眼球からの反射光はこれらの光学部材を通過しない別の光路を辿って検出器に入射する。このように、特許文献1に記載の技術では、スルー画が表示される表示面からの光が当該表示面からユーザの眼球に至るまでの光路と、照射された赤外光のユーザの眼球からの反射光が当該眼球から検出器に至るまでの光路とが、大きく異なっていた。このような光路の大幅な違いは、表示面に対する視線検出の精度を低下させる恐れがあった。
そこで、本開示では、視線検出の精度をより向上させることが可能な、新規かつ改良された視線検出装置及び視線検出方法を提案する。
本開示によれば、表示面を少なくとも1つの光学部材を介して観察するユーザの眼球に対して光を照射する光源と、前記光の前記眼球からの反射光を検出することにより、前記ユーザの前記表示面に対する視線の検出に用いられる前記眼球の撮像画像を取得する撮像部と、を備え、前記眼球からの反射光は、前記表示面からの光が前記表示面から前記ユーザの眼球に至るまでの光路に設けられる前記光学部材を少なくとも通過して前記撮像部に入射する、視線検出装置が提供される。
また、本開示によれば、表示面からの光が少なくとも1つの光学部材を通過してユーザの眼球に入射することと、前記表示面を観察する前記ユーザの前記眼球に対して光を照射することと、前記光の前記眼球からの反射光を検出することにより、前記ユーザの前記表示面に対する視線の検出に用いられる前記眼球の撮像画像を取得することと、を含み、前記眼球からの反射光は、前記表示面からの光が前記表示面から前記ユーザの眼球に至るまでの光路に設けられる前記光学部材を少なくとも通過して検出される、視線検出方法が提供される。
本開示によれば、表示面からの光が、少なくとも1つの光学部材を通過する第1の光路を辿って、ユーザの眼球に入射する。また、ユーザの眼球に照射された光の当該眼球からの反射光が、第1の光路に設けられる光学部材を少なくとも通過する第2の光路を辿って検出される。従って、第1の光路において光が光学部材から受ける影響と、第2の光路において光が光学部材から受ける影響とが類似したものとなる。よって、このような第2の光路を辿って検出された反射光に基づいて眼球の撮像画像が取得され、当該撮像画像に基づいて当該表示面に対するユーザの視線が検出されることにより、視線検出の精度がより向上される。
以上説明したように本開示によれば、視線検出の精度をより向上させることが可能となる。
本開示の一実施形態に係る視線検出装置の一外観例及び概略構成を示す斜視図である。 図1に示すA−A断面における、本実施形態に係る視線検出装置の断面図である。 図1に示すB−B断面における、本実施形態に係る視線検出装置の断面図である。 本開示の一実施形態に係る視線検出装置の一構成例を示す機能ブロック図である。 本実施形態に係る瞳孔角膜反射法を用いた視線ベクトルの算出処理について説明するための説明図である。 本実施形態に係る視線検出処理における光源の駆動制御について説明するための説明図である。 本実施形態に係る視線検出処理における光源の駆動制御について説明するための説明図である。 本実施形態に係る視線検出処理における光源の駆動制御について説明するための説明図である。 本実施形態に係る視線検出処理における光源の駆動制御について説明するための説明図である。 本実施形態に係る視線検出処理における光源の駆動制御について説明するための説明図である。 本実施形態に係る視線検出処理における光源の駆動制御について説明するための説明図である。 本実施形態に係るキャリブレーション処理について説明するための説明図である。 本実施形態に係るキャリブレーション処理について説明するための説明図である。 本実施形態に係るキャリブレーション処理について説明するための説明図である。 本実施形態に係る視線検出処理が撮像装置のEVFに適用される場合における、異なる構成例を示す断面図である。 本実施形態に係る視線検出処理が適用された眼鏡型ウェアラブルデバイスの一構成例を示す概略図である。 本実施形態に係る視線検出処理が適用されたヘッドマウントディスプレイ装置の一構成例を示す概略図である。 本実施形態に係る視線検出処理が適用されたヘッドマウントディスプレイ装置の一構成例を示す概略図である。 本実施形態に係る視線検出処理が適用されたヘッドマウントディスプレイ装置の一構成例を示す概略図である。 本開示の一実施形態に係る視線検出方法における処理手順を示すフロー図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.視線検出装置の外観及び概略構成
2.視線検出装置の構成
3.視線検出処理の詳細
3−1.視線ベクトルの算出処理
3−2.光源の駆動制御
3−3.キャリブレーション処理
3−4.虹彩認証に基づくユーザ固有の情報の読み出し処理
4.変形例
4−1.IRフィルターの追加
4−2.ウェアラブルデバイスへの適用
4−3.ヘッドマウントディスプレイへの適用
5.視線検出方法における処理手順
6.まとめ
本開示の好適な一実施形態においては、表示面を少なくとも1つの光学部材を介して観察するユーザの眼球に対して光が照射される。そして、照射された光のユーザの眼球からの反射光が検出されることにより、ユーザの当該表示面に対する視線の検出に用いられる眼球の撮像画像が取得される。また、照射された光のユーザの眼球からの反射光は、表示面からの光が当該表示面からユーザの眼球に至るまでの光路に設けられる光学部材を通過して検出される。このようにして取得されたユーザの眼球の撮像画像を用いて、当該表示面に対するユーザの視線が検出される。ここで、表示面を観察する又は視認するとは、表示面に表示される各種のコンテンツを観察する又は視認することを意味していてもよい。以下の説明では、上述した各処理を少なくとも含む本実施形態に係る一連の処理のことを、視線検出処理と呼称する。
なお、ユーザの眼球の撮像画像を用いた視線検出処理には、任意の公知の手法が適用されてよい。本実施形態では、例えば瞳孔角膜反射法に基づく視線検出処理が行われる。具体的には、本実施形態に係る視線検出処理においては、瞳孔角膜反射法を用いて、眼球500の撮像画像に含まれる瞳孔の像とプルキニエ像とに基づいて、眼球の向き(回転角度)を表す視線ベクトルが算出されることにより、ユーザの視線が検出される。ただし、ヒトにおいては、ユーザの視線ベクトルに基づいて推定されるユーザの視線と、実際にユーザが視認している方向との間には、個人差を有する誤差があることが知られている。従って、本実施形態に係る視線検出処理においては、視線ベクトルの算出処理とは別に、当該視線ベクトルとユーザがコンテンツが表示される表示面を視認している方向との相関関係を少なくとも含むユーザの眼球500についての眼球情報を取得するためのキャリブレーション処理が行われる。そして、算出された視線ベクトルに対して、当該眼球情報に基づく補正処理が行われることにより、ユーザの表示面に対する視線が検出される。本実施形態に係る視線検出処理は、上述した視線ベクトルの算出処理、キャリブレーション処理及び眼球情報に基づく補正処理等を含んでもよい。なお、視線ベクトルの算出処理、キャリブレーション処理及び眼球情報に基づく補正処理については、下記[3−1.視線ベクトルの算出処理]及び下記[3−3.キャリブレーション処理]で詳しく説明する。
以下では、本実施形態に係る視線検出処理がデジタルカメラ等の撮像装置における電子ビューファインダー(EVF:Electronic View Finder)に適用される場合を主に例に挙げて説明を行う。従って、以下の説明において、本実施形態に係る視線検出装置とは、特に記載が無い限り、本実施形態に係る視線検出処理が適用されたEVFのことを意味していてよい。また、本実施形態に係る視線検出処理がEVFに適用される場合には、表示面に表示されるコンテンツは、例えば、当該EVFが接続される撮像装置の撮影対象を映したスルー画であってもよい。ただし、本実施形態に係る視線検出処理が適用される装置はかかる例に限定されず、本実施形態に係る視線検出処理は表示機能を有する装置であれば他の装置に適用されてもよい。本実施形態に係る視線検出処理の他の装置への具体的な適用例については、下記[4−2.ウェアラブルデバイスへの適用]及び下記[4−3.ヘッドマウントディスプレイへの適用]で詳しく説明する。
<1.視線検出装置の外観及び概略構成>
まず、図1、図2A及び図2Bを参照して、本開示の一実施形態に係る視線検出装置であるEVFの外観例及び概略構成について説明する。図1は、本開示の一実施形態に係る視線検出装置の一外観例及び概略構成を示す斜視図である。図2Aは、図1に示すA−A断面における、本実施形態に係る視線検出装置の断面図である。図2Bは、図1に示すB−B断面における、本実施形態に係る視線検出装置の断面図である。なお、図1、図2A及び図2Bでは、視線検出装置の構成についての説明をより明確なものとするため、必要に応じて視線検出装置の各構成部材の大きさを適宜変更して図示している。図1、図2A及び図2Bに示す視線検出装置の各構成部材間の大小関係は、必ずしも実際の視線検出装置における各構成部材の大小関係を厳密に表すものではない。
図1、図2A及び図2Bを参照すると、本開示の一実施形態に係る視線検出装置10は、表示部110、光路変更素子120、ルーペユニット130、光源基板140、アイカップ150、撮像部160及びヒンジ170を備える。図1及び図2Aに示すように、これらの構成部材のうち、表示部110、光路変更素子120、ルーペユニット130、光源基板140及びアイカップ150は、この順に1列に並ぶように配設される。また、表示部110の表示面111は、光路変更素子120に対向するように配設される。ユーザは、アイカップ150から、光源基板140、ルーペユニット130及び光路変更素子120を介して、表示部110の表示面111を観察することができる。図2Aでは、コンテンツが表示される表示面111を観察するユーザの眼球500を併せて図示し、視線検出装置10とユーザの眼球500との位置関係を模式的に示している。なお、視線検出装置10は、表示部110、光路変更素子120、ルーペユニット130、光源基板140及び撮像部160を内部に収納する遮光性のハウジングを更に備えることができるが、図1、図2A及び図2Bでは、各構成部材の構造を示すためにその図示を省略している。
以下では、図1、図2A及び図2Bに示すように、ユーザがアイカップ150から表示部110の表示面111を観察する方向をz軸方向と定義して、本実施形態についての説明を行う。また、z軸方向と垂直な面内、すなわち表示部110の表示面111と平行な面内において、表示面111を観察するユーザから見た上下方向をy軸方向、左右方向をx軸方向と定義する。更に、表示部110からアイカップ150に向かう方向をz軸の正方向と定義し、ユーザから見た上方向をy軸の正方向と定義する。また、以下の説明では、構成部材間の位置関係を表現するために、z軸の正方向に対して、より上流の位置のことを「前段」とも呼称し、より下流の位置のことを「後段」とも呼称する。
ここで、表示部110の表示面111がユーザによって観察されるということは、表示面111からの光が光路変更素子120、ルーペユニット130、光源基板140及びアイカップ150を通過してユーザの眼球500に入射することを意味している。従って、上述した「前段」及び「後段」という表現は、表示部110の表示面111からの光が、表示面111からユーザの眼球500に至るまでの光路に対応する表現であると言える。
以下、本実施形態に係る視線検出装置10の各構成部材の機能及び構成について詳細に説明する。
表示部110は、各種の情報を画像、テキスト、グラフ等多様な形式で表示面111に表示することにより、ユーザに対して当該情報を視覚的に通知する表示手段である。当該各種の情報には多様なコンテンツが含まれ得る。図1及び図2Aに示すように、表示部110は、表示面111がz軸の正方向を向くように配設される。本実施形態においては、表示部110は各種のディスプレイ装置であってよい。具体的には、例えば、表示部110としては有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)装置が用いられる。ただし、本実施形態はかかる例に限定されず、表示部110としては、LEDディスプレイ装置や液晶ディスプレイ装置等、あらゆる公知のディスプレイ装置が適用され得る。
上述したように、本実施形態に係る視線検出装置10はEVFであり、デジタルカメラ等の各種の撮像装置(図示せず。)に接続されて使用される。本実施形態では、表示部110の表示面111に表示されるコンテンツは、当該撮像装置におけるスルー画、すなわち、当該撮像装置に備えられる撮像素子によって取得される撮影対象(被写体)の画像である。ユーザは、視線検出装置10のアイカップ150を覗き込み、表示部110の表示面111に表示されるスルー画を観察しながら撮影条件(例えば、撮影対象を映すアングルや、倍率、露出、焦点等の撮像装置における設定)を適宜調整することにより、所望の撮像画像を取得することができる。なお、表示部110の表示面111に表示されるスルー画は、ユーザが表示面111を観察する向きに応じて、表示面111における上下方向を示す辺が90度変化してもよい。これは、一般的に撮像画像のフレームは長方形であり、ユーザが当該長方形の短辺を上下方向とするように撮像画像を撮影するか、ユーザが当該長方形の長辺を上下方向とするように撮像画像を撮影するか、に応じて、撮像装置を把持する方向及び視線検出装置10を覗き込む角度が90度回転する可能性があることに対応する処理である。例えば、視線検出装置10及び/又は撮像装置に姿勢(傾き)を検出するためのセンサ装置が設けられ、当該センサ装置によって検出される視線検出装置10の姿勢に基づいて、ユーザが表示部110の表示面111を観察する向きに合わせて、表示面111におけるスルー画の表示の向きが変化されてよい。なお、当該撮像装置におけるスルー画や撮像画像を取得する具体的な処理は、一般的な撮像装置が有する公知の機能及び構成によって行われてよい。また、図1、図2A及び図2Bでは図示を省略するが、視線検出装置10と当該撮像装置とは、例えばスルー画の画像信号等、本実施形態に係る視線検出処理において用いられる各種の信号を相互に送受信可能に電気的に接続される。視線検出装置10と撮像装置との間での各種の信号の送受信については、下記<2.視線検出装置の構成>で詳しく説明する。
光路変更素子120は、表示部110の後段に、表示部110の表示面111と対向して配設される。光路変更素子120は、光学部材の一種であり、本実施形態では、一方向からの入射光を直線的に透過させるとともに、他方向からの光(又は光の一部)を所定の方向に反射させるミラーの機能を有する。具体的には、光路変更素子120は、例えばビームスプリッタであり、z軸の負方向から入射した光をその進行方向を保ったまま透過させるとともに、z軸の正方向から入射した光をy軸の正方向に反射させる。従って、表示部110の表示面111からの光は、光路変更素子120にz軸の負方向から入射し、その内部をz軸の正方向に向かって通過してユーザの眼球に至る。なお、光路変更素子120が、例えば偏光ビームスプリッタである場合には、入射光に対して上述したような所望の方向への透過及び反射が実現されるように、入射光の偏光方向を制御するための偏光板が当該偏光ビームスプリッタとともに適宜設けられてよい。
ルーペユニット130は、光路変更素子120の後段に配設される。ルーペユニット130は、光学部材の一種であり、本実施形態では、表示部110の表示面111におけるコンテンツをユーザに対して拡大して表示する機能を有する。具体的には、ルーペユニット130は、少なくとも1つの各種のレンズによって構成されるレンズ系であってよい。ここで、視線検出装置10が接続される撮像装置がユーザによって容易に持ち運べる大きさである場合、視線検出装置10の大きさは、ユーザによる携帯の利便性を妨げない大きさであることが望ましい。従って、この場合、視線検出装置10における表示部110の表示面111の面積は、例えば縦横の長さがともに数cm程度であることが想定される。このように表示面111の面積が比較的小さい場合には、ルーペユニット130が設けられないと、ユーザが表示面111に表示されるコンテンツを細部まで観察することが困難になり、当該コンテンツを観察するユーザにとって利便性が低下する要因となり得る。本実施形態では、上述したように、表示部110とユーザの眼球500との間にルーペユニット130が設けられ、表示面111におけるコンテンツの表示が適宜拡大されてユーザによって観察されるため、ユーザの利便性が向上される。なお、ルーペユニット130におけるレンズ等の光学部材の具体的な構成は、表示部110の表示面111の面積や、表示面111からユーザの眼球まで(すなわち、アイカップ150の入り口まで)の距離等に応じて、ユーザにとって表示面111に表示されるコンテンツを観察しやすい倍率が実現されるように、適宜設定されてよい。
光源基板140は、ルーペユニット130の後段に配設される。光源基板140は、その表面(z軸の正方向に位置する面)に少なくとも1つの光源を有する。当該光源は、表示部110の表示面111を観察しているユーザの眼球に向かって光を照射する。本実施形態においては、当該光源は、可視光帯域以外の波長帯域の光、例えば赤外線帯域の光(以下、赤外光とも呼称する。)を発するLEDであってよい。ただし、本実施形態はかかる例に限定されず、光源基板140に搭載される光源としては、光を発する光学素子であれば各種の光学素子が適用され得る。当該光源が赤外光等の可視光帯域以外の光を発することにより、当該光源からユーザの眼球に向かって光が照射されたとしても、ユーザによる表示部110の表示面111の観察が妨げられない。
ここで、図2Bを参照して、光源基板140の構成についてより詳細に説明する。図2Bは、視線検出装置10の図1に示すB−B断面における断面図であり、光源基板140の表面を通る断面をz軸の正方向から見た様子を示している。図2Bを参照すると、光源基板140には、板面の略中央部に開口部149が設けられる。ユーザは、開口部149を介して、表示部110の表示面111を観察することができる。なお、開口部149の大きさは、ユーザによる表示面111又は表示面111に表示されるコンテンツの視認性等を考慮して適宜設定されてよい。
光源基板140の表面の開口部149以外の領域には、光源である複数のLED141〜148が互いに所定の間隔を空けて設けられる。このように、本実施形態では、複数の光源であるLED141〜148が、ユーザの眼球に対して互いに異なる方向から光を照射する位置に配設される。このように、ユーザの眼球に対して互いに異なる方向から照射された光に基づいて視線検出処理が行われることにより、視線検出の精度をより向上させることができる。なお、ユーザの眼球に対して互いに異なる方向から光が照射されることによる視線検出の精度向上の効果については、下記[3−1.視線ベクトルの算出処理]で詳しく説明する。
また、複数のLED141〜148は、所定の駆動条件に基づいて選択的に駆動されることが可能である。また、当該駆動条件は、ユーザが表示部110の表示面111を観察する状態についての観察状態情報に応じて設定されてよい。ここで、観察状態情報は、ユーザに固有の情報であり、例えば、ユーザの目の形状についての情報、ユーザの眼鏡の装着有無についての情報及びユーザが表示面111を観察する向きについての情報の少なくともいずれかを含む。本実施形態では、このような観察状態情報に基づいて、ユーザごとに異なるLED141〜148の駆動条件が設定されてよい。例えば、観察状態情報に基づいてユーザごとに最適なLED141〜148の駆動条件が設定され、当該駆動条件によって視線検出処理が行われることにより、視線検出の精度を更に向上させることができる。
ここで、図2Bに示すように、本実施形態では、複数のLED141〜148が、ユーザの眼球に対して少なくとも上下左右の方向から光を照射するように配設されてよい。具体的には、図2Bに示す例では、複数のLED141〜148は、略四角形の開口部149の周囲を取り囲むように配設されており、開口部149の上辺に対応する位置にLED141、142、143が配設され、開口部149の右辺に対応する位置にLED144が配設され、開口部149の下辺に対応する位置にLED145、146、147が配設され、開口部149の左辺に対応する位置にLED148が配設されている。このように、LED141〜148が、開口部149の上下左右に少なくとも1つずつ位置するように配設されることにより、ユーザの眼球に対して少なくとも上下左右のいずれかの方向から光を照射することできる。従って、LED141〜148の駆動条件をより詳細に設定することが可能となり、ユーザごとにより適切な駆動条件を設定することができる。なお、LED141〜148のユーザごとの最適な駆動条件は、視線検出処理の最中又は視線検出処理に先立ち、駆動するLED141〜148の組み合わせや照射光の強さを順次変更しながら実際にユーザに対して視線検出処理を行うことにより、その検出精度等に基づいてユーザごとに取得されてよい。
なお、光源基板140上、視線検出装置10の他の部位又は視線検出装置10が接続される撮像装置内等に、LED141〜148を駆動するための駆動回路や当該駆動を制御する制御回路(光源駆動制御部)等が設けられてもよい。上述したような所定の駆動条件に基づくLED141〜148の駆動制御は、当該光源駆動制御部によって行われる。なお、LED141〜148の駆動制御については、下記[3−2.光源の駆動制御]で詳しく説明する。
図1、図2A及び図2Bを参照して、視線検出装置10の構成部材についての説明を続ける。アイカップ150は、光源基板140の後段に配設される。アイカップ150は、ユーザが視線検出装置10を覗き込み表示部110の表示面111を観察する際に、ユーザに接眼される部材である。アイカップ150は、底面に開口部151が設けられたカップ形状を有し、開口部151をz軸の負方向に向けた状態で配設される。ユーザは、アイカップ150のカップ形状の開口の方向から、開口部151を介して、表示部110の表示面111を観察することができる。また、光源基板140に設けられるLED141〜148から発せられた光は、アイカップ150の開口部151を介してユーザの眼球500に照射される。
なお、開口部151には、ユーザによる表示面111の視認性の向上や、視線検出装置10の内部への埃等の侵入を防ぐために、接眼レンズ等のレンズが適宜設けられてもよい。また、当該接眼レンズの光学特性は、視線検出装置10の内部に設けられるルーペユニット130のレンズ系との光学的な整合性を考慮して設定されてよい。
また、アイカップ150には、ユーザの接眼を検出するセンサが設けられてもよい。具体的には、アイカップ150は、例えばz軸の正方向に位置するカップ形状の縁に当たる部分への物体の接触を検出する接触センサを有し、当該接触センサによってユーザのアイカップ150への接眼が検出されてもよい。そして、例えばアイカップ150へのユーザの接眼が検出された場合に表示部110の表示面111にコンテンツが表示されてもよい。アイカップ150へのユーザの接眼が検出された場合には、ユーザが視線検出装置10を覗き込んでいることが想定されるため、当該接眼が検出された場合にのみ表示部110にコンテンツが表示されることにより、表示部110が選択的に駆動されることとなり、消費電力の低減を図ることができる。なお、アイカップ150へのユーザの接眼が検出されない場合には、表示部110の代わりに、例えば、視線検出装置10が接続される撮像装置に設けられる他の表示部等にコンテンツであるスルー画が表示されるようにしてもよい。
撮像部160は、光路変更素子120におけるz軸と直交する方向のいずれかに、受光面を光路変更素子120に向けた状態で設けられる。図1、図2A及び図2Bに示す例では、撮像部160は光路変更素子120の上部(y軸の正方向)に設けられている。撮像部160は、例えばCCD(Charge−Coupled Device)イメージセンサやCMOS(Complementary MOS)イメージセンサ等の撮像素子であり、受光面を構成する画素ごとに受光した光量に応じた強度の信号を出力することにより、当該受光面への入射光に応じた画像(撮像画像)を取得する。ここで、本実施形態においては、表示部110の表示面111を観察するユーザの眼球500に対して、光源基板140のLED141〜148から光が照射される。そして、当該光の眼球からの反射光のうちz軸の負方向に向かって反射された成分は、アイカップ150、光源基板140及びルーペユニット130を順に通過して光路変更素子120に入射する。ここで、光路変更素子120は、z軸の正方向からの入射光をy軸の正方向に反射させる機能を有する。従って、眼球からの反射光のうちz軸の負方向に向かって反射された成分は、光路変更素子120によってy軸の正方向に反射され、撮像部160の受光面に達する。このように、本実施形態においては、撮像部160には、視線検出装置10の内部をz軸の負方向に向かって伝播してきた光が入射する。従って、撮像部160によって、LED141〜148による照射光のユーザの眼球500からの反射光が検出されることにより、ユーザの表示部110の表示面111に対する視線の検出に用いられるユーザの眼球500の撮像画像が取得される。
なお、眼球500の撮像画像を用いた視線検出処理には、任意の公知の手法が用いられてよい。本実施形態では、例えば瞳孔角膜反射法を用いて、眼球500の撮像画像に含まれる瞳孔の像とプルキニエ像とに基づいて、眼球の向き(回転角度)を表す視線ベクトルが算出される。また、本実施形態に係る視線検出処理においては、視線ベクトルの算出処理とは別に、当該視線ベクトルとユーザが表示面111を視認している方向との相関関係を少なくとも含むユーザの眼球500についての眼球情報を取得するためのキャリブレーション処理が行われる。そして、算出された視線ベクトルに対して、当該眼球情報に基づく補正処理が行われることにより、ユーザの視線が検出される。なお、視線ベクトルをより精度良く算出するために、LED141〜148から眼球500への照射光の強度や、眼球500の特性等に応じて、撮像部160が眼球500を撮影する際の撮影条件(例えば、露出やゲイン等)は適宜変更されてよい。これらの視線ベクトルの算出処理、キャリブレーション処理及び眼球情報に基づく補正処理については、下記[3−1.視線ベクトルの算出処理]及び下記[3−3.キャリブレーション処理]で詳しく説明する。
ヒンジ170は、視線検出装置10と撮像装置とを接続するための接続部材である。図1及び図2Aでは図示が省略されているが、実際には、ヒンジ170は、視線検出装置10の外殻であるハウジングと撮像装置のハウジングとを接続する部材であってよい。なお、ヒンジ170の具体的な構成は図1及び図2Aに示す例に限定されず、ヒンジ170は、接続される視線検出装置10のハウジング及び撮像装置のハウジングの形状等に応じて適宜設定されてよい。また、本実施形態においては、視線検出装置10と撮像装置とが機械的に接続されればよく、その接続部材はヒンジ170に限定されない。当該接続部材は、当該撮像装置の用途や、視線検出装置10のハウジング及び撮像装置のハウジングの形状等を考慮して、適宜設定されてよい。
以上、図1、図2A及び図2Bを参照して、本開示の一実施形態に係る視線検出装置10の一外観例及び概略構成について説明した。以上説明したように、本実施形態においては、表示部110の表示面111が、少なくとも1つの光学部材(例えば、光路変更素子120やルーペユニット130)を介してユーザによって観察される。そして、光源であるLED141〜148によって表示面111を観察するユーザの眼球500に対して光が照射され、撮像部160によって当該照射光の眼球500からの反射光が検出されることにより眼球500の撮像画像が取得される。
ここで、本実施形態に係る視線検出装置10における光の光路についてより詳細に説明する。上述したように、本実施形態においては、ユーザが、表示面111を観察する際に、表示面111からの光(すなわち、表示面111に表示されるコンテンツを構成する光)が、光路変更素子120、ルーペユニット130、光源基板140及びアイカップ150を通過して、ユーザの眼球に入射する。図2Aでは、このような、表示面111からの光が、表示面111からユーザの眼球に至るまでの光路(以下、第1の光路とも呼称する。)を点線の矢印で図示している。一方、本実施形態においては、表示面111を観察するユーザの眼球に対して、光源基板140のLED141〜148から光(例えば赤外光)が照射される。そして、当該照射光の眼球からの反射光のうちz軸の負方向に向かって反射された成分は、光源基板140、ルーペユニット130、光路変更素子120を順に通過して、撮像部160に入射する。図2Aでは、このような、眼球からの反射光が、当該眼球から撮像部160に至るまでの光路(以下、第2の光路とも呼称する。)を破線の矢印で図示している。
図2Aに示す点線の矢印及び破線の矢印に注目すると、本実施形態においては、第2の光路が、第1の光路に設けられる光学部材を含む光路となるように構成されている。具体的には、第2の光路は、第1の光路に含まれる光路変更素子120及びルーペユニット130(アイカップ150の開口部151に接眼レンズが設けられる場合には当該接眼レンズも含む)を通過する光路となっている。このように、本実施形態においては、眼球500からの反射光は、表示面111からの光が表示面111からユーザの眼球に至るまでの間に設けられる光学部材を通過して撮像部160に入射する。
ここで、一般的に、光が光学部材を通過する際には、当該光学部材の特性(例えばレンズであれば屈折率や曲率等)に応じて、その強度や波長、進行方向等の光の特性が変化される。従って、互いに異なる2つの光を観察し、その関係性について検討する際に、一方の光が通過する光学部材と他方の光の通過する光学部材とが大きく異なる、すなわち、一方の光の光路と他方の光の光路とが大きく異なる場合には、光学部材による特性の変化がそれぞれ独立したものとなるため、両者の関係性を高い精度で得ることは困難である。よって、互いに異なる2つの光をそれぞれ検出し、その関係性を検討する場合には、それら2つの光をできるだけ同一の光路を通過させて検出することにより、それぞれの光が光学部材から受ける影響が同様のものとなるため、光学部材から受ける影響を比較的考慮することなく、両者の関係性をより高精度に得ることが可能となる。
本実施形態で言えば、ユーザによって観察される表示部110の表示面111に表示されるコンテンツは、第1の光路に設けられる光学部材の影響を受けて特性が変化した画像であると言える。同様に、撮像部160によって取得されるユーザの眼球500の撮像画像は、第2の光路に設けられる光学部材の影響を受けて特性が変化した画像であると言える。視線検出処理においては、表示面111に対するユーザの視線が、撮像部160によって取得されるユーザの眼球500の撮像画像に基づいて検出されるため、表示面111からの光と眼球500の撮像画像との関係性が高精度に取得されるほど、視線検出の精度も向上されると言える。よって、既存の一般的な視線検出技術のように、コンテンツが表示される表示面からの光が当該表示面からユーザの眼球に至るまでの光路と、ユーザの眼球での反射光が当該眼球から検出器に至るまでの光路とが、大きく異なっている場合には、当該表示面に対するユーザの視線が検出される際に、光路の違いに起因する誤差が生じ、視線検出の精度が低下してしまう可能性があった。一方、本実施形態においては、上述したように、第2の光路が、第1の光路に設けられる光学部材を含む光路となるように構成されている。従って、ユーザによって観察される表示部110の表示面111からの光と、撮像部160によって取得される眼球500の撮像画像とについて、両者の関係性をより精度良く検出することが可能となる。
また、本実施形態では、光源基板140がルーペユニット130よりも後段に設けられることにより、LED141〜148から発せられた光がルーペユニット130を構成するレンズ等によって反射されることなくユーザの眼球500に照射される。LED141〜148とユーザの眼球500との間にレンズ等の光学部材が存在すると、当該光学部材での反射により眼球500に照射される光の効率が低下するだけでなく、当該光学部材によって反射された成分も撮像部160によって検出されてしまうことにより、眼球500の撮像画像の品質(画質)の低下につながる可能性がある。本実施形態では、光源基板140がルーペユニット130よりも後段に設けられることにより、このようなレンズ等の光学部材での反射が抑えられ、より高品質な眼球500の撮像画像を取得することが可能となる。
なお、本実施形態に係る視線検出処理において検出されたユーザの視線は、視線検出装置10に接続される撮像装置における各種の動作に用いられてよい。例えば、検出されたユーザの視線は自動焦点調節(AF:Auto Focus)機能に利用されてもよい。具体的には、スルー画が表示されている表示面111に対するユーザの視線が検出された場合、当該スルー画内における検出されたユーザの視線に対応する領域に焦点を合わせるように、撮像装置のAF機能が駆動されてもよい。また、検出されたユーザの視線に応じて、撮像装置に対する各種の操作入力が行われてもよい。具体的には、表示面111の所定の領域で視線が検出されることによって、例えば撮影モードと撮影済みの撮像画像の閲覧モードとの切り換えや、当該閲覧モードにおける撮像画像の表示の切り換え等の所定の動作が行われてもよい。
<2.視線検出装置の構成>
次に、図3を参照して、本開示の一実施形態に係る視線検出装置の構成についてより詳細に説明する。図3は、本開示の一実施形態に係る視線検出装置の一構成例を示す機能ブロック図である。図3では、本実施形態に係る視線検出装置10と、視線検出装置10が接続される撮像装置20との間における各種の信号や指示の送受信の関係が、機能ブロック図によって図示されている。また、図3では、視線検出装置10を覗き込むユーザの眼球500を併せて図示し、視線検出装置10とユーザの眼球500との関係を模式的に示している。
視線検出装置10は、表示部110、光学部材180、光源190及び撮像部160を備える。ここで、図3に示す視線検出装置10は、図1、図2A及び図2Bに示す視線検出装置10と同様の構成を有する。具体的には、図3に示す表示部110及び撮像部160は、図1、図2A及び図2Bに示す表示部110及び撮像部160に対応するものである。また、図3に示す光学部材180は、図1、図2A及び図2Bに示す光路変更素子120及びルーペユニット130に対応する。また、図3に示す光源190は、図1、図2A及び図2Bに示す光源基板140に設けられるLED141〜148に対応する。光源190は、LED141〜148のうちの少なくともいずれかを意味していてよい。なお、図3では、簡単のため、図1、図2A及び図2Bを参照して説明した視線検出装置10が備える他の構成については図示を省略している。
このように、図3に示す視線検出装置10は、図1、図2A及び図2Bに示す視線検出装置10の各構成部材を模式的に機能ブロックとして図示したものに対応している。従って、図3においては、視線検出装置10及び視線検出装置10の各構成部材の具体的な機能及び構成については、詳細な説明を省略する。
なお、図3では、各種の情報や指示等の信号の送受信を実線の矢印で図示するとともに、視線検出装置10の内部及び視線検出装置10とユーザの眼球500との間における光のやり取りを点線の矢印及び破線の矢印で模式的に図示している。具体的には、図3に示す点線の矢印は、表示部110の表示面からの光が、当該表示面から光学部材180を通過してユーザの眼球500に至るまでの光路を模式的に示している。すなわち、点線の矢印で示す光路は、上記<1.視線検出装置の外観及び概略構成>で説明した第1の光路に対応している。また、図3に示す破線の矢印は、光源190からユーザの眼球500に照射された光の眼球500での反射光が、眼球500から光学部材180を通過して撮像部160に至るまでの光路を模式的に示している。すなわち、破線の矢印で示す光路のうち、眼球500から撮像部160に至るまでの光路は、上記<1.視線検出装置の外観及び概略構成>で説明した第2の光路に対応している。点線の矢印及び破線の矢印に示すように、本実施形態においては、第2の光路が、第1の光路に設けられる光学部材180を含むように構成される。
撮像装置20は、本実施形態に係る視線検出装置10が機械的及び電気的に接続されるデジタルカメラ等の撮像機能を有する装置である。図3を参照すると、撮像装置20は、制御部210を有する。
制御部210は、視線検出装置10及び撮像装置20を統合的に制御するとともに、本実施形態に係る視線検出処理における各種の信号処理を行う。このように、本実施形態においては、撮像装置20に設けられる制御部210によって、視線検出装置10における視線検出処理における各種の信号処理が行われてもよい。ここで、図3に示す例では、撮像装置20の構成のうち、本実施形態に係る視線検出処理に関するものについて主に図示し、その他の構成については図示を省略している。従って、制御部210においても、本実施形態に係る視線検出処理とは直接的には関連しない機能については図示を省略している。ただし、撮像装置20は、撮像画像を取得するための撮像素子や、取得された撮像画像に対して各種の画像処理(例えば、黒レベル、輝度、ホワイトバランス等の調整のための信号処理)を行う画像処理部、撮像素子による撮像画像取得時における各種の撮影条件(例えば、露出やゲイン等)の調整を行う撮影条件調整部等の、一般的な公知の撮像装置が備える各種の機能及び構成を備えていてもよい。
以下、図3を参照して、主に本実施形態に係る視線検出処理に関する制御部210の機能及び構成について具体的に説明する。制御部210は、表示制御部211、光源駆動制御部212、視線検出処理部213及びキャリブレーション処理部214を有する。
表示制御部211は、視線検出装置10の表示部110の駆動を制御し、表示部110の表示画面に、各種の情報をテキスト、画像、グラフ等多様な形式で表示させる。本実施形態においては、表示制御部211は、視線検出装置10の表示部110の表示面に、撮像装置20の撮影対象を表す画像であるスルー画を表示させる。また、表示制御部211は、視線検出処理部213及びキャリブレーション処理部214からの指示に応じて、視線検出処理におけるキャリブレーション処理用の画像(以下、キャリブレーション画像と呼称する。)を表示部110の表示面に表示させる。
なお、当該スルー画や当該キャリブレーション画像を構成する画像信号等の、表示部110に表示される画像についての各種の情報は、撮像装置20に設けられる撮像素子や画像処理部等から送信されてよい。また、表示制御部211は、撮像装置20が他の表示部(図示せず。)を有する場合には、当該他の表示部における各種の表示の制御を行ってもよい。当該他の表示部には、例えばスルー画や撮影済みの撮像画像、撮影条件の設定画面等、一般的な公知の撮像装置の表示部に表示される各種の情報が表示され得る。
光源駆動制御部212は、光源190の駆動を制御し、光源190からユーザの眼球500に対して光を照射させる。光源駆動制御部212は、上記<1.視線検出装置の外観及び概略構成>で説明した、図2Bに示すLED141〜148を駆動させる駆動回路及び制御回路に対応している。ただし、当該駆動回路は、光源190とともに視線検出装置10に備えられてもよい。光源駆動制御部212は、所定の駆動条件に基づいて、複数の光源であるLED141〜148を選択的に駆動させることができる。LED141〜148を選択的に駆動させるとは、LED141〜148の各々についてのオン、オフの切り換えや、LED141〜148の各々が発する光の強度の調整を含む。
また、光源駆動制御部212がLED141〜148を駆動させる駆動条件は、ユーザが表示部110の表示面111を観察する状態についての観察状態情報に応じて設定されてよい。ここで、観察状態情報は、ユーザに固有の情報であり、例えば、ユーザの目の形状についての情報、ユーザの眼鏡の装着有無についての情報及びユーザが表示部110の表示面を観察する向きについての情報の少なくともいずれかを含む。例えば、光源190の駆動条件は、観察状態情報に応じて、ユーザの視線検出処理が適切に行われるように設定されてよい。なお、光源190の具体的な駆動条件は、視線検出処理部213から光源駆動制御部212に対して指示されてもよい。光源駆動制御部212による光源190の駆動制御については、下記[3−2.光源の駆動制御]で詳しく説明する。
視線検出処理部213は、本実施形態に係る視線検出処理に関する各種の処理を視線検出装置10の撮像部160によって取得されるユーザの眼球500の撮像画像に基づいて、表示部110の表示面に対するユーザの視線を検出する処理を行うとともに、当該視線検出処理に係る各種の処理を制御する。本実施形態では、視線検出処理において、いわゆる瞳孔角膜反射法用いた視線ベクトルの算出処理が行われる。具体的には、視線検出処理部213は、眼球500の撮像画像に含まれる瞳孔の像とプルキニエ像とに基づいて、眼球の向き(回転角度)を表すユーザの視線ベクトルを算出する。そして、視線検出処理部213は、後述するキャリブレーション処理部214によって取得されるユーザの眼球情報に基づいて、算出された視線ベクトルを補正する処理を行うことにより、表示部110の表示面に対するユーザの視線を検出する。なお、眼球情報には、ユーザの視線ベクトルとユーザが当該表示面を視認している方向との相関関係が少なくとも含まれる。視線検出処理部213による視線ベクトルの算出処理及び視線ベクトルの補正処理については、下記[3−1.視線ベクトルの算出処理]で詳しく説明する。
また、視線検出処理部213は、光源駆動制御部212に対して光源190の駆動条件を指示することにより、眼球500の撮像画像を取得する際に眼球500に照射される光を制御してもよい。例えば、視線検出処理部213は、観察状態情報に応じてユーザごとに設定される光源190の駆動条件を光源駆動制御部212に対して指示することにより、所定の駆動条件で光源190を駆動させることができる。本実施形態においては、ユーザごとに異なる光源190の駆動条件が設定可能であり、設定された光源190の駆動条件は視線検出装置10又は撮像装置20に設けられる記憶部(図示せず。)等にユーザと紐付けて記憶されてもよい。視線検出処理部213は、以前に使用経験のあるユーザによって視線検出装置10が使用される際には、当該ユーザに対応する光源190の駆動条件を当該記憶部から読み出し、当該駆動条件を光源駆動制御部212に送信してもよい。
更に、視線検出処理部213は、撮像部160に対して眼球500の撮影条件を指示してもよい。光源190の駆動条件(例えば、駆動するLED141〜148の位置や光の強度等)や眼球500の特性(例えば、眼球表面での反射率等)等に応じて、鮮明な眼球500の撮像画像を得るための最適な撮影条件(例えば、露出やゲイン等)は異なると考えられる。従って、視線検出処理部213は、視線ベクトルをより精度良く算出するために、光源190の駆動条件や、眼球500の特性等に応じて、撮像部160に対して眼球500を撮影する際の撮影条件を指示してもよい。なお、当該撮影条件も、ユーザ固有の情報であるため、視線検出装置10又は撮像装置20に設けられる記憶部(図示せず。)等にユーザと紐付けて記憶されてもよい。そして、上記光源190の駆動条件と同様、視線検出装置10が使用される際に、ユーザに応じた撮像部160の撮影条件が当該記憶部から視線検出処理部213によって読み出されてもよい。
キャリブレーション処理部214は、視線ベクトルの補正処理において用いられるユーザの眼球についての眼球情報を取得するキャリブレーション処理を行うとともに、当該キャリブレーション処理に係る各種の処理を制御する。当該眼球情報はユーザに固有の情報であるため、キャリブレーション処理は各ユーザに対して行われる。
本実施形態では、例えば瞳孔角膜反射法に基づく視線ベクトルの算出処理が行われるが、ユーザの視線ベクトルに基づいて推定されるユーザの視線と、実際にユーザが視認している方向との間には誤差があることが知られている。また、当該誤差は、ユーザの眼球の形状や大きさに起因するものであり、ユーザ固有のものである。本実施形態においては、眼球情報は、当該視線ベクトルとユーザが表示面を視認している方向との相関関係を少なくとも含んでよく、当該眼球情報を用いて視線ベクトルの補正処理が行われる。このように、キャリブレーション処理においては、キャリブレーション処理部214によって、ユーザの視線ベクトルとユーザが表示部110の表示面を視認している方向との相関関係を少なくとも含むユーザの眼球についての眼球情報が取得される。
眼球情報を取得するためのキャリブレーション処理の具体的な手順について簡単に説明する。キャリブレーション処理においては、まず、表示部110の表示面に、コンテンツにマーカーが重畳表示されたキャリブレーション画像が表示される。そして、ユーザによってキャリブレーション画像上の当該マーカーに視線を向ける動作が行われ、マーカーに視線を向けているユーザの視線ベクトルが視線検出処理部213によって算出される。キャリブレーション処理部214は、視線検出処理部213から視線ベクトルについての情報を受信することにより、表示面上のマーカーの座標と算出されたユーザの視線ベクトルとの相関関係を眼球情報として取得することができる。
キャリブレーション処理部214は、表示制御部211及び視線検出処理部213と、各種の情報や駆動制御に関する指示等を互いに送受信することにより、上記のキャリブレーション処理を実行することができる。具体的には、キャリブレーション処理部214は、表示制御部211に対して、表示部110の表示面にキャリブレーション画像を表示させるように指示することができる。キャリブレーション処理部214は、キャリブレーション画像の表示に際して、表示部110の表示面上におけるマーカーの座標を指定してもよい。また、キャリブレーション処理部214は、視線検出処理部213に対して視線ベクトルの算出処理を行うように指示し、視線検出処理部213によって算出された視線ベクトルについての情報を受信することができる。
なお、上述したように、キャリブレーション処理によって取得される眼球情報はユーザ固有の情報であり、成人であれば同一のユーザにおいてはほぼ変化することのない情報である。従って、本実施形態においては、同一のユーザに対して複数回のキャリブレーション処理が行われる必要はなく、取得された眼球情報が視線検出装置10又は撮像装置20に設けられる記憶部(図示せず。)等にユーザと紐付けて記憶されてもよい。そして、以前に使用経験のあるユーザによって視線検出装置10が使用される際に、キャリブレーション処理の代わりに、当該ユーザに対応するパラメータのデータを当該記憶部から読み出す処理が行われてもよい。このような眼球情報の記憶処理及び読み出し処理が行われることにより、キャリブレーション処理は新規のユーザに対してのみ行われればよくなるため、ユーザの利便性が向上される。
以上、図3を参照して、本実施形態に係る視線検出装置10の概略構成について、視線検出装置10が接続される撮像装置20との間の情報のやり取りとともに詳細に説明した。
以上説明したように、本実施形態においては、第2の光路が、第1の光路に含まれる光学部材180を含む。つまり、眼球500からの反射光が、第1の光路に含まれる光学部材を通過して撮像部160に入射する。そして、このような第2の光路を辿って撮像部160に入射した光に基づいて、視線検出処理部213によって、表示部110の表示面に対する視線検出処理が行われる。従って、当該表示面に対する視線検出の精度をより向上させることができる。
なお、上述したように、本実施形態においては、観察状態情報に基づく光源190の駆動条件や眼球情報といったユーザ固有の情報が、ユーザと紐付けて記憶部等に記憶されてよい。また、当該駆動条件や当該眼球情報が必要に応じて読み出され、視線検出処理に用いられてよい。このような駆動条件及び眼球情報の記憶処理及び読み出し処理を実現するために、視線検出装置10又は撮像装置20には、ユーザの登録機能や登録されたユーザの選択機能が設けられてもよい。また、当該ユーザの選択機能の代わりに、視線検出装置10又は撮像装置20に各種の個人認証機能又は個体識別機能が設けられることにより、ユーザが自動的に認識されるようにしてもよい。当該個人認証又は個体識別としては、例えば指紋認証、静脈認証及び/又は撮像部160によって撮影されるユーザの眼球500の撮像画像に基づく虹彩認証等の各種の生体認証が適用され得る。例えば、視線検出装置10を使用する際に、予め登録されている複数のユーザの中から1人のユーザを選択する処理又はユーザの個人認証処理若しくは個体識別処理が行われることにより、選択された又は認識されたユーザに対応する駆動条件及び眼球情報の読み出し処理が自動的に行われる。なお、上述した個人認証処理や個体識別処理、ユーザ固有の情報の読み出し処理等を行うための各構成部材の制御機能や各種の情報処理機能が、制御部210に設けられてもよい。
また、上記では、撮像装置20に設けられる制御部210が、撮像装置20における各種の処理の制御を行うとともに、視線検出処理を含む視線検出装置10における各種の処理の制御を行う場合について説明したが、本実施形態はかかる例に限定されない。本実施形態においては、制御部210が有する各機能が任意に複数のユニットに分割され、複数の装置にそれぞれ設置されてもよい。例えば、視線検出装置10が別途制御部を有し、当該制御部によって本実施形態に係る視線検出処理における各種の処理が制御されてもよい。このように、本実施形態においては、視線検出装置10及び撮像装置20がそれぞれ制御部を有し、各装置における各種の処理の制御が装置ごとに設けられた制御部によって各々行われてもよい。また、例えば、視線検出装置10及び撮像装置20が、更に他の装置(例えばPCやサーバ等の情報処理装置)と有線又は無線によって相互に通信可能に接続され、当該他の装置に設けられる制御部によって本実施形態に係る視線検出処理における各種の処理が制御されてもよい。以上例示したように、本実施形態においては、上記説明した視線検出処理における各種の処理が実行可能であればよく、視線検出処理を実現するための具体的な構成は図3に例示した構成に限定されない。例えば、視線検出装置10と撮像装置20とが一体的に1つの装置として構成されてもよい。なお、制御部210並びに上述した視線検出装置10に設けられる他の制御部及び他の装置に設けられる制御部は、例えばCPU(Central Processing Unit)やDSP(Digital Signal Processor)、マイコン(マイクロコントローラ:Microcontroller)等の各種の処理回路によって構成することが可能である。
<3.視線検出処理の詳細>
次に、本実施形態に係る視線検出処理の詳細について説明する。以下では、まず、[3−1.視線ベクトルの算出処理]で、上述した視線検出処理部213によって行われる視線ベクトルの算出処理について説明する。次いで、[3−2.光源の駆動制御]で、当該視線ベクトルの算出処理においてユーザの眼球の撮像画像が取得される際の、所定の駆動条件に基づく光源の駆動制御について説明する。更に、[3−3.キャリブレーション処理]で、キャリブレーション処理部214によって行われるキャリブレーション処理について説明する。最後に、[3−4.虹彩認証に基づくユーザ固有の情報の読み出し処理]で、キャリブレーション処理の結果等のユーザ固有の情報を読み出す際の虹彩認証について説明する。
[3−1.視線ベクトルの算出処理]
まず、図4を参照して、視線検出処理部213によって行われる視線ベクトルの算出処理について説明する。上述したように、本実施形態に係る視線ベクトルの算出処理には、瞳孔角膜反射法が用いられる。図4は、本実施形態に係る瞳孔角膜反射法を用いた視線ベクトルの算出処理について説明するための説明図である。
図4を参照すると、表示面530を観察しているユーザの眼球500に対して、光源520から光が照射されるとともに、眼球500が撮像部510によって撮影されている様子が図示されている。
図4では、眼球500の構成のうち、角膜501、虹彩502及び瞳孔503が模式的に図示されている。眼球500は、図2A及び図3に示す眼球500に対応するものであり、本実施形態に係る視線検出装置10を覗き込んでいるユーザの眼球を示している。また、表示面530は、図1、図2A及び図3に示す表示部110の表示面111に対応するものであり、表示面530にはコンテンツ、例えば撮像装置20におけるスルー画が表示されている。ユーザはコンテンツが表示されている表示面530を観察しており、ユーザの視線、すなわち眼球500の向きは、表示面530上の所定の領域に向けられている。
上記<2.視線検出装置の構成>で説明したように、瞳孔角膜反射法においては、眼球500の撮像画像に含まれる瞳孔の像とプルキニエ像とに基づいて、眼球の向き(回転角度)を表す視線ベクトルが算出されることにより、ユーザの視線が検出される。視線ベクトルを算出するために、まず、表示面530を観察しているユーザの眼球500に対して、光源520から光が照射される。光源520は、図2Bに示すLED141〜148のうちの1つを模式的に表すものである。図4では、光源520から照射された光の光路が、模式的に矢印で示されている。
次いで、撮像部510によって、光源520から眼球500に対して照射された光の眼球500からの反射光が検出されることにより、眼球500の撮像画像が撮影される。撮像部510は、図1、図2A及び図3に示す撮像部160に対応するものである。図4では、撮像部510によって撮影された撮像画像の一例が撮像画像540として図示されている。図4に示す例では、撮像画像540はユーザの目が略正面から撮影された撮像画像であり、眼球500の角膜501、虹彩502及び瞳孔503が撮影されている。また、撮像画像540では、光源520から眼球500に照射された照射光の光点であるプルキニエ像(Purkinje Image)504が撮影されている。
次いで、撮像画像540に基づいて視線ベクトルの算出処理が行われる。まず、撮像画像540から瞳孔503の像が検出される。瞳孔503の像の検出処理には一般的な公知の画像認識技術が適用され得る。例えば、瞳孔503の像の検出処理においては、撮像画像540に対する各種の画像処理(例えば歪みや黒レベル、ホワイトバランス等の調整処理)、撮像画像540内の輝度分布を取得する処理、当該輝度分布に基づいて瞳孔503の像の輪郭(エッジ)を検出する処理、検出された瞳孔503の像の輪郭を円又は楕円等の図形で近似する処理等の一連の処理が行われてもよい。
次いで、撮像画像540からプルキニエ像504が検出される。プルキニエ像504の検出処理には、瞳孔中心点Sの検出処理と同様、一般的な公知の画像認識技術が適用され得る。例えば、プルキニエ像504の検出処理においては、撮像画像540に対する各種の画像処理、撮像画像540内の輝度分布を取得する処理、当該輝度分布に基づいて周囲の画素との輝度値の差が比較的大きい画素を検出する処理等の一連の処理が行われてもよい。また、検出されたプルキニエ像504から、更に、プルキニエ像504の中心の点を表すプリキニエ点Pが検出される。
次いで、瞳孔中心点S及び角膜501の曲率中心点C(角膜501を球の一部とみなした場合の当該球の中心)の3次元座標が算出される。瞳孔中心点Sの3次元座標は、撮像画像540から検出された瞳孔503の像に基づいて算出される。具体的には、撮像部510と眼球500との位置関係、角膜501表面における光の屈折、角膜501の曲率中心点Cと瞳孔中心点Sとの距離等のパラメータを用いて、撮像画像540における瞳孔503の像の輪郭上の各点の3次元座標が算出され、これらの座標の中心点を求めることにより、瞳孔中心点Sの3次元座標が算出される。また、角膜501の曲率中心点Cは、撮像画像540から検出されたプルキニエ像504及びプルキニエ点Pに基づいて算出される。具体的には、撮像部510と光源520と眼球500との位置関係、角膜501の曲率半径(角膜501を球の一部とみなした場合の当該球の半径)等のパラメータを用いて、撮像部510とプルキニエ点Pとを結ぶ直線の眼球500内部への延長線上において角膜501の表面から角膜501の曲率半径だけ進んだ点の座標が算出されることにより、角膜501の曲率中心点Cの3次元座標が算出される。なお、本実施形態における瞳孔中心点S及び角膜501の曲率中心点Cの3次元座標の算出処理には、一般的な瞳孔角膜反射法において用いられる公知の手法が適用可能であるため、詳細な説明は省略する。
次いで、角膜501の曲率中心点Cから瞳孔中心点Sに向かうベクトルを算出することにより、視線ベクトル550が算出される。表示面530と眼球500との位置関係を予め取得しておくことにより、視線ベクトル550の延長線と表示面530とが交差する領域531の座標を求めることができるため、当該領域531が、表示面530に対するユーザの視線を示す領域となる。
上記<2.視線検出装置の構成>で説明した図3に示す視線検出処理部213は、以上説明した各処理を行うことにより、ユーザの眼球500の向きを表す視線ベクトル550を算出し、表示面530(すなわち、図3に示す表示部110の表示面)における当該視線ベクトル550に対応する領域の座標(すなわち、図4に示す領域531の表示面530上における座標)を検出することができる。
しかしながら、ヒトにおいては、眼球が向いている方向(すなわち、視線ベクトル550が示す方向)と、実際にヒトが視線を向け視認している方向とが必ずしも一致しないことが知られている。これは、眼球の形状や大きさ(例えば、角膜501の曲率中心点Cと瞳孔中心点Sとの距離や、角膜501の曲率半径等)、眼球における網膜や視神経の配置等に起因するものであり、個人差を有するものである。このように、ユーザの視線ベクトル550に基づいて推定されるユーザの視線と、実際にユーザが視認している方向との間には、ユーザ固有の誤差が存在する。かかる事情を考慮して、本実施形態においては、視線ベクトル550と実際にユーザが表示面530を視認している方向との相関関係を少なくとも含むユーザの眼球500についての眼球情報を取得するためのキャリブレーション処理がユーザごとに行われる。そして、取得されたユーザ固有の情報である眼球情報を用いて視線ベクトル550に対する補正処理が行われ、ユーザの視線が検出される。従って、本実施形態においては、より精度の高い視線検出処理を行うことが可能となる。
[3−2.光源の駆動制御]
次に、視線ベクトルの算出処理においてユーザの眼球の撮像画像が取得される際の、所定の駆動条件に基づく光源の駆動制御について説明する。上記<1.視線検出装置の外観及び概略構成>及び<2.視線検出装置の構成>で説明したように、本実施形態においては、図2Bに示すように光源として複数のLED141〜148が配設される。また、LED141〜148の駆動は、図3に示す光源駆動制御部212によって所定の駆動条件に基づいて選択的に制御される。
図5A−図5Fを参照して、光源駆動制御部212によるLED141〜148の駆動制御について説明する。図5A−図5Fは、本実施形態に係る視線検出処理における光源の駆動制御について説明するための説明図である。図5A−図5Fでは、図1、図2A及び図2Bに示す光源基板140及びLED141〜148が模式的に図示されており、LED141〜148の駆動制御において行われ得るLED141〜148の発光パターンがそれぞれ図示されている。図5A−図5Fでは、LED141〜148のうち、光を発しているもの、すなわちユーザの眼球に対して光を照射しているものがハッチングで塗り潰されて表現されている。
図5Aを参照すると、LED141〜148が全て駆動されていない発光パターンが図示されている。例えば、光源駆動制御部212は、視線検出処理が行われていない場合に、図5Aに示すような駆動条件でLED141〜148を駆動させる。視線検出処理が行われていない場合にLED141〜148が駆動されないことにより、消費電力が低減される。
図5Bを参照すると、LED141〜148のうち1つのLEDのみが駆動される発光パターンが図示されている。図5Bに示す例では、LED141〜148のうちLED142のみが駆動されている。このように、光源駆動制御部212は、複数のLED141〜148のうち任意のLEDを選択的に駆動させることができる。
図5C及び図5Dを参照すると、LED141〜148のうち2つのLEDのみが駆動される発光パターンが図示されている。図5Cに示す例では、LED141〜148のうち上下方向に位置するLED142、146のみが駆動されている。また、図5Dに示す例では、LED141〜148のうち左右方向に位置するLED144、148のみが駆動されている。このように、光源駆動制御部212は、ユーザの眼球に対して上下方向に位置する2つのLED又は左右方向に位置する2つのLEDのみを駆動させることにより、ユーザの眼球に対して対称的な2方向から光を照射させることができる。
図5E及び図5Fを参照すると、LED141〜148のうち4つのLEDのみが駆動される発光パターンが図示されている。図5Eに示す例では、LED141〜148のうち上下左右の方向に位置するLED142、144、146、148のみが駆動されている。また、図5Fに示す例では、LED141〜148のうち略四角形の開口部149の頂点近傍に位置するLED141、143、145、147のみが駆動されている。このように、光源駆動制御部212は、ユーザの眼球に対して上下左右方向に位置する4つのLED又は斜め方向に位置する4つのLEDのみを駆動させることにより、ユーザの眼球に対して対称的な4方向から光を照射させることができる。
ここで、上記[3−1.視線ベクトルの算出処理]で図4を参照して説明したように、視線ベクトルの算出処理においては、光源520からの照射光によるプルキニエ像504に基づいて角膜501の曲率中心点Cの3次元座標が算出される。図4に示す例では、1つの光源520から照射された光によって生じる1つのプルキニエ像504に基づいて当該算出処理が行われているが、互いに異なる複数のプルニキエ像が存在する場合には、そのそれぞれのプルニキエ像に対して角膜501の曲率中心点Cの3次元座標の算出処理が行われてよい。そして、それぞれのプルニキエ像に基づく算出結果の平均値や中間値等を求めることにより、最終的な角膜501の曲率中心点Cの3次元座標が算出されてよい。従って、互いに異なる複数のプルニキエ像を用いることにより、算出される角膜501の曲率中心点Cの3次元座標の精度をより向上させることができる。本実施形態では、例えば図5C−図5Fに示すように複数のLED141〜148を駆動させることにより、互いに異なる複数のプルキニエ像を生じさせることができ、算出される角膜501の曲率中心点Cの3次元座標の精度をより向上させることができる。
また、図2B及び図5A−5Fに示すように、本実施形態においては、LED141〜148が開口部149の縁に沿って設けられる。従って、ユーザの眼球の角膜に対して比較的正面から、すなわちユーザの眼球における視軸(視線ベクトルの方向)により近い方向から光が照射される。ユーザの眼球における視軸により近い方向から光が照射され、当該照射光の眼球からの反射光に応じて眼球の撮像画像が取得されることにより、眼球を略正面から撮影することが可能となるため、眼球の撮像画像における中心付近の歪み等が低減され、瞳孔の像の検出精度がより向上される。
また、本実施形態においては、光源であるLED141〜148の駆動条件は、ユーザが表示面を観察する状態についての観察状態情報に応じて設定されてよい。ここで、観察状態情報は、ユーザ固有の情報であり、ユーザの目の形状についての情報、ユーザの眼鏡の装着有無についての情報及びユーザが視線検出装置10の表示面を観察する向きについての情報の少なくともいずれかを含む。
ユーザの目の形状についての情報とは、例えば、眼球、角膜及びまぶたの大きさや形状、並びに、眼球と角膜との位置関係や比率等についての情報を含む。上記[3−1.視線ベクトルの算出処理]で角膜501の曲率中心点Cの算出処理について説明したが、その算出原理を考慮すれば、撮像画像540におけるプルキニエ像504は角膜501上に位置することが望ましい。目の形状には個人差があるため、例えば1つの光源から光を照射する場合には、当該光源と眼球との位置関係によっては、角膜501上にプルキニエ像504が位置しない場合が生じ得る。また、例えばユーザが比較的細い目の形状を有する場合等、まぶたの形状によっては、所定の位置に設けられる1つの光源からの照射光では、当該照射光がまぶたによって遮られてしまい、ユーザの眼球に適切に光が照射されないことも考えられる。そこで、本実施形態においては、図5A−図5Fに示すように、眼球に対して互いに異なる位置に配設される複数のLED141〜148が選択的に駆動される。従って、ユーザの目の形状についての情報に応じて、適切な位置にプルキニエ像504が位置するように、駆動されるLED141〜148が適宜選択されてよい。このように、本実施形態においては、ユーザの目の形状についての情報に応じた光源の駆動制御が可能であるため、プルキニエ像504が角膜501上で確実に検出されることとなる。
また、例えば、ユーザが眼鏡を装着している場合には、光源から眼球に対し光を照射すると、当該眼鏡のレンズによる反射光により、眼球の撮像画像から瞳孔の像やプルキニエ像を検出することが困難になる可能性がある。一方、本実施形態においては、例えば図5A−図5Fに示すように、眼球に対して互いに異なる位置に配設される複数のLED141〜148が選択的に駆動されることにより、多様な発光パターンが実現される。従って、視線ベクトルの算出処理において、多様な発光パターンの中から、眼鏡のレンズにおける光の反射が瞳孔の像やプルキニエ像の検出に対して比較的影響を与えないような発光パターンが適宜選択されてよい。好ましい発光パターンは、眼鏡のフレームやレンズの形状等によって異なるため、ユーザごとに、最適な発光パターンを実現するLED141〜148の駆動条件が設定されてよい。例えば、眼鏡を装着しているユーザに対して、実際にLED141〜148を順次発光させながら、瞳孔の像やプルキニエ像の検出を妨げる原因となっているLED141〜148の位置を特定することにより、最適な発光パターンが探索される。最適な発光パターンにおいて駆動させるLED141〜148の数が少なくなり、光量が不足してしまう場合には、LEDの駆動させる出力を増加させたり、撮像部160の露出やゲインを上げたりする処理が適宜行われてもよい。また、眼鏡の装着有無での好適な発光パターンが、ある程度普遍的に設定できるのであれば、眼鏡装着時に好適な発光パターンを実現するための駆動条件と、裸眼時に好適な発光パターンを実現するための駆動条件とを予め設定しておき、ユーザの眼鏡の装着有無についての情報に応じて、これらの駆動条件から適切なものが選択されてもよい。このように、本実施形態においては、ユーザの眼鏡の装着有無についての情報に応じた光源の駆動制御が可能であるため、眼球の撮像画像から瞳孔の像やプルキニエ像をより高精度で検出することが可能となる。
また、例えば、本実施形態に係る視線検出装置10が撮像装置20に接続されるEVFである場合には、ユーザが撮像装置20を横向きに把持するか縦向きに把持するかに応じて、ユーザが視線検出装置10の表示面を観察する向きが変化し、ユーザと光源との位置関係が変化する可能性がある。例えば、ユーザが撮像装置20を横向きに把持する場合には、図1に示す視線検出装置10のy軸方向がユーザにとっての上下方向となり得るが、ユーザが撮像装置20縦向きに把持する場合には、ユーザにとっての上下方向と左右方向との関係が逆転し、図1に示す視線検出装置10のx軸方向がユーザにとっての上下方向となり得る。このようにユーザが視線検出装置10の表示面を観察する向きが変化すると、ユーザの目とLED141〜148との位置関係も変化するため、LED141〜148の適切な駆動条件も変化する可能性がある。本実施形態では、ユーザが視線検出装置10の表示面を観察する向きについての情報に基づいて、視線ベクトルの算出処理が適切に行われるように、駆動されるLED141〜148が適宜選択されてよい。なお、ユーザが視線検出装置10の表示面を観察する向きについての情報は、例えば、視線検出装置10及び/又は撮像装置20に姿勢を検出するためのセンサ装置が設けられ、当該センサ装置によって検出される視線検出装置10の姿勢に基づいて取得されることができる。
以上説明したように、本実施形態においては、ユーザ固有の情報である観察状態情報に基づいて、ユーザごとに最適な光源の駆動条件が適宜設定されてよい。このように、観察状態情報に基づいて、ユーザごとに最適な光源の駆動条件が設定されることにより、視線ベクトルの算出処理の精度がより向上され、視線検出の精度がより向上される。なお、観察状態情報に基づくユーザごとの最適な光源の駆動条件は、本実施形態に係る視線検出処理の最中又は視線検出処理に先立ち、駆動するLED141〜148の組み合わせや照射光の強さを順次変更しながら実際にユーザに対して視線検出処理を行い、その検出結果を比較することにより取得されてよい。また、LED141〜148の駆動条件が視線検出処理の最中に取得される場合には、取得された当該駆動条件に基づいて、視線検出処理(視線ベクトルの算出処理)が行われている最中にLEDの駆動条件が動的に変更されてもよい。
[3−3.キャリブレーション処理]
次に、キャリブレーション処理部214によって行われるキャリブレーション処理について詳細に説明する。上記<2.視線検出装置の構成>で説明したように、キャリブレーション処理においては、ユーザの視線ベクトルとユーザが表示部110の表示面を視認している方向との相関関係を少なくとも含むユーザの眼球についての眼球情報が取得される。具体的には、本実施形態に係るキャリブレーション処理においては、視線検出装置10の表示部110の表示面に、コンテンツに対してマーカーが重畳表示されたキャリブレーション画像が表示される。そして、当該マーカーに視線を向けている最中のユーザの視線ベクトルが視線検出処理部213によって算出されることにより、ユーザの視線ベクトルと表示面上にマーカーが表示された位置の座標との相関関係が取得される。
図6A−図6Cを参照して、このようなキャリブレーション処理の詳細について説明する。図6A−図6Cは、本実施形態に係るキャリブレーション処理について説明するための説明図である。
図6A−図6Cを参照すると、キャリブレーション処理の実行時にユーザが観察する表示面610が図示されている。表示面610は、図1、図2A及び図3に示す視線検出装置10の表示部110の表示面111に対応するものである。キャリブレーション処理の実行時における表示面610の表示は、キャリブレーション処理部214からの指示に応じて、図3に示す表示制御部211によって制御されてよい。
図6Aは、キャリブレーション処理が行われる前段階における表示面610を表している。キャリブレーション処理が行われる前段階では、表示面610にはスルー画611が表示されている。
図6Bは、キャリブレーション処理実行中における表示面610を表している。キャリブレーション処理の実行中には、表示面610にキャリブレーション画像が表示される。キャリブレーション画像では、スルー画611が暗転された状態(輝度が下げられた状態)で表示面610に表示される。また、キャリブレーション画像では、暗転されたスルー画611の上にマーカー612a〜612eが順に表示される。マーカー612a〜612eは、例えば所定の面積を有する光点として表示される。なお、キャリブレーション画像においてスルー画611が暗転された状態で表示されることにより、ユーザがスルー画611に気を取られることなく、マーカー612a〜612eに視線を向けることができ、キャリブレーション処理を効率的に行うことが可能となる。また、キャリブレーション画像においては、一時的にスルー画611が表示されず、マーカー612a〜612eだけが表示面610に順に表示されてもよい。
具体的には、キャリブレーション処理が開始されると、まず、キャリブレーション処理部214からの指示に応じて、表示面610に、暗転されたスルー画611にマーカー612aが重畳されたキャリブレーション画像が表示される。キャリブレーション処理部214は、マーカー612aを表示させる表示面610上の座標を表示制御部211に指示することができる。例えば、マーカー612aは、図6Bに示すように、表示面610の略中心に表示される。マーカー612aが表示された状態で、ユーザは、当該マーカー612aに対して視線を向ける動作を行う。マーカー612aに対して視線を向けている最中のユーザの視線ベクトルが、視線検出処理部213によって算出され、その算出結果がキャリブレーション処理部214に送信される。キャリブレーション処理部214は、マーカー612aの表示面610上における表示位置の座標についての情報を有しているため、ユーザの視線ベクトルと、実際にユーザが視認しているマーカー612aの表示面610上における表示位置の座標との相関関係を取得することができる。
マーカー612aに対して上記の相関関係が取得されると、キャリブレーション処理部214からの指示に応じて、表示面610の表示が切り換えられる。具体的には、表示面610上で、マーカー612aの表示が消滅され、マーカー612bが新たに表示される。図6Bに示す例では、マーカー612bは、表示面610の上辺の略中央付近に表示される。そして、マーカー612aの場合と同様に、マーカー612bに対して、ユーザの視線ベクトルと、マーカー612bの表示面610上における表示位置の座標との相関関係がキャリブレーション処理部214によって取得される。
以下、同様に、マーカー612c、612d、612eが順に表示され、各マーカーに対して、ユーザの眼球の向きに基づく視線ベクトルと、各マーカーの表示面610上における表示位置の座標との相関関係がキャリブレーション処理部214によって取得される。図6Bに示す例では、マーカー612c、612d、612eは、それぞれ、表示面610の右辺、下辺、左辺の略中央付近に表示される。マーカー612a〜612eの各々について上記相関関係がキャリブレーション処理部214によって取得されることにより、キャリブレーション処理が終了する。図6Bに示すように、表示面610の略中央及び各辺の近傍にマーカー612a〜612eが表示されることにより、表示面610のほぼ全域に渡って上記相関関係が取得されるため、視線検出の精度がより向上される。
キャリブレーション処理が終了すると、図6Cに示すように、表示面610の表示が通常の輝度のスルー画611に戻る。キャリブレーション処理終了後においては、キャリブレーション処理において取得された相関関係に基づいてユーザの視線ベクトルに対して適宜補正が施されることにより、表示面610に対するユーザの視線が検出される。具体的には、視線検出処理部213は、当該相関関係を用いて、ユーザの視線ベクトルから推定される表示面610上の座標を、実際にユーザが視認している表示面610上の座標に補正する処理を行うことができる。補正処理が施された表示面610上のユーザの視線に対応する領域には、例えば図6Cに示すように、ユーザの視線を表すマーカー613が表示されてもよい。
以上、図6A−図6Cを参照して、本実施形態に係るキャリブレーション処理の詳細について説明した。以上説明したように、本実施形態に係るキャリブレーション処理では、例えば表示面610の互いに異なる位置に複数のマーカー612a〜612eが順次表示され、マーカー612a〜612eの各々について、ユーザの視線ベクトルと、各マーカー612a〜612eの表示面610上における表示位置の座標との相関関係が取得される。当該相関関係は眼球の形状や大きさに起因して互いに異なる値を有するため、ユーザに固有の情報である。本実施形態では、当該相関関係を少なくとも含むユーザの眼球についての眼球情報に基づいて視線ベクトルに対する補正処理が行われることによりユーザの表示面610に対する視線が検出される。従って、ユーザの個人差を考慮した視線検出処理が行われるため、視線検出の精度がより向上される。なお、眼球情報には、ユーザの眼球の構造を表す各種のパラメータ(例えば、角膜の曲率中心点Cと瞳孔中心点Sとの距離や、角膜の曲率半径等)を含んでもよい。これらのパラメータはユーザに固有の数値を有し、視線ベクトルの算出処理において用いられるパラメータである。視線ベクトルの補正処理においては、算出された視線ベクトルがこれらのパラメータに基づいて補正される処理が更に行われてもよい。
なお、図6Bに示すキャリブレーション画像においては、ユーザがマーカー612a〜612eに視線を向けている間、マーカー612a〜612eの色が変化するようにその表示が制御されてもよい。ユーザは、マーカー612a〜612eの色が変化したことにより、現在自身の視線が検出されている最中であることを認識することができる。マーカー612a〜612eの色を変化させる基準となる、ユーザがマーカー612a〜612eに視線を向けているかどうかの判断は、例えば、視線検出処理部213によって、眼球の撮像画像においてユーザの眼球の動きが静止したことに基づいて判断されてもよい。
また、図6Bに示す例では、キャリブレーション処理において5つのマーカー612a〜612eが用いられているが、本実施形態はかかる例に限定されない。本実施形態では、視線検出処理において所定の精度が得られれば良く、キャリブレーション処理において表示されるマーカーの数や表示位置は、適宜設定されてよい。
[3−4.虹彩認証に基づくユーザ固有の情報の読み出し処理]
本実施形態においては、上述したような、観察状態情報に基づく光源190の駆動条件や眼球情報といったユーザに固有の情報が、ユーザと紐付けて記憶部等に記憶されてよい。また、このようなユーザ固有の情報が必要に応じて読み出され、視線検出処理に用いられてよい。このようなユーザ固有の情報の読み出し処理においては、虹彩認証を用いた個人認証又は個体識別が適用され得る。例えば、視線検出装置10を使用する際に、虹彩認証を用いたユーザの個人認証処理又は個体識別処理が行われ、当該処理の結果に基づいて、対応するユーザ固有の情報が読み出される。上記[3−1.視線ベクトルの算出処理]で説明したように、本実施形態に係る視線検出処理においては、視線ベクトルの算出処理において撮像部160によってユーザの眼球500の撮像画像が取得されるため、当該撮像画像に含まれる虹彩の像を個人認証又は個体識別に用いることができる。このように、本実施形態においては、撮像部160によって取得されるユーザの眼球500の撮像画像に基づいて、視線ベクトルの算出処理と虹彩認証処理との双方が行われてもよい。視線ベクトルの算出処理に用いられるユーザの眼球500の撮像画像に基づいて虹彩認証処理が行われることにより、別途の構成を設けることなくユーザの個人認証又は個体識別を行うことが可能となる。
ここで、虹彩認証処理の概要について簡単に説明する。本実施形態に係る虹彩認証処理には、例えばDaugmanのアルゴリズムを用いることができる。
本実施形態に係る虹彩認証処理においては、まず、ユーザの眼球の撮像画像の中から、虹彩に相当する部分の画像が抜き出される。当該ユーザの眼球の撮像画像は、視線ベクトルの算出処理において撮影される撮像画像であってよい。また、虹彩に相当する部分の検出には、上記[3−1.視線ベクトルの算出処理]で説明した瞳孔503の像やプルキニエ像504の検出処理において用いられるような各種の画像処理の手法が用いられてよい。
次に、抜き出された虹彩部分の画像(虹彩画像)が、所定の数学的手法に基づく非可逆な圧縮処理によって、ユーザ固有の特徴を表す情報を含むデジタル情報(例えばビット列)に変換される。このように虹彩画像に対して数学的な処理を行うことによって生成されたデジタル情報は、個人に固有な特徴が抽出されたものであり、デジタルテンプレートとも呼ばれる。デジタルテンプレートであるビット列には、他の虹彩画像との比較において統計的に意味の有る比較が行えるだけの基本的な情報が含まれている。例えば、Daugmanのアルゴリズムでは、ガボールフィルタによるウェーブレット変換を用いて、虹彩画像の中から、撮像部160の解像度等の性能を考慮した所定のSN比を有する空間周波数範囲が抜き出されることにより、虹彩画像のローカルな振幅と位相情報とを含む複素数群が取得される。そして、当該複素数群に基づいて、振幅情報を含まず、ガボール領域表現の複素数の符号ビットだけを含む2048ビットのビット列が、虹彩画像に対応するビット列として取得される。ビット列が振幅情報を含まないことにより、眼球の撮影時における照明の違いや虹彩の色による影響を排除することができ、長期に渡ってより安定的なデジタルテンプレートが取得される。
次に、虹彩画像に基づいて取得されたビット列の値が、予めデジタルテンプレートとして登録されているビット列の値と比較される。両者のビット列の値のハミング距離が所定のしきい値よりも小さければ、両者は一致していると判断される。虹彩画像に基づいて取得されたビット列の値は、予め登録されている複数のビット列の値と比較されてもよいし(個体識別:1対多マッチング)、予め登録されている特定のユーザに対応する特定のビット列の値と比較されてもよい(個人認証:1対1マッチング)。なお、Daugmanのアルゴリズムは一般的な虹彩認証処理において広く用いられている手法であるため、本項では、Daugmanのアルゴリズムについての更に詳細な説明は省略する。
本実施形態においては、以上説明した虹彩認証処理に基づいて視線検出装置10を使用しようとしているユーザが特定され、当該ユーザに対応するユーザ固有の情報が読み出されてもよい。そして、読み出された当該ユーザ固有の情報を用いて視線ベクトルの補正処理が行われる。
ここで、上記ビット列は、例えば2次元状に配列されたビット配列であってもよい。ユーザの虹彩画像から取得されたビット配列と、予めデジタルテンプレートとして登録されているビット配列とのずれ量を検出することにより、ユーザの眼球の角度(向き)を算出することができる。本実施形態においては、視線ベクトルの補正処理において、このような虹彩認証処理の過程で所得され得るユーザの眼球の角度についての情報が更に用いられてもよい。
<4.変形例>
次に、本実施形態に係る視線検出処理の変形例について説明する。下記[4−1.IRフィルターの追加]では、これまでと同様、本実施形態に係る視線検出処理が撮像装置のEVFに適用される場合における、異なる構成例について説明する。また、下記[4−2.ウェアラブルデバイスへの適用]及び[4−3.ヘッドマウントディスプレイへの適用]では、本実施形態に係る視線検出処理が他の装置に対して適用される場合について説明する。
[4−1.IRフィルターの追加]
本実施形態に係る視線検出装置の一変形例においては、光源から赤外光がユーザの眼球に対して照射される。また、赤外帯域以外の波長帯域の光を遮蔽する赤外光パス機構が撮像部の前段に設けられ、赤外光のユーザの眼球からの反射光が、当該赤外光パス機構を通過した後に、撮像部に入射する。このように、撮像部の前段に赤外光パス機構が設けられることにより、赤外光以外のノイズになり得る光が撮像部に入射することが防止されるため、ユーザの眼球の撮像画像をより鮮明に取得することができる。
図7を参照して、このような、本実施形態に係る視線検出装置の一変形例の具体的な構成について説明する。図7は、本実施形態に係る視線検出処理が撮像装置のEVFに適用される場合における、異なる構成例を示す断面図である。
図7を参照すると、本実施形態の一変形例に係る視線検出装置70は、表示部110、光路変更素子120、ルーペユニット130、光源基板140、アイカップ150、撮像部160、ヒンジ170及びIRフィルター(Infrared Filter)710を備える。ここで、本変形例に係る視線検出装置70の構成部材のうち、表示部110、光路変更素子120、ルーペユニット130、光源基板140、アイカップ150、撮像部160及びヒンジ170の機能及び構成は、図1、図2A、図2Bに示す視線検出装置10の表示部110、光路変更素子120、ルーペユニット130、光源基板140、アイカップ150、撮像部160及びヒンジ170の機能及び構成と同様であるため、これらの構成部材についての詳細な説明は省略する。このように、本変形例に係る視線検出装置70は、図1、図2A、図2Bに示す視線検出装置10に対して、IRフィルター710が追加されたものに対応する。なお、図7に示す断面図は、図2Aに示す断面図と対応するものであり、本変形例に係る視線検出装置70のy軸とz軸とで規定される平面(y−z平面)における断面図である。
図7に示すように、本変形例に係る視線検出装置70においては、光路変更素子120と撮像部160との間にIRフィルター710が配設される。IRフィルター710は、赤外光を通過させ、その他の波長帯域の光を遮蔽する機能を有する赤外光パス機構の一例である。
一方、本変形例においては、光源基板140に配設される光源(図7では図示せず。)は、赤外光を発するLEDによって構成される。従って、本変形例では、ユーザの眼球に赤外光が照射され、撮像部160によって、当該赤外光の眼球からの反射光が検出されることにより、ユーザの眼球の撮像画像が取得される。ユーザの眼球への照射光に赤外光のような可視光帯域以外の光が用いられることにより、ユーザが光源からの照射光を眩しく感じることがなくなり、ユーザによる表示面111の観察が妨げられない。また、光路変更素子120と撮像部160との間に設けられるIRフィルター710によって赤外光以外の波長帯域を有するノイズとなり得る光が遮蔽されるため、撮像部160が、眼球からの反射光をより高精度に検出することが可能となり、より鮮明な眼球の撮像画像が取得される。
また、上記では、赤外光パス機構としてIRフィルター710が用いられる構成について説明したが、本変形例においては、赤外光以外の波長帯域の光を遮蔽する機能を有する光学部材であれば、他の各種の光学部材が適用されてよい。例えば、本変形例においては、IRフィルター710が設けられる代わりに、光路変更素子120が、赤外光を所定の方向に反射させ、それ以外の波長帯域の光を直線的に透過させる赤外光パス機構としての機能を有してもよい。例えば、光路変更素子120はダイクロイックミラーであってもよく、z軸方向に沿って入射した赤外光をy軸の正方向に反射させるとともに、z軸方向に沿って入射したその他の波長帯域の光をその進行方向を保ったまま透過させる機能を有してもよい。光路変更素子120がこのような機能を有することにより、赤外光以外の波長帯域を有するノイズとなり得る光が遮蔽され、赤外光が撮像部160に効率よく入射する。従って、IRフィルター710が設けられる場合と同様に、撮像部160が、眼球からの反射光をより高精度に検出することが可能となり、より鮮明な眼球の撮像画像が取得される。
以上、図7を参照して説明したように、本変形例によれば、光源から赤外光がユーザの眼球に対して照射されるとともに、赤外帯域以外の波長帯域の光を遮蔽する赤外光パス機構が撮像部の前段に設けられ、赤外光のユーザの眼球からの反射光が、当該赤外光パス機構を通過した後に、撮像部に入射する。従って、本実施形態に係る視線検出装置10によって得られる効果に加えて、より鮮明な眼球の撮像画像が取得されるという、更なる効果を得ることができる。
[4−2.ウェアラブルデバイスへの適用]
次に、本実施形態に係る視線検出処理が撮像装置以外の他の装置に対して適用される変形例について説明する。本実施形態に係る視線検出処理は、例えば眼鏡型のウェアラブルデバイスに適用することが可能である。
図8を参照して、本実施形態に係る視線検出処理が適用された眼鏡型ウェアラブルデバイスの概略構成について説明する。図8は、本実施形態に係る視線検出処理が適用された眼鏡型ウェアラブルデバイスの一構成例を示す概略図である。なお、本変形例についての説明において、本実施形態に係る視線検出装置とは、特に記載が無い限り、本実施形態に係る視線検出処理が適用された眼鏡型ウェアラブルデバイスのことを意味する。
図8を参照すると、視線検出装置80は、眼鏡型ウェアラブルデバイスであり、表示部810、レンズ820、導光部材830、視線検出ユニット840及び光源850を備える。図8では、視線検出装置80とともに、視線検出装置80を装着しているユーザ800を図示し、視線検出装置80内及び視線検出装置80とユーザ800の眼球との間における光の光路を矢印で示している。また、図8は、視線検出装置80を装着しているユーザ800を上方向から見た様子を模式的に図示している。以下の本変形例についての説明では、図8に示すように、ユーザ800が向いている方向をZ軸方向と定義する。また、ユーザ800から見て左右方向をX軸方向と定義し、上下方向をY軸方向と定義する。また、Z軸について、ユーザが見ている方向をZ軸の正方向と定義し、X軸について、ユーザから見て右方向をX軸の正方向と定義する。
表示部810は、図1及び図2Aに示す視線検出装置10の表示部110に対応するものである。表示部810は、例えばユーザ800の横に、表示面811をZ軸の正方向に向けて配設される。表示部810の表示面811には任意のコンテンツが表示され得る。表示面811からの光(すなわち、当該コンテンツを構成する光)は、視線検出ユニット840、レンズ820及び導光部材830をZ軸の正方向に順に通過して、ユーザ800の眼球に入射する。なお、図8では、表示面811からの光の光路を点線の矢印で示している。
視線検出ユニット840は、光路変更素子841及び撮像部842を有する。表示部810の表示面811からの光は、光路変更素子841をZ軸の正方向に直線的に透過してレンズ820に入射する。なお、光路変更素子841及び撮像部842は、図1及び図2Aに示す視線検出装置10の光路変更素子120及び撮像部160にそれぞれ対応するものである。光路変更素子841は、光路変更素子120と同様の機能及び構成を有し、一方向からの入射光を直線的に透過させるとともに、他方向からの光(又は光の一部)を所定の方向に反射させるミラーの機能を有する光学部材である。具体的には、光路変更素子841は、例えばビームスプリッタであり、Z軸の負方向から入射した光をその進行方向を保ったまま透過させるとともに、Z軸の正方向から入射した光をX軸の正方向に反射させる。また、撮像部842が、受光面を光路変更素子841に対向させた状態で、光路変更素子841と隣接してX軸の正方向に設けられる。
レンズ820は、表示部810の表示面811におけるコンテンツの表示を所定の倍率に拡大する機能を有する光学部材である。レンズ820は、図1及び図2Aに示す視線検出装置10のルーペユニット130に対応するものである。図8に示す例では、レンズ820として単一のレンズが図示されているが、視線検出装置80においては、レンズ820の代わりに、当該コンテンツを所定の倍率に拡大して表示するように適宜調整された、各種のレンズが複数組み合わされたレンズ系が設けられてもよい。表示面811からの光は、レンズ820をZ軸の正方向に向かって透過して導光部材830に入射する。
導光部材830は、板状又はシート状の光学部材であり、当該板又はシートの内部において光を面と平行な方向に導光させることができる。本変形例では、導光部材830として、例えばホログラムシートが用いられる。導光部材830は、X−Y平面(X軸とY軸とで規定される平面)に略平行に配設され、その一部領域がユーザ800の眼球と対向する。表示面811からの光は、レンズ820を透過してZ軸の正方向に進み、導光部材830に入射する。導光部材830に入射した光は、導光部材830の内部をX−Y平面と平行な方向に導光され、例えば図8に点線の矢印で示すように、ユーザ800の眼球まで到達する。このように、ユーザは、光路変更素子841、レンズ820及び導光部材830を介して、表示部810の表示面811を観察することができる。
光源850は、表示部810の表示面811を観察するユーザの眼球に対して光を照射する。例えば、光源850は、LEDであってよく、赤外光を照射してもよい。光源850は、図2Bに示す視線検出装置10の光源であるLED141〜148に対応するものである。図8に示す例では、単一の光源850が図示されているが、視線検出装置80は、視線検出装置10と同様、互いに異なる方向からユーザ800の眼球に対して光を照射する複数の光源を備えてもよい。なお、光源850は、視線検出装置80の他の構成部材(視線検出装置80をユーザ800に装着させるためのフレームやつる(図示せず。)等を含む。)に、図示しない支持部材によって固定されていてよい。
光源850から照射された光のユーザ800の眼球からの反射光は、表示部810の表示面811からの光が辿った光路を逆向きに辿って、光路変更素子841まで至る。すなわち、ユーザ800の眼球からの反射光は、導光部材830、レンズ820を順に通過して、光路変更素子841に至る。光路変更素子841は、上述したように、Z軸の正方向から入射した光をX軸の正方向に反射させる機能を有するため、当該反射光は、光路変更素子841によって光路を変更され、撮像部842に入射する。このように、撮像部842によって、ユーザ800の眼球からの反射光が検出されユーザ800の眼球の撮像画像が取得される。なお、図8では、光源850から照射された光がユーザ800の眼球で反射され、撮像部842に至るまでの光路を破線の矢印で示している。
視線検出装置80においても、視線検出装置10と同様に、撮像部842によって取得されたユーザ800の眼球の撮像画像に基づいて、ユーザ800の表示部810の表示面811に対する視線検出処理が行われる。なお、視線検出装置80における視線検出処理においては、上記<3.視線検出処理の詳細>で説明した視線検出装置10における視線検出処理と同様の処理が行われてよい。
以上、図8を参照して、本実施形態の一変形例に係る視線検出装置80の概略構成について説明した。以上説明したように、本変形例においては、表示部810の表示面811が、少なくとも1つの光学部材(例えば、光路変更素子841、レンズ820及び導光部材830)を介してユーザ800によって観察される。そして、光源850によって表示面811を観察するユーザ800の眼球に対して光が照射され、撮像部842によって当該照射光の眼球からの反射光が検出されることにより当該眼球の撮像画像が取得される。
ここで、図8において点線の矢印及び破線の矢印によって示すように、本変形例においては、表示部810の表示面811からの光が当該表示面811からユーザ800の眼球に至るまでの光路(第1の光路)と、光源850から照射された光のユーザ800の眼球からの反射光が当該眼球から撮像部842に至るまでの光路(第2の光路)とが、同じ光学部材を通過する。このように、本変形例においては、眼球からの反射光が、第1の光路に設けられる光学部材を通過して撮像部842に入射する。従って、本変形例に係る視線検出装置80においては、視線検出装置10と同様、視線検出の精度がより向上される効果を得ることができる。
[4−3.ヘッドマウントディスプレイへの適用]
次に、本実施形態に係る視線検出処理が撮像装置以外の他の装置に対して適用される他の変形例について説明する。本実施形態に係る視線検出処理は、例えばヘッドマウントディスプレイ(HMD:Head Mounted Display)装置に適用することが可能である。
図9A−図9Cを参照して、本実施形態に係る視線検出処理が適用されたヘッドマウントディスプレイ装置の概略構成について説明する。図9A−図9Cは、本実施形態に係る視線検出処理が適用されたヘッドマウントディスプレイ装置の一構成例を示す概略図である。なお、本変形例についての説明において、本実施形態に係る視線検出装置とは、特に記載が無い限り、本実施形態に係る視線検出処理が適用されたヘッドマウントディスプレイ装置のことを意味する。
図9A−図9Cを参照すると、視線検出装置90a、90b、90cは、本実施形態に係る視線検出処理が適用されたヘッドマウントディスプレイ装置であり、一部の構成が互いに異なる。図9A−図9Cでは、視線検出装置90a、90b、90cとともに、視線検出装置90a、90b、90cを装着しているユーザ900を図示し、視線検出装置90a、90b、90c内及び視線検出装置90a、90b、90cとユーザ900の眼球との間における光の光路を矢印で示している。また、図9A−図9Cは、視線検出装置90a、90b、90cを装着しているユーザ900を上方向から見た様子を模式的に図示している。以下の本変形例についての説明では、図9A−図9Cに示すように、ユーザ900が向いている方向をZ軸方向と定義する。また、ユーザ900から見て左右方向をX軸方向と定義し、上下方向をY軸方向と定義する。また、Z軸について、ユーザが見ている方向をZ軸の正方向と定義し、X軸について、ユーザから見て右方向をX軸の正方向と定義する。
以下、図9A−図9Cを順に参照して、本変形例に係る視線検出装置90a、90b、90cの構成についてそれぞれ説明する。
図9Aを参照すると、視線検出装置90aは、ヘッドマウントディスプレイ装置であり、表示部910a、910b、レンズ920a、920b、筐体930、視線検出ユニット940a及び光源950aを備える。
表示部910a、910bは、図1及び図2Aに示す視線検出装置10の表示部110に対応するものである。表示部910a、910bは、表示面911a、911bをZ軸の負方向に向けて、ユーザ900の左右の眼球に対向する位置にそれぞれ配設される。表示部910a、910bの表示面911a、911bには任意のコンテンツが表示され得る。ユーザ900は、自身の眼前に配設される表示部910a、910bの表示面911a、911bを観察することにより、表示面911a、911bに表示される各種のコンテンツを観察する。
レンズ920a、920bは、表示部910a、910bの表示面911a、911bにおけるコンテンツの表示を所定の倍率に拡大する機能を有する光学部材である。レンズ920a、920bは、図1及び図2Aに示す視線検出装置10のルーペユニット130に対応するものである。図9Aに示すように、レンズ920a、920bは、ユーザ900の左右の眼球の前にそれぞれ配設され、表示面911a、911bにおけるコンテンツの表示をそれぞれ拡大する。なお、図9Aに示す例では、レンズ920a、920bとしてそれぞれ単一のレンズが図示されているが、視線検出装置90aにおいては、レンズ920a、920bの代わりに、当該コンテンツを所定の倍率に拡大して表示するように適宜調整された、各種のレンズが複数組み合わされたレンズ系がそれぞれ設けられてもよい。
筐体930は、ヘッドマウントディスプレイ装置の筐体であり、例えばユーザ900に装着される眼鏡型の筐体である。表示部910a、910b、レンズ920a、920b及び視線検出ユニット940aは、筐体930の内部の所定の位置に配設される。
視線検出装置90aにおいては、ユーザ900の片方の眼球に対する視線検出処理が行われる。図9Aに示す例では、視線検出装置90aは、ユーザ900の右の眼球に対する視線検出処理を行うための構成を有する。視線検出装置90aは、ユーザ900の右の眼球に対応する表示部910bとレンズ920bとの間に視線検出ユニット940aを備える。図9Aに示すように、視線検出装置90aにおいては、表示部910aの表示面911aからの光は、レンズ920aをZ軸の負方向に向かって通過して、ユーザ900の左の眼球に入射する。また、表示部910bの表示面911bからの光は、視線検出ユニット940a及びレンズ920bをZ軸の負方向に向かって順に通過して、ユーザ900の右の眼球に入射する。なお、図9Aでは、表示面911a、表示面911bからの光の光路を点線の矢印で示している。
視線検出ユニット940aは、光路変更素子941b及び撮像部942bを有する。表示部910bの表示面911bからの光は、光路変更素子941bをZ軸の負方向に向かって直線的に透過してレンズ920bに入射し、ユーザの右の眼球に至る。光路変更素子941b及び撮像部942bは、図1及び図2Aに示す視線検出装置10の光路変更素子120及び撮像部160にそれぞれ対応するものである。光路変更素子941bは、光路変更素子120と同様の機能及び構成を有し、一方向からの入射光を直線的に透過させるとともに、他方向からの光(又は光の一部)を所定の方向に反射させるミラーの機能を有する光学部材である。具体的には、光路変更素子941bは、例えばビームスプリッタであり、Z軸の正方向から入射した光をその進行方向を保ったまま透過させるとともに、Z軸の負方向から入射した光をX軸の負方向に反射させる。また、撮像部942bが、受光面を光路変更素子941bに対向させた状態で、光路変更素子941bと隣接してX軸の負方向に設けられる。
光源950bは、表示部910bの表示面911bを観察するユーザの右の眼球に対して光を照射する。例えば、光源950bは、LEDであってよく、赤外光を照射してもよい。光源950bは、図2Bに示す視線検出装置10の光源であるLED141〜148に対応するものである。図9Aに示す例では、単一の光源950bが図示されているが、視線検出装置90aは、視線検出装置10と同様、互いに異なる方向からユーザ900の眼球に対して光を照射する複数の光源を備えてもよい。また、光源950bは、筐体930の一部領域に、図示しない支持部材によって固定されていてよい。
光源950bから照射された光のユーザ900の右の眼球からの反射光は、表示部910bの表示面911bからの光が辿った光路を逆向きに辿って、光路変更素子941bまで至る。すなわち、ユーザ900の右の眼球からの反射光は、レンズ920bを通過して光路変更素子941bに至る。光路変更素子941bは、上述したように、Z軸の負方向から入射した光をX軸の負方向に反射させる機能を有するため、当該反射光は、光路変更素子941bによって光路を変更され、撮像部942bに入射する。このように、撮像部942bによって、ユーザ900の右の眼球からの反射光が検出され、ユーザ900の右の眼球の撮像画像が取得される。なお、図9Aでは、光源950bから照射された光がユーザ900の右の眼球で反射され、撮像部942bに至るまでの光路を破線の矢印で示している。
図9Bは、図9Aに示す視線検出装置90aとは異なる構成を有する、本実施形態に係る視線検出処理が適用されたヘッドマウントディスプレイ装置の概略構成を示している。図9Bを参照すると、視線検出装置90bは、表示部910a、910b、レンズ920a、920b、筐体930、視線検出ユニット940b及び光源950a、950bを備える。
ここで、図9Bに示す視線検出装置90bは、図9Aに示す視線検出装置90aに対して、視線検出ユニット940aが視線検出ユニット940bに変更されるとともに、光源950aが追加されたものに対応する。従って、視線検出装置90bについての説明では、視線検出ユニット940b及び光源950aについて主に説明することとし、その他の構成については詳細な説明は省略する。
視線検出装置90bにおいては、ユーザ900の両方の眼球に対する視線検出処理が行われる。従って、視線検出装置90bは、ユーザ900の左右の眼球にそれぞれ対応する表示部910a、910bとレンズ920a、920bとの間に視線検出ユニット940bを備える。図9Bに示すように、視線検出装置90bにおいては、表示部910aの表示面911aからの光は、視線検出ユニット940b及びレンズ920aをZ軸の負方向に向かって順に通過して、ユーザ900の左の眼球に入射する。また、表示部910bの表示面911bからの光は、視線検出ユニット940b及びレンズ920bをZ軸の負方向に向かって順に通過して、ユーザ900の右の眼球に入射する。なお、図9Bでは、表示面911a、表示面911bからの光の光路を点線の矢印で示している。
視線検出ユニット940bは、光路変更素子941a、941b及び撮像部942a、942bを有する。光路変更素子941a、941b及び撮像部942a、942bは、図1及び図2Aに示す視線検出装置10の光路変更素子120及び撮像部160にそれぞれ対応するものである。
ここで、視線検出ユニット940bは、図9Aに示す視線検出ユニット940aに対して、ユーザ900の左の眼球に対応する光路変更素子941a及び撮像部942aが追加された構成を有する。具体的には、視線検出ユニット940bにおいては、光路変更素子941bが表示部910bの表示面911bとレンズ920bとの間に設けられるとともに、光路変更素子941aが表示部910aの表示面911aとレンズ920aとの間に設けられる。従って、表示部910bの表示面911bからの光は、光路変更素子941bをZ軸の負方向に向かって直線的に透過してレンズ920bに入射し、ユーザの右の眼球に至る。また、表示部910aの表示面911aからの光は、光路変更素子941aをZ軸の負方向に向かって直線的に透過してレンズ920aに入射し、ユーザの左の眼球に至る。光路変更素子941a、941bは、光路変更素子120と同様の機能及び構成を有し、一方向からの入射光を直線的に透過させるとともに、他方向からの光(又は光の一部)を所定の方向に反射させるミラーの機能を有する光学部材である。具体的には、光路変更素子941aは、Z軸の正方向から入射した光をその進行方向を保ったまま透過させるとともに、Z軸の負方向から入射した光をX軸の正方向に反射させる。また、光路変更素子941bは、Z軸の正方向から入射した光をその進行方向を保ったまま透過させるとともに、Z軸の負方向から入射した光をX軸の負方向に反射させる。
また、視線検出装置90bでは、図9Aに示す視線検出装置90aに対して、光源950aが追加される。光源950aは、表示部910aの表示面911aを観察するユーザの左の眼球に対して光を照射する。例えば、光源950aは、LEDであってよく、赤外光を照射してもよい。光源950aは、図2Bに示す視線検出装置10の光源であるLED141〜148に対応するものである。光源950bは、筐体930の一部領域に、図示しない支持部材によって固定されていてよい。図9Bに示す例では、左右の眼球に対して1つずつの光源950a、950bが図示されているが、視線検出装置90bは、視線検出装置10と同様、互いに異なる方向からユーザ900の左右の眼球に対して光を照射する複数の光源を備えてもよい。
光源950aから照射された光のユーザ900の左の眼球からの反射光は、表示部910aの表示面911aからの光が辿った光路を逆向きに辿って、光路変更素子941aまで至る。そして、当該反射光は、光路変更素子941aによってX軸の正方向に光路を変更され、撮像部942aに入射する。また、光源950bから照射された光のユーザ900の右の眼球からの反射光は、表示部910bの表示面911bからの光が辿った光路を逆向きに辿って、光路変更素子941bまで至る。そして、当該反射光は、光路変更素子941bによってX軸の負方向に光路を変更され、撮像部942bに入射する。このように、視線検出装置90bにおいては、ユーザの左右の眼球のそれぞれに対して光源950a、950bから光が照射され、撮像部942a、942bによって、左右の眼球からの反射光がそれぞれ検出されることにより、左右の眼球の撮像画像がそれぞれ取得される。なお、図9Bでは、光源950a、950bから照射された光がユーザ900の左右の眼球で反射され、撮像部942a、942bに至るまでの光路を破線の矢印で示している。
図9Cは、図9A及び図9Bに示す視線検出装置90a、90bとは異なる構成を有する、本実施形態に係る視線検出処理が適用されたヘッドマウントディスプレイ装置の概略構成を示している。図9Cを参照すると、視線検出装置90cは、表示部910a、910b、レンズ920a、920b、筐体930、視線検出ユニット940c及び光源950a、950bを備える。
ここで、図9Cに示す視線検出装置90cは、図9Bに示す視線検出装置90bに対して、視線検出ユニット940bが視線検出ユニット940cに変更されたものに対応する。従って、視線検出装置90cについての説明では、視線検出ユニット940cの構成について主に説明することとし、その他の構成については詳細な説明は省略する。
視線検出ユニット940cは、光路変更素子941a、941b、943及び撮像部942を有する。光路変更素子941a、941b及び撮像部942は、図1及び図2Aに示す視線検出装置10の光路変更素子120及び撮像部160にそれぞれ対応するものである。
ここで、図9Cに示す視線検出ユニット940cは、図9Bに示す視線検出ユニット940bに対して、更なる光路変更素子943が追加されるとともに、撮像部942a、942bが撮像部942に置き換えられたものに対応する。視線検出ユニット940cの光路変更素子941a、941bの機能及び構成は、視線検出ユニット940bの光路変更素子941a、941bの機能及び構成と同様である。従って、視線検出装置90cにおいては、表示部910bの表示面911bからの光は、光路変更素子941bをZ軸の負方向に向かって直線的に透過してレンズ920bに入射し、ユーザの右の眼球に至る。また、表示部910aの表示面911aからの光は、光路変更素子941aをZ軸の負方向に向かって直線的に透過してレンズ920aに入射し、ユーザの左の眼球に至る。なお、図9Cでは、表示面911a、表示面911bからの光の光路を点線の矢印で示している。
視線検出ユニット940cにおいては、光路変更素子941aと光路変更素子941bとの間に更なる光路変更素子943が設けられる。光路変更素子943は、光路変更素子941a、942bからの入射光をZ軸の負方向に反射させる機能を有する。そして、光路変更素子943のZ軸の負方向には、撮像部942が、受光面をZ軸の正方向に向けて配設される。従って、光源950aから照射された光のユーザ900の左の眼球からの反射光は、表示部910aの表示面911aからの光が辿った光路を逆向きに辿って、光路変更素子941aまで至る。そして、当該反射光は、光路変更素子941aによってX軸の正方向に光路を変更され、光路変更素子943によってZ軸の負方向に更に光路を変更されて撮像部942に入射する。また、光源950bから照射された光のユーザ900の右の眼球からの反射光は、表示部910bの表示面911bからの光が辿った光路を逆向きに辿って、光路変更素子941bまで至る。そして、当該反射光は、光路変更素子941bによってX軸の負方向に光路を変更され、光路変更素子943によってZ軸の負方向に更に光路を変更されて撮像部942に入射する。このように、視線検出装置90cでは、視線検出装置90bにおいて左右の眼球のそれぞれに対して設けられていた撮像部942a、942bに代わって、1つの撮像部942によって、左右の眼球からの反射光が検出されることにより、左右の眼球の撮像画像が取得される。なお、図9Cでは、光源950a、950bから照射された光がユーザ900の左右の眼球で反射され、撮像部942に至るまでの光路を破線の矢印で示している。
以上説明したように、視線検出装置90a、90b、90cにおいては、ヘッドマウントディスプレイ装置において、ユーザの眼球からの反射光が検出されることにより、ユーザの眼球の撮像画像が取得される。そして、視線検出装置90a、90b、90cにおいては、視線検出装置10と同様に、当該撮像画像に基づいて、ユーザ900の表示部910a、910bの表示面911a、911bに対する視線検出処理が行われる。なお、視線検出装置90a、90b、90cにおける視線検出処理においては、上記<3.視線検出処理の詳細>で説明した視線検出装置10における視線検出処理と同様の処理が行われてよい。
以上、図9A−図9Cを参照して、本実施形態の一変形例に係る視線検出装置90a、90b、90cの概略構成について説明した。以上説明したように、本変形例においては、表示部910a、910bの表示面911a、911bが、少なくとも1つの光学部材(例えば、光路変更素子941a、941b、レンズ920a、920b)を介してユーザ900によって観察される。そして、光源950a、950bによって表示面911a及び/又は表示面911bを観察するユーザ900の眼球に対して光が照射され、撮像部942、942a、942bによって、当該照射光の眼球からの反射光が検出されることにより、当該眼球の撮像画像が取得される。
ここで、図9A−図9Cにおいて点線の矢印及び破線の矢印によって示すように、本変形例においては、光源950a、950bから照射された光のユーザ900の眼球からの反射光が、表示部910a、910bの表示面911a、911bからの光が当該表示面911a、911bからユーザ900の眼球に至るまでの光路に設けられる光学部材を通過して撮像部942、942a、942bに入射する。従って、本変形例に係る視線検出装置90a、90b、90cにおいては、視線検出装置10、80と同様、視線検出の精度がより向上される効果を得ることができる。
また、本変形例においては、図9B及び図9Cに示す視線検出装置90b、90cのように、ユーザの左右の眼球のそれぞれに対して光源950a、950bから光が照射され、撮像部942a、942bによって、左右の眼球からの反射光がそれぞれ検出されることにより、左右の眼球の撮像画像がそれぞれ取得されてもよい。そして、左右の眼球のそれぞれに対して視線検出処理が行われてもよい。このように、左右の眼球のそれぞれについて視線検出処理が行われることにより、視線検出の精度をより向上させることができる。また、左右の眼球のそれぞれについて視線ベクトルの算出処理が行われることにより、例えば視差情報等の更なる情報も取得することができる。
また、本変形例においては、図9Cに示す視線検出装置90cのように、視線検出ユニット940cの構成を、図9Bに示す視線検出装置90bの視線検出ユニット940bに比べてより簡素化することができる。従って、より簡易な構成によって、視線検出装置90bと同等の精度の視線検出処理を行うことができる。
なお、視線検出装置80、90a、90b、90cにおいて検出されたユーザの視線は、視線検出装置80、90a、90b、90cである眼鏡型ウェアラブルデバイス及びヘッドマウントディスプレイ装置における各種の動作に用いられてよい。例えば、検出されたユーザの視線が、当該眼鏡型ウェアラブルデバイス及び当該ヘッドマウントディスプレイ装置に対してユーザから各種の操作入力を行うための入力手段として用いられてもよい。具体的には、表示面811、911a、911bの上下左右のいずれかの端の領域で視線が検出されることにより、その視線が検出された方向に向かって表示面811、911a、911bに表示されているコンテンツがスクロール表示されてもよい。また、表示面811、911a、911b上に、当該眼鏡型ウェアラブルデバイス及び当該ヘッドマウントディスプレイ装置が行う各種の動作に対応したアイコンが表示され、ユーザの視線が当該アイコン上で所定に時間検出され続けることにより、そのアイコンに対応する動作が行われてもよい。このようなアイコンに対応する動作とは、例えば当該眼鏡型ウェアラブルデバイス及び当該ヘッドマウントディスプレイ装置の電源のオフ(シャットダウン)や、各種のアプリケーションの起動等、一般的なPC等の情報処理装置において行われる各種の動作であってよい。また、検出されたユーザの視線が、表示面811、911a、911b上に表示されるポインタを移動させるためのポインティングデバイスとして利用されてもよい。例えば、検出されたユーザの視線の変化に応じてポインタが表示面811、911a、911b上で移動してもよい。
<5.視線検出方法における処理手順>
次に、図10を参照して、本開示の一実施形態に係る視線検出方法における処理手順について説明する。図10は、本開示の一実施形態に係る視線検出方法における処理手順を示すフロー図である。なお、以下の本実施形態に係る視線検出方法における処理手順についての説明では、視線検出装置10が撮像装置に接続されるEVFである場合について説明する。また、図10のフロー図に示す各ステップは、図1、図2A、図2B及び図3に示す視線検出装置10及び撮像装置20の各構成部材によって行われてよい。ただし、以下の説明では、これらの構成部材の機能及び構成についての詳細な説明は省略する。
図10を参照すると、まず、ステップS301で、アイカップ150へのユーザの接眼が検出されたかどうかが判断される。アイカップ150へのユーザの接眼は、例えばアイカップ150に設けられる接触センサ等によって検出されてよい。ステップS301でユーザの接眼が検出された場合には、ユーザが視線検出装置10を覗き込んでいる状態であると考えられるため、ステップS303に進み、表示部110の表示面111にコンテンツであるスルー画が表示される。ステップS301でユーザの接眼が検出されない場合には、視線検出装置10が使用されていない状態であると考えられるため、表示部110の表示面111には何も表示されず、アイカップ150へのユーザの接眼が検出されるまでその状態が維持される。
なお、本実施形態においては、ステップS301及びステップS303に示す処理は行われなくてもよい。ステップS301及びステップS303に示す処理が行われない場合、視線検出装置10の表示部110の表示面111には常にコンテンツが表示されていてよい。ただし、ステップS301及びステップS303に示すような、視線検出装置10の使用状況に応じた表示部110の選択的な駆動が行われることにより、消費電力の低減を図ることができる。
ステップS303で表示部110の表示面111にスルー画が表示されると、次に、ステップS305で、視線検出装置10を使用しようとしているユーザに対して、過去に取得された当該ユーザに固有の情報が存在するかどうかが判断される。ここで、ユーザ固有の情報とは、上記<3.視線検出処理の詳細>で説明した、本実施形態に係る視線検出処理において用いられる観察状態情報や光源の駆動条件、眼球情報等の情報であってよい。これらのユーザ固有の情報は、1度取得された後には、視線検出装置10又は撮像装置20に設けられる記憶部に当該ユーザと紐付けて記憶されている。ステップS305では、視線検出装置10を使用しようとしているユーザが特定され、特定されたユーザに紐付けられたユーザ固有の情報が当該記憶部に記憶されているかどうかが判断される。なお、視線検出装置10を使用しようとしているユーザの特定処理では、例えば視線検出装置10又は撮像装置20がユーザの登録機能及び選択機能を有し、当該登録機能及び当該選択機能によって手動でユーザが選択されることによりユーザが特定されてもよい。また、視線検出装置10を使用しようとしているユーザの特定処理では、視線検出装置10又は撮像装置20が虹彩認証や静脈認証、指紋認証等の各種の生体認証機能を有し、当該生体認証機能によってユーザの個人認証又は個体識別が自動的に行われることによりユーザが特定されてもよい。
ステップS305で、視線検出装置10を使用しようとしているユーザに対して、当該ユーザに固有の情報が存在しないと判断された場合には、ステップS307に進み、当該ユーザに対するキャリブレーション処理が行われる。ステップS307におけるキャリブレーション処理では、例えば上記[3−3.キャリブレーション処理]で説明した各処理が行われ、視線検出処理において用いられるユーザ固有の情報が取得される。キャリブレーション処理が終了したら、ステップS311に進む。
一方、ステップS305で、視線検出装置10を使用しようとしているユーザに固有の情報が存在すると判断された場合には、ステップS309に進み、ユーザ固有の情報が記憶されている記憶部から、対応するユーザの固有の情報が読み出される。当該記憶部からユーザ固有の情報が読み出されたら、ステップS311に進む。
ステップS311では、ステップS307で取得されたユーザ固有の情報又はステップS309で読み出されたユーザ固有の情報を用いて、表示部110の表示面111に対するユーザの視線ベクトルの算出処理と、当該視線ベクトルに対する補正処理が行われる。ステップS311における視線ベクトルの算出処理及び視線ベクトルに対する補正処理では、例えば上記[3−1.視線ベクトルの算出処理]、[3−2.光源の駆動制御]及び[3−3.キャリブレーション処理]で説明した各処理が行われる。なお、視線ベクトルの算出処理において用いられる観察状態情報や当該観察状態情報に基づく光源の駆動条件等は、図10に示す一連の処理に先立って別途取得され記憶部に記憶されていてステップS309で読み出されてもよいし、例えばステップS307におけるキャリブレーション処理とともに取得される等、図10に示す一連の処理の最中のいずれかのタイミングで別途取得されてもよい。
以上、本実施形態に係る視線検出方法における処理手順について説明した。上述したように、以上説明した本実施形態に係る視線検出方法は、図1、図2A、図2B及び図3に示す視線検出装置10及び撮像装置20の各構成部材によって行われてよい。従って、ステップS311に示す視線ベクトルの算出処理においては、表示部110の表示面111からの光が少なくとも1つの光学部材を通過する第1の光路を辿ってユーザの眼球に入射する。そして、表示面111を観察するユーザの眼球に対して光が照射され、当該照射光のユーザの眼球からの反射光が検出されることにより、ユーザの表示面111に対する視線の検出に用いられる眼球の撮像画像が取得される。また、当該照射光の眼球からの反射光は、前記第1の光路に設けられる光学部材を少なくとも通過する第2の光路を辿って撮像部に入射する。従って、本実施形態によれば、視線検出の精度がより向上される。
<6.まとめ>
以上説明したように、本実施形態においては、表示面を少なくとも1つの光学部材を介して観察するユーザの眼球に対して光が照射される。そして、照射された光のユーザの眼球からの反射光が検出されることにより、ユーザの当該表示面に対する視線の検出に用いられる眼球の撮像画像が取得される。また、照射された光のユーザの眼球からの反射光は、表示面からの光が当該表示面からユーザの眼球に至るまでの第1の光路に設けられる光学部材を少なくとも通過する第2の光路を辿って検出される。そして、このようにして取得されたユーザの眼球の撮像画像に基づいて、表示面に対するユーザの視線が検出される。本実施形態では、上記の構成を有することにより、第1の光路と第2の光路とが、ほぼ同一の光学部材を含むこととなり、光学的に類似した光路となる。従って、視線検出の精度がより向上される。
また、本実施形態では、複数の光源が、ユーザの眼球に対して互いに異なる複数の方向から光を照射するように配設される。また、これら複数の光源は、ユーザ固有の駆動条件に応じて選択的に駆動され得る。従って、ユーザの目の形状や、眼鏡の装着有無、ユーザが表示面を観察する向き等、ユーザの状況に応じた適切な光の照射を行うことができ、視線検出の精度が更に向上される。
また、本実施形態では、ユーザの眼球の形状や大きさに起因する誤差を補正するための眼球情報を取得するキャリブレーション処理が行われ、当該眼球情報に基づいて視線ベクトルが補正されることによりユーザの視線が検出される。従って、より高い精度での視線検出が実現される。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記では、図1、図2A、図2B及び図7に示すように、表示部110の表示面111とユーザの眼球500とが同一直線上に位置する構成について説明したが、本実施形態はかかる例に限定されない。例えば、表示面111とユーザの眼球500とは同一直線上に位置しなくてもよく、表示面111からの光がユーザの眼球500まで導光されるように、表示面111とユーザの眼球500との間にミラーやプリズム等の光路を変更する光学部材が適宜設けられてもよい。このように、本実施形態では、視線検出装置10における表示面111とユーザの眼球500との位置関係は図1、図2A、図2B及び図7に示すような特定の位置関係に限定されない。従って、視線検出装置10における構成部材の配置に関する設計自由度が増すため、例えばより小型でより携帯性に優れた視線検出装置10の構成を実現することができる。
また、上記では、本実施形態に係る視線検出処理が適用される装置として、撮像装置、眼鏡型ウェアラブルデバイス及びヘッドマウントディスプレイ装置について説明したが、本実施形態はかかる例に限定されない。本実施形態に係る視線検出処理は、各種のコンテンツが表示される表示面111とユーザの眼球500との間に少なくとも1つの光学部材が設けられる構成を有する装置やデバイスであれば、他の装置やデバイスに対しても適用可能である。これらの装置やデバイスに対して、ユーザの眼球500に光を照射する光源と、当該照射光の眼球500からの反射光を検出することにより眼球500の撮像画像を取得する撮像部とを、上述した第1の光路と第2の光路との関係性を保つように適宜設けることにより、本実施形態に係る視線検出処理が適用され得る。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)表示面を少なくとも1つの光学部材を介して観察するユーザの眼球に対して光を照射する光源と、前記光の前記眼球からの反射光を検出することにより、前記ユーザの前記表示面に対する視線の検出に用いられる前記眼球の撮像画像を取得する撮像部と、を備え、前記眼球からの反射光は、前記表示面からの光が前記表示面から前記ユーザの眼球に至るまでの光路に設けられる前記光学部材を少なくとも通過して前記撮像部に入射する、視線検出装置。
(2)前記光源は、前記ユーザの眼球に対して互いに異なる方向から光を照射する位置に複数設けられる、前記(1)に記載の視線検出装置。
(3)複数の前記光源は、前記ユーザが前記表示面を観察する状態についての観察状態情報に応じた駆動条件に基づいて選択的に駆動される、前記(2)に記載の視線検出装置。
(4)前記観察状態情報は、前記ユーザの目の形状についての情報、前記ユーザの眼鏡の装着有無についての情報及び前記ユーザが前記表示面を観察する向きについての情報の少なくともいずれかを含む、前記(3)に記載の視線検出装置。
(5)複数の前記光源は、前記ユーザの眼球に対して上下方向又は左右方向から光を照射する、前記(2)〜(4)のいずれか1項に記載の視線検出装置。
(6)複数の前記光源は、前記ユーザの眼球に対して互いに異なる4方向から光を照射する、前記(2)〜(4)のいずれか1項に記載の視線検出装置。
(7)前記撮像部によって取得される前記眼球の前記撮像画像に含まれる瞳孔の像とプルキニエ像とに基づいて前記ユーザの眼球の向きを表す視線ベクトルが算出されることにより、前記ユーザの前記表示面に対する視線が検出される、前記(1)〜(6)のいずれか1項に記載の視線検出装置。
(8)前記視線ベクトルと前記ユーザが前記表示面を視認している方向との相関関係を少なくとも含む前記ユーザの眼球についての眼球情報に基づいて前記視線ベクトルに対して補正処理が行われることにより、前記ユーザの前記表示面に対する視線が検出される、前記(7)に記載の視線検出装置。
(9)前記眼球情報は、前記ユーザごとに行われるキャリブレーション処理によって取得され、前記表示面を観察する前記ユーザに応じて、当該ユーザに対応する前記眼球情報が読み出され、読み出された前記眼球情報が前記補正処理において用いられる、前記(8)に記載の視線検出装置。
(10)前記撮像部によって取得される撮像画像に含まれる前記ユーザの眼球の虹彩に基づいて前記ユーザの認証処理が行われ、当該認証処理の結果に基づいて当該ユーザに対応する前記眼球情報が読み出される、前記(9)に記載の視線検出装置。
(11)前記表示面からの光が前記表示面から前記ユーザの眼球に至るまでの光路に設けられる前記光学部材は、前記表示面に表示されるコンテンツを前記ユーザに対して拡大して表示するルーペユニットを含む、前記(1)〜(10)のいずれか1項に記載の視線検出装置。
(12)前記ユーザが前記表示面を観察する際に当該ユーザに接眼されるアイカップ、を更に備え、前記アイカップへの前記ユーザの接眼が検出された場合に、前記表示面にコンテンツが表示される、前記(1)〜(11)のいずれか1項に記載の視線検出装置。
(13)前記光源は赤外帯域の光を前記ユーザの眼球に対して照射し、前記眼球からの反射光が前記眼球から前記撮像部に至るまでの光路における前記撮像部の前段には、赤外帯域以外の波長帯域の光を遮蔽する赤外光パス機構が設けられる、前記(1)〜(12)のいずれか1項に記載の視線検出装置。
(14)前記撮像部によって取得される前記眼球の前記撮像画像に含まれる瞳孔の像とプルキニエ像とに基づいて、前記ユーザの眼球の向きを表す視線ベクトルを算出する視線検出処理部と、前記視線ベクトルと前記ユーザが前記表示面を視認している方向との相関関係を少なくとも含む前記ユーザの眼球についての情報である眼球情報を取得するキャリブレーション処理部と、を更に備え、前記視線検出処理部は、前記眼球情報に基づいて前記視線ベクトルに対して補正処理を行うことにより、前記ユーザの前記表示面に対する視線を検出する、前記(1)〜(13)のいずれか1項に記載の視線検出装置。
(15)前記視線検出装置は、撮影対象の撮像画像を取得する撮像装置に接続される電子ビューファインダーであり、前記表示面には、当該撮像装置に備えられる撮像素子によって取得される前記撮影対象が映されたスルー画が表示される、前記(1)〜(14)のいずれか1項に記載の視線検出装置。
(16)前記視線検出装置は、前記ユーザの前記眼球の前面を少なくとも覆う眼鏡型のウェアラブルデバイスであり、前記表示面には、当該ウェアラブルデバイスに備えられる表示部によって任意のコンテンツが表示される、前記(1)〜(14)のいずれか1項に記載の視線検出装置。
(17)前記視線検出装置は、前記ユーザの頭部に装着され、前記表示面が前記眼球と対向する位置に設けられるヘッドマウントディスプレイ装置であり、前記表示面には、当該ヘッドマウントディスプレイ装置に備えられる表示部によって任意のコンテンツが表示される、前記(1)〜(14)のいずれか1項に記載の視線検出装置。
(18)表示面からの光が少なくとも1つの光学部材を通過してユーザの眼球に入射することと、前記表示面を観察する前記ユーザの前記眼球に対して光を照射することと、前記光の前記眼球からの反射光を検出することにより、前記ユーザの前記表示面に対する視線の検出に用いられる前記眼球の撮像画像を取得することと、を含み、前記眼球からの反射光は、前記表示面からの光が前記表示面から前記ユーザの眼球に至るまでの光路に設けられる前記光学部材を少なくとも通過して検出される、視線検出方法。
10、70、80、90a、90b、90c 視線検出装置
20 撮像装置
110、810、910a、910b 表示部
111、811、911a、911b 表示面
120、841、941a、941b 光路変更素子
130 ルーペユニット
140 光源基板
141〜148 LED
150 アイカップ
160、842、942、942a、942b 撮像部
170 ヒンジ
180 光学部材
190 光源
210 制御部
211 表示制御部
212 光源駆動制御部
213 視線検出処理部
214 キャリブレーション処理部
710 IRフィルター
820、920a、920b レンズ
830 導光部材
840、940a、940b、940c 視線検出ユニット
850、950a、950b 光源
930 筐体

Claims (16)

  1. 表示面を少なくとも1つの光学部材を介して観察するユーザの眼球に対して光を照射する光源と、
    前記光の前記眼球からの反射光を検出することにより、前記ユーザの前記表示面に対する視線の検出に用いられる前記眼球の撮像画像を取得する撮像部と、
    を備え、
    前記眼球からの反射光は、前記表示面からの光が前記表示面から前記ユーザの眼球に至るまでの光路に設けられる前記光学部材を少なくとも通過して前記撮像部に入射し、
    前記光源は、前記ユーザの眼球に対して互いに異なる方向から光を照射する位置に複数設けられ、
    記ユーザが前記表示面を観察する状態についての観察状態情報に応じた駆動条件に基づいて、複数の前記光源の中で発光させられる前記光源が選択的に駆動され、
    前記観察状態情報は、前記ユーザの目の形状についての情報を少なくとも含む、
    視線検出装置。
  2. 前記観察状態情報は、前記ユーザの眼鏡の装着有無についての情報及び前記ユーザが前記表示面を観察する向きについての情報の少なくともいずれかを更に含む、
    請求項1に記載の視線検出装置。
  3. 複数の前記光源は、前記ユーザの眼球に対して上下方向又は左右方向から光を照射する、
    請求項1又は2に記載の視線検出装置。
  4. 複数の前記光源は、前記ユーザの眼球に対して互いに異なる4方向から光を照射する、
    請求項1又は2に記載の視線検出装置。
  5. 前記撮像部によって取得される前記眼球の前記撮像画像に含まれる瞳孔の像とプルキニエ像とに基づいて前記ユーザの眼球の向きを表す視線ベクトルが算出されることにより、前記ユーザの前記表示面に対する視線が検出される、
    請求項1〜4のいずれか1項に記載の視線検出装置。
  6. 前記視線ベクトルと前記ユーザが前記表示面を視認している方向との相関関係を少なくとも含む前記ユーザの眼球についての眼球情報に基づいて前記視線ベクトルに対して補正処理が行われることにより、前記ユーザの前記表示面に対する視線が検出される、
    請求項5に記載の視線検出装置。
  7. 前記眼球情報は、前記ユーザごとに行われるキャリブレーション処理によって取得され、
    前記表示面を観察する前記ユーザに応じて、当該ユーザに対応する前記眼球情報が読み出され、読み出された前記眼球情報が前記補正処理において用いられる、
    請求項6に記載の視線検出装置。
  8. 前記撮像部によって取得される撮像画像に含まれる前記ユーザの眼球の虹彩に基づいて前記ユーザの認証処理が行われ、当該認証処理の結果に基づいて当該ユーザに対応する前記眼球情報が読み出される、
    請求項7に記載の視線検出装置。
  9. 前記表示面からの光が前記表示面から前記ユーザの眼球に至るまでの光路に設けられる前記光学部材は、前記表示面に表示されるコンテンツを前記ユーザに対して拡大して表示するルーペユニットを含む、
    請求項1〜8のいずれか1項に記載の視線検出装置。
  10. 前記ユーザが前記表示面を観察する際に当該ユーザに接眼されるアイカップ、
    を更に備え、
    前記アイカップへの前記ユーザの接眼が検出された場合に、前記表示面にコンテンツが表示される、
    請求項1〜9のいずれか1項に記載の視線検出装置。
  11. 前記光源は赤外帯域の光を前記ユーザの眼球に対して照射し、
    前記眼球からの反射光が前記眼球から前記撮像部に至るまでの光路における前記撮像部の前段には、赤外帯域以外の波長帯域の光を遮蔽する赤外光パス機構が設けられる、
    請求項1〜10のいずれか1項に記載の視線検出装置。
  12. 前記撮像部によって取得される前記眼球の前記撮像画像に含まれる瞳孔の像とプルキニエ像とに基づいて、前記ユーザの眼球の向きを表す視線ベクトルを算出する視線検出処理部と、
    前記視線ベクトルと前記ユーザが前記表示面を視認している方向との相関関係を少なくとも含む前記ユーザの眼球についての情報である眼球情報を取得するキャリブレーション処理部と、
    を更に備え、
    前記視線検出処理部は、前記眼球情報に基づいて前記視線ベクトルに対して補正処理を行うことにより、前記ユーザの前記表示面に対する視線を検出する、
    請求項1〜11のいずれか1項に記載の視線検出装置。
  13. 前記視線検出装置は、撮影対象の撮像画像を取得する撮像装置に接続される電子ビューファインダーであり、
    前記表示面には、当該撮像装置に備えられる撮像素子によって取得される前記撮影対象が映されたスルー画が表示される、
    請求項1〜12のいずれか1項に記載の視線検出装置。
  14. 前記視線検出装置は、前記ユーザの前記眼球の前面を少なくとも覆う眼鏡型のウェアラブルデバイスであり、
    前記表示面には、当該ウェアラブルデバイスに備えられる表示部によって任意のコンテンツが表示される、
    請求項1〜12のいずれか1項に記載の視線検出装置。
  15. 前記視線検出装置は、前記ユーザの頭部に装着され、前記表示面が前記眼球と対向する位置に設けられるヘッドマウントディスプレイ装置であり、
    前記表示面には、当該ヘッドマウントディスプレイ装置に備えられる表示部によって任意のコンテンツが表示される、
    請求項1〜12のいずれか1項に記載の視線検出装置。
  16. 表示面からの光が少なくとも1つの光学部材を通過してユーザの眼球に入射することと、
    前記表示面を観察する前記ユーザの前記眼球に対して光源からの光を照射することと、
    前記光の前記眼球からの反射光を検出することにより、前記ユーザの前記表示面に対する視線の検出に用いられる前記眼球の撮像画像を取得することと、
    を含み、
    前記眼球からの反射光は、前記表示面からの光が前記表示面から前記ユーザの眼球に至るまでの光路に設けられる前記光学部材を少なくとも通過して検出され、
    前記光源は、前記ユーザの眼球に対して互いに異なる方向から光を照射する位置に複数設けられ、
    記ユーザが前記表示面を観察する状態についての観察状態情報に応じた駆動条件に基づいて、複数の前記光源の中で発光させられる前記光源が選択的に駆動され、
    前記観察状態情報は、前記ユーザの目の形状についての情報を少なくとも含む、
    視線検出方法。
JP2013141990A 2013-07-05 2013-07-05 視線検出装置及び視線検出方法 Active JP6175945B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013141990A JP6175945B2 (ja) 2013-07-05 2013-07-05 視線検出装置及び視線検出方法
CN201410299568.8A CN104274151B (zh) 2013-07-05 2014-06-27 视线检测装置和视线检测方法
US14/317,148 US9092671B2 (en) 2013-07-05 2014-06-27 Visual line detection device and visual line detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013141990A JP6175945B2 (ja) 2013-07-05 2013-07-05 視線検出装置及び視線検出方法

Publications (3)

Publication Number Publication Date
JP2015013031A JP2015013031A (ja) 2015-01-22
JP2015013031A5 JP2015013031A5 (ja) 2016-02-18
JP6175945B2 true JP6175945B2 (ja) 2017-08-09

Family

ID=52132550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013141990A Active JP6175945B2 (ja) 2013-07-05 2013-07-05 視線検出装置及び視線検出方法

Country Status (3)

Country Link
US (1) US9092671B2 (ja)
JP (1) JP6175945B2 (ja)
CN (1) CN104274151B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220047138A (ko) * 2020-10-08 2022-04-15 엘지디스플레이 주식회사 헤드 마운트 디스플레이

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015066332A1 (en) * 2013-10-30 2015-05-07 Technology Against Als Communication and control system and method
JP6144429B2 (ja) * 2013-12-09 2017-06-07 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH 目追跡のロバスト性を改善するアクティブ照明制御を行う目追跡装置動作方法及び目追跡装置
USD790584S1 (en) * 2013-12-16 2017-06-27 Fujifilm Corporation Electronic viewfinder display screen with graphical user interface
US10198865B2 (en) 2014-07-10 2019-02-05 Seiko Epson Corporation HMD calibration with direct geometric modeling
KR101967281B1 (ko) * 2015-01-07 2019-04-09 페이스북, 인크. 동적 카메라 또는 광의 동작
EP3264738B1 (en) * 2015-02-23 2019-09-25 Sony Corporation Information processing apparatus, information processing method, and program
KR101883090B1 (ko) * 2015-04-01 2018-07-27 포브, 아이엔씨. 헤드 마운트 디스플레이
US10678897B2 (en) 2015-04-16 2020-06-09 Tobii Ab Identification, authentication, and/or guiding of a user using gaze information
JP6722272B2 (ja) * 2015-04-16 2020-07-15 トビー エービー 凝視情報を使用するユーザの識別および/または認証
TWI569040B (zh) * 2015-05-07 2017-02-01 尚立光電股份有限公司 自動調焦頭戴式顯示裝置
US10192133B2 (en) 2015-06-22 2019-01-29 Seiko Epson Corporation Marker, method of detecting position and pose of marker, and computer program
US10192361B2 (en) 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
JP6536324B2 (ja) * 2015-09-30 2019-07-03 富士通株式会社 視線検出システム、視線検出方法および視線検出プログラム
JP6638354B2 (ja) * 2015-12-01 2020-01-29 株式会社Jvcケンウッド 視線検出装置及び視線検出方法
US10424117B2 (en) 2015-12-02 2019-09-24 Seiko Epson Corporation Controlling a display of a head-mounted display device
JP2017134558A (ja) * 2016-01-27 2017-08-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラムを記録したコンピュータ読み取り可能な記録媒体
DE102016204148A1 (de) * 2016-03-14 2017-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Erfassen eines Objektbereichs
CN205594581U (zh) 2016-04-06 2016-09-21 北京七鑫易维信息技术有限公司 视频眼镜的眼球追踪模组
JP6665650B2 (ja) * 2016-04-15 2020-03-13 株式会社リコー 電源制御装置、画像形成装置及び出力制御方法
CN106203297B (zh) 2016-06-30 2019-11-08 北京七鑫易维信息技术有限公司 一种身份识别方法及装置
US11030975B2 (en) * 2016-07-04 2021-06-08 Sony Corporation Information processing apparatus and information processing method
US20190246889A1 (en) * 2016-10-28 2019-08-15 Essilor International Method of determining an eye parameter of a user of a display device
CN106845438A (zh) * 2017-02-13 2017-06-13 联想(北京)有限公司 一种人脸识别方法、装置及电子设备
CN106908951A (zh) * 2017-02-27 2017-06-30 阿里巴巴集团控股有限公司 虚拟现实头戴设备
EP3382464A1 (en) * 2017-03-30 2018-10-03 Canon Kabushiki Kaisha Developing device
CN106874895B (zh) * 2017-03-31 2019-02-05 北京七鑫易维信息技术有限公司 一种视线追踪装置及头戴式显示设备
WO2019108110A1 (en) * 2017-11-28 2019-06-06 Fingerprint Cards Ab Biometric imaging system and method of determining properties of a biometric object using the biometric imaging system
CN108171125A (zh) * 2017-12-13 2018-06-15 广东欧珀移动通信有限公司 虹膜识别组件及具有其的电子设备
US10928900B2 (en) 2018-04-27 2021-02-23 Technology Against Als Communication systems and methods
FR3085516B1 (fr) * 2018-09-05 2021-09-24 Idemia Identity & Security France Procede de reconnaissance biometrique
CN109376595B (zh) * 2018-09-14 2023-06-23 杭州宇泛智能科技有限公司 基于人眼注意力的单目rgb摄像头活体检测方法及系统
WO2020061546A1 (en) * 2018-09-21 2020-03-26 MacuLogix, Inc. Methods, apparatus, and systems for ophthalmic testing and measurement
CN111124103A (zh) * 2018-10-31 2020-05-08 托比股份公司 检测头戴式装置的重新定位
US10802282B2 (en) 2018-12-21 2020-10-13 Microsoft Technology Licensing, Llc Controlling light source intensities on optically trackable object
US11036043B2 (en) * 2019-01-17 2021-06-15 Advanced New Technologies Co., Ltd. Identity authentication using lens features
CN109965843B (zh) * 2019-03-14 2022-05-24 华南师范大学 一种基于滤波传像的眼动系统
JP2020167517A (ja) * 2019-03-29 2020-10-08 ソニー株式会社 画像処理装置と画像処理方法とプログラムおよび撮像装置
CN109879170B (zh) * 2019-03-29 2020-08-04 哈尔滨理工大学 一种起重机吊臂旁弯位移实时检测系统
JP7374635B2 (ja) 2019-07-12 2023-11-07 キヤノン株式会社 発光装置
JP6969807B2 (ja) * 2019-09-24 2021-11-24 サン・シールド株式会社 作業支援システム
WO2021085541A1 (ja) * 2019-10-31 2021-05-06 キヤノン株式会社 撮像装置、電子機器、ファインダーユニット
JP7599839B2 (ja) 2020-04-30 2024-12-16 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム
US11822714B2 (en) * 2020-05-15 2023-11-21 Canon Kabushiki Kaisha Electronic device and control method for capturing an image of an eye
JP7446913B2 (ja) * 2020-05-21 2024-03-11 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム
CN111781722A (zh) * 2020-07-01 2020-10-16 业成科技(成都)有限公司 眼球追踪结构、电子装置及智能眼镜
JP7566517B2 (ja) * 2020-07-15 2024-10-15 キヤノン株式会社 電子機器およびその制御方法
WO2022080058A1 (ja) * 2020-10-13 2022-04-21 ソニーグループ株式会社 視線検出装置及び表示装置、並びに眼球のセンシングを行う方法
US11397465B1 (en) 2021-05-17 2022-07-26 Microsoft Technology Licensing, Llc Glint-based eye tracker illumination using dual-sided and dual-layered architectures
US12019797B2 (en) * 2021-09-01 2024-06-25 Tdk Corporation Gaze tracking for a retinal projection display system
KR102878100B1 (ko) 2022-07-06 2025-10-30 캐논 가부시끼가이샤 발광 장치, 및 그것을 구비하는 표시장치와 전자기기

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5386258A (en) * 1991-01-17 1995-01-31 Canon Kabushiki Kaisha Optical apparatus having a visual axis direction detecting device
DE69333674T2 (de) * 1992-06-02 2006-02-02 Canon K.K. Optisches Gerät zur Rotationsdetektion eines Augapfels eines Beobachters
JPH05333259A (ja) 1992-06-02 1993-12-17 Canon Inc 視線検出手段を有した光学装置
DE4330265B4 (de) * 1992-09-07 2004-07-29 Canon K.K. Vorrichtung zum Erfassen der Sehachse eines Auges einer ein optisches Gerät bedienenden Person
JPH0743804A (ja) * 1993-07-30 1995-02-14 Canon Inc 機能選択装置
JPH07128579A (ja) * 1993-10-29 1995-05-19 Canon Inc 視線検知方法、視線検知手段及び該視線検知手段を有する映像機器
JP3450449B2 (ja) * 1994-07-18 2003-09-22 キヤノン株式会社 撮像装置およびその撮像方法
US5583795A (en) * 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
JPH1020183A (ja) * 1996-07-05 1998-01-23 Canon Inc 視線検出機能を有する撮像装置及び電子機器
JPH10179521A (ja) * 1996-12-26 1998-07-07 Canon Inc 視線/接眼検出方法及び装置並びに記憶媒体
US6426740B1 (en) * 1997-08-27 2002-07-30 Canon Kabushiki Kaisha Visual-axis entry transmission apparatus and method therefor
JP3718098B2 (ja) * 2000-03-22 2005-11-16 株式会社ニデック 眼底カメラ
JP2002101322A (ja) * 2000-07-10 2002-04-05 Matsushita Electric Ind Co Ltd 虹彩カメラモジュール
JP2003000544A (ja) * 2001-06-20 2003-01-07 Canon Inc 視線検出装置
US7167201B2 (en) * 2003-04-28 2007-01-23 Hewlett-Packard Development Company, L.P. Device incorporating eye-start capability
JP2006198286A (ja) * 2005-01-24 2006-08-03 Topcon Corp 視力表装置及び検眼装置
SE529763C2 (sv) * 2005-10-10 2007-11-20 Tobii Technology Ab Ögonrörelseföljare med ett utökat omfång av arbetsavstånd
JP5167545B2 (ja) * 2006-03-31 2013-03-21 国立大学法人静岡大学 視点検出装置
US8348429B2 (en) * 2008-03-27 2013-01-08 Doheny Eye Institute Optical coherence tomography device, method, and system
FR2943797B1 (fr) * 2009-03-27 2011-03-18 Thales Sa Systeme d'imagerie a afficheur actif et muni d'une bonnette
JP5316387B2 (ja) * 2009-12-04 2013-10-16 ソニー株式会社 情報処理装置、表示方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220047138A (ko) * 2020-10-08 2022-04-15 엘지디스플레이 주식회사 헤드 마운트 디스플레이
KR102599765B1 (ko) * 2020-10-08 2023-11-07 엘지디스플레이 주식회사 헤드 마운트 디스플레이

Also Published As

Publication number Publication date
CN104274151B (zh) 2017-09-12
CN104274151A (zh) 2015-01-14
US20150009313A1 (en) 2015-01-08
US9092671B2 (en) 2015-07-28
JP2015013031A (ja) 2015-01-22

Similar Documents

Publication Publication Date Title
JP6175945B2 (ja) 視線検出装置及び視線検出方法
KR102000865B1 (ko) 눈 추적 디바이스 및 눈 추적 디바이스를 동작시키기 위한 방법
US9867532B2 (en) System for detecting optical parameter of eye, and method for detecting optical parameter of eye
US10048750B2 (en) Content projection system and content projection method
US10061384B2 (en) Information processing apparatus, information processing method, and program
JP6159263B2 (ja) 照射特性を調整可能にして少なくとも1つの眼における少なくとも1つのパラメータを捕捉する光学的測定装置及び方法
US9870050B2 (en) Interactive projection display
US12076087B2 (en) Information processing apparatus and information processing method
US10360450B2 (en) Image capturing and positioning method, image capturing and positioning device
US20160084949A1 (en) Locating method and locating system
WO2015198502A1 (ja) 視線検知のための装置
WO2015035823A1 (en) Image collection with increased accuracy
US10452911B2 (en) Gaze-tracking system using curved photo-sensitive chip
JP2003230539A (ja) 視線検出装置
JP2008212718A (ja) 視野検出装置
US20250365486A1 (en) Display apparatus, finder apparatus, and imaging apparatus
JP2009240551A (ja) 視線検出装置
JP6379639B2 (ja) 眼鏡装用パラメータ測定用撮影装置、眼鏡装用パラメータ測定用撮影プログラム
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
JP2024092950A (ja) 視線検出装置
JP2024092340A (ja) 視線検出装置
JPH11347016A (ja) 撮像装置
CN103429143B (zh) 光学测量装置和系统
JP2023040887A (ja) 個人認証装置及び個人認証方法、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170626

R151 Written notification of patent or utility model registration

Ref document number: 6175945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250