[go: up one dir, main page]

JP7269131B2 - 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム - Google Patents

情報処理装置、視線検出システム、視線検出方法および視線検出プログラム Download PDF

Info

Publication number
JP7269131B2
JP7269131B2 JP2019148854A JP2019148854A JP7269131B2 JP 7269131 B2 JP7269131 B2 JP 7269131B2 JP 2019148854 A JP2019148854 A JP 2019148854A JP 2019148854 A JP2019148854 A JP 2019148854A JP 7269131 B2 JP7269131 B2 JP 7269131B2
Authority
JP
Japan
Prior art keywords
light source
line
user
sight
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019148854A
Other languages
English (en)
Other versions
JP2021029279A (ja
Inventor
貴志 島津
真一 平田
誠 小泉
宏昌 長沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2019148854A priority Critical patent/JP7269131B2/ja
Priority to PCT/JP2020/030312 priority patent/WO2021029342A1/ja
Priority to US17/630,496 priority patent/US12192611B2/en
Publication of JP2021029279A publication Critical patent/JP2021029279A/ja
Application granted granted Critical
Publication of JP7269131B2 publication Critical patent/JP7269131B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Position Input By Displaying (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、視線検出システム、視線検出方法および視線検出プログラムに関する。
入射する光の強度変化を検出したピクセルが時間非同期的に信号を生成する、イベント駆動型のビジョンセンサが知られている。イベント駆動型のビジョンセンサは、所定の周期ごとに全ピクセルをスキャンするフレーム型ビジョンセンサ、具体的にはCCDやCMOSなどのイメージセンサに比べて、低電力で高速に動作可能である点で有利である。 このようなイベント駆動型のビジョンセンサに関する技術は、例えば特許文献1および特許文献2に記載されている。
特表2014-535098号公報 特開2018-85725号公報
しかしながら、イベント駆動型のビジョンセンサについては、上記のような利点は知られているものの、他の装置と組み合わせた利用方法については、まだ十分に提案されているとは言いがたい。
そこで、本発明は、イベント駆動型のビジョンセンサを視線検出技術に適用することによって、処理負荷を抑えつつ、高速かつ高精度な視線検出を行うことができる情報処理装置、視線検出システム、視線検出方法および視線検出プログラムを提供することを目的とする。
本発明のある観点によれば、ユーザーの眼に光を照射する光源の光の強度を変化させる光源制御部と、入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、ユーザーの眼で反射する光の強度変化の位置および時刻を示すイベント信号を受信する受信部と、ユーザーの眼、光源、およびビジョンセンサの相対的な位置関係と、光源制御部による制御と同時に生成されるイベント信号とに基づいて、イベント信号に対応する光源を特定し、ユーザーの視線を検出する視線検出部とを備える情報処理装置が提供される。
本発明の別の観点によれば、ユーザーの眼に光を照射する光源と、光源の光の強度を変化させる光源制御部と、入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサと、ビジョンセンサから、ユーザーの眼で反射する光の強度変化の位置および時刻を示すイベント信号を受信する受信部、および、ユーザーの眼、光源、およびビジョンセンサの相対的な位置関係と、光源制御部による制御と同時に生成されるイベント信号とに基づいて、イベント信号に対応する光源を特定し、ユーザーの視線を検出する視線検出部を有する端末装置とを備える視線検出システムが提供される。
本発明のさらに別の観点によれば、ユーザーの眼に光を照射する光源の光の強度を変化させるステップと、入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、ユーザーの眼で反射する光の強度変化の位置および時刻を示すイベント信号を受信するステップと、ユーザーの眼、光源、およびビジョンセンサの相対的な位置関係と、光源の強度の変化と同時に生成されるイベント信号とに基づいて、イベント信号に対応する光源を特定し、ユーザーの視線を検出するステップとを含む視線検出方法が提供される。
本発明のさらに別の観点によれば、ユーザーの眼に光を照射する光源の光の強度を変化させる機能と、入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、ユーザーの眼で反射する光の強度変化の位置および時刻を示すイベント信号を受信する機能と、ユーザーの眼、光源、およびビジョンセンサの相対的な位置関係と、光源の強度の変化と同時に生成されるイベント信号とに基づいて、イベント信号に対応する光源を特定し、ユーザーの視線を検出する機能とをコンピュータに実現させる視線検出プログラムが提供される。
上記の構成によれば、イベント駆動型のビジョンセンサを視線検出技術に適用することによって、処理負荷を抑えつつ、高速かつ高精度な視線検出を行うことができる。
本発明の一実施形態に係るシステムの概略的な構成を示すブロック図である。 本発明の一実施形態における動き検出について概略的に説明するための図である。 本発明の一実施形態における視線検出について概略的に説明するための図である。 本発明の一実施形態に係る処理方法の例を示すフローチャートである。 本発明の一実施形態に係る処理方法の例を示すフローチャート(詳細)である。 本発明の一実施形態における光源制御について概略的に説明するための図である。
以下、添付図面を参照しながら、本発明のいくつかの実施形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
図1は、本発明の一実施形態に係る視線検出システム10の概略的な構成を示すブロック図である。本発明の一実施形態に係る視線検出システム10は、例えば全体がユーザーの頭部に装着されるHMDなどの装置に組み込まれてもよいし、後述する情報処理装置200を含む部分がユーザーの頭部から離れた位置に配置されるものであってもよい。
図示された例において、視線検出システム10は、LED(Light Emitting Diode)を備える第1光源部101および第2光源部102と、イベント駆動型のビジョンセンサであるEDS(Event Driven Sensor)103と、情報処理装置200とを含む。このうち、第1光源部101、第2光源部102、およびEDS103はユーザーの眼の近傍に配置され、第1光源部101、第2光源部102、およびEDS103のそれぞれとユーザーの眼との相対的な位置関係は既知である。
第1光源部101および第2光源部102は、例えば、赤外光を発光するLEDを備え、ユーザーの眼に赤外光を照射可能な位置に配置される。また、第1光源部101および第2光源部102は、情報処理装置200により制御される。詳細は後述する。
EDS103は、センサが光の強度変化を検出したときにイベント信号を生成するビジョンセンサの例であり、センサアレイを構成する不図示のセンサと、センサに接続される不図示の処理回路とを含む。各センサは、受光素子を含み、入射する光の強度変化、より具体的には輝度変化を検出したときにイベント信号を生成する。本実施形態において、EDS103はユーザーの眼の反射像が入射される位置に配置され、ユーザーの眼の反射像に輝度変化を検出したときにイベント信号を生成する。輝度変化を検出しなかったセンサはイベント信号を生成しないため、EDS103においてイベント信号は時間非同期的に生成される。EDS103で生成されたイベント信号は、情報処理装置200に出力される。
EDS103で生成されるイベント信号は、センサの識別情報(例えばピクセルの位置)と、輝度変化の極性(上昇または低下)と、タイムスタンプなどを含む。
情報処理装置200は、例えば通信インターフェース、プロセッサ、およびメモリを有するコンピュータによって実装され、プロセッサがメモリに格納された、または通信インターフェースを介して受信されたプログラムに従って動作することによって実現される光源制御部201、受信部202、動き検出部203、視線検出部204の機能を含む。また、情報処理装置200は、第1光源部101および第2光源部102を制御するための照射パターンを格納する照射パターンメモリ205を備える。照射パターンメモリ205は、光源制御部201および視線検出部204により参照される。以下、各部の機能についてさらに説明する。
光源制御部201は、動き検出部203から後述するトリガを受信すると、照射パターンメモリ205に格納された照射パターンに従って、第1光源部101および第2光源部102に制御信号を送信する。具体的には、光源制御部201は、各光源の点灯または消灯の制御や、各光源から照射する光の強度の制御を行う。このとき、光源制御部201は、異なる照射パターンに従って、第1光源部101および第2光源部102を独立に制御する。
受信部202は、EDS103で生成されたイベント信号を受信する。ここで、受信部202が受信するイベント信号は、EDS103がユーザーの眼の反射像に輝度変化を検出したときに生成されたものである。特に、上述した光源制御部201によって第1光源部101および第2光源部102が制御された場合、ユーザーの眼の反射像には光源制御部201による制御によって輝度変化が発生し、その輝度変化に起因して生成されたイベント信号が受信部202により受信される。例えば光源制御部201によって第1光源部101が点灯された場合には、第1光源部101に対応する位置と、点灯に対応する極性とを示すイベント信号が受信部202により受信される。また、例えば光源制御部201によって第2光源部102が消灯された場合には、第2光源部102に対応する位置と、消灯に対応する極性とを示すイベント信号が受信部202により受信される。
動き検出部203は、受信部202が受信したイベント信号に基づき、ユーザーの視線の動きの有無を検出する。図2は、ユーザーの視線が水平方向に移動した場合に生成されるイベント信号を示す模式図である。図2の領域a1およびa2は、輝度変化の極性が第1の方向(+または-の何れか)であることを示し、領域a3およびa4は、輝度変化の極性が第1の方向とは反対の第2の方向(+および-のうち、第1の方向の反対)であることを示す。図2に示されるように、ユーザーの視線が水平方向に移動すると、左右それぞれの瞳において、EDS103から見て同じ側に同じ極性を示すイベント信号が生成される。また、それぞれの瞳においては、瞳に対して目頭側および目尻側に反対の極性を示すイベント信号が生成される。
このように、ユーザーの視線の動きに応じて生成されるイベント信号は、位置および極性に特徴を有する。動き検出部203は、このような特徴に対応して予め用意されたパターンを受信部202が受信したイベント信号と照合することにより、ユーザーの視線の動きの有無や、おおよその向きを検出する。なお、イベント信号はユーザーが瞬きをした場合にも生成されるが、動き検出部203は、上記のパターンを用いてユーザーの視線の動きと、瞬きとを区別することができる。
なお、詳細は後述するが、上述した動き検出部203による検出の時点では、第1光源部101および第2光源部102が消灯されている場合がある。しかし、第1光源部101および第2光源部102によりユーザーの眼に光が照射されていなくても、ユーザーの視線の動きに応じてEDS103はイベント信号を生成するため、動き検出部203は、第1光源部101および第2光源部102の点灯または消灯にかかわらず、ユーザーの視線の動きの有無を検出することができる。
そして、動き検出部203は、上述したようにユーザーの視線の動きを検出すると、第1光源部101および第2光源部102の制御を開始させるトリガを、光源制御部201に送信する。このトリガにより光源制御部201が開始する制御は、ユーザーの視線検出をより正確に行うためのものであり、本実施形態では、光源制御部201は、第1光源部101および第2光源部102をそれぞれ照射パターンメモリ205に格納された照射パターンに従って点灯または消灯させる。
また、動き検出部203は、動き検出の結果を示す情報を視線検出部204に供給する。
視線検出部204は、受信部202が受信したイベント信号に基づいて、ユーザーの視線を検出する。
ここで、第1光源部101および第2光源部102の反射像について、図3を用いて説明する。図3の上段は第1光源部101および第2光源部102とユーザーの視線との関係を示し、下段は、それぞれの状態で生成されるイベント信号における反射像の位置を示す。また、図3の左側の図はユーザーの視線が矢印g1方向を向いている場合を示し、中央の図はユーザーの視線が矢印g2方向を向いている場合を示し、右側の図はユーザーの視線が矢印g3方向を向いている場合を示す。図3に示されるように、ユーザーの視線の向きに応じて、光源の反射像r1,r2,r3の位置が変化する。
上述したように、視線検出システム10において、第1光源部101、第2光源部102、およびEDS103のそれぞれとユーザーの眼との相対的な位置関係は既知であるため、視線検出部204は、受信部202が受信したイベント信号に基づき、ユーザーの瞳と光源の反射像r1,r2,r3との相対的な位置を特定し、幾何的な演算を行うことにより、ユーザーの視線の方向を検出することができる。なお、イベント信号において第1光源部101が照射した光の反射像と第2光源部102が照射した光の反射像とを識別する方法については後述する。
図4は、本発明の一実施形態に係るユーザーの視線検出方法の例を示すフローチャートである。図示された例では、情報処理装置200の受信部202がEDS103により生成されたイベント信号を受信し(ステップS101)、動き検出部203がイベント信号に基づいてユーザーの視線の動きの有無を検出する(ステップS102)。動き検出部203はユーザーの視線の動きがあるか否かを判断し(ステップS103)、ユーザーの視線の動きがある場合に、視線検出部204が後述する視線検出処理を行う(ステップS104)。視線検出処理の開始後にも動き検出部203はユーザーの視線の動きの有無を検出し(ステップS105)、ユーザーの視線の動きがある間は視線検出部204が視線検出処理を繰り返す。一方、ユーザーの視線の動きがない場合には、次にイベント信号に基づいてユーザーの視線の動きがあると判断されるまで視線検出処理は行われない(ステップS101~S103)。
図5は、図4における視線検出処理の詳細を示すフローチャートであり、図6は、図5で説明するフローチャート実行時の光源制御について説明するための図である。図示された例では、情報処理装置200の光源制御部201が制御信号を送信して第1光源部101および第2光源部102を同時に点灯させる(ステップS201)。このとき、受信部202は、EDS103により生成されたイベント信号を受信する(ステップS202)。ステップS202で受信部202が受信したイベント信号は、ステップS201で第1光源部101および第2光源部102を点灯されたことによって光の強度変化が発生し、その強度変化に応じて生成されたイベント信号である。
ここで、EDS103により生成されるイベント信号は、例えば従来のフレーム型ビジョンセンサとは異なり時間非同期的に、かつ高速に生成されるため、第1光源部101および第2光源部102をほぼ同時に点灯させた場合、EDS103でもほぼ同時にそれぞれの光源の点灯を示すイベント信号が生成される。したがって、図6では、ステップS201で光源制御部201が第1光源部101および第2光源部102を点灯させた時刻、およびステップS202で受信されたイベント信号の時刻(タイムスタンプ)をいずれも時刻t0としている。
次に、動き検出部203は、第1光源部101および第2光源部102が同時に点灯されてから所定の時間が経過し、時刻がt1となったか否かを判断する(ステップS203)。そして、時刻がt1となった場合、光源制御部201が制御信号を送信して第1光源部101を消灯させる(ステップS204)。このとき、受信部202は、EDS103により生成されたイベント信号を受信する(ステップS205)。ステップS205で受信部202が受信したイベント信号は、ステップS204で第1光源部101を消灯させたことによって光の強度変化が発生し、その強度変化に応じて生成されたイベント信号である。
ここで、図6では、上記のステップS201とステップS202との関係と同様に、ステップS204で光源制御部201が第1光源部101を消灯させた時刻、およびステップS205で受信されたイベント信号の時刻(タイムスタンプ)は、いずれも時刻t1としている。
次に、動き検出部203は、第1光源部101が消灯されてから所定の時間が経過し、時刻がt2となったか否かを判断する(ステップS206)。そして、時刻がt2となった場合、光源制御部201が制御信号を送信して第2光源部102を消灯させる(ステップS207)。このとき、受信部202は、EDS103により生成されたイベント信号を受信する(ステップS208)。ステップS208で受信部202が受信したイベント信号は、ステップS207で第2光源部102を消灯させたことによって光の強度変化が発生し、その強度変化に応じて生成されたイベント信号である。
ここで、図6では、上記のステップS201およびステップS202の関係やステップS204およびステップS205の関係と同様に、ステップS207で光源制御部201が第2光源部102を消灯させた時刻、およびステップS208で受信されたイベント信号の時刻(タイムスタンプ)は、いずれも時刻t2としている。
最後に、視線検出部204は、ステップS202,S205,S208において受信部202が受信したイベント信号に基づいて、ユーザーの視線を検出する(ステップS209)。
ここで、予め与えられている情報、およびステップS202,S205,S208において受信部202が受信したイベント信号によって、ステップS209の時点では以下の情報が特定されている。
・第1光源部101および第2光源部102とユーザーの眼との相対的な位置関係
・第1光源部101および第2光源部102の時系列での消灯または点灯の状態
・EDS103とユーザーの眼との相対的な位置関係
・時系列のイベントの発生位置
・輝度変化の極性
・タイムスタンプ
例えば、図6の時刻t0においては、第1光源部101および第2光源部102が同時に点灯されることにより、第1光源部101および第2光源部102のそれぞれに対応する位置に、輝度変化の極性が同じイベントが発生する。したがって、時刻t0においては、第1光源部101および第2光源部102の点灯に起因して発生したイベントを示すイベント信号が生成される。
次に、図6の時刻t1においては、第1光源部101のみが消灯されることにより、第1光源部101に対応する位置のみに、輝度変化の極性が時刻t0とは反対の方向であるイベントが発生する。なお、時刻t1において第2光源部102は点灯されたままであり、輝度変化が発生しないため、第2光源部102に対応する位置にはイベントが発生しない。したがって、時刻t1においては、第1光源部101の消灯に起因して発生したイベントのみを示すイベント信号が生成される。
そして、図6の時刻t2においては、第2光源部102が消灯されることにより、第2光源部102に対応する位置のみに、輝度変化の極性が時刻t0とは反対の方向、かつ時刻t1とは同じ方向であるイベントが発生する。なお、時刻t2において第1光源部101は消灯されたままであり、輝度変化が発生しないため、第1光源部101に対応する位置にはイベントが発生しない。したがって、時刻t2においては、第2光源部102の消灯に起因して発生したイベントのみを示すイベント信号が生成される。
このように、光源制御部201による制御と同時にEDS103によってイベント信号が生成されるため、生成された各イベント信号が、いずれの光源が照射した光の反射像における輝度変化に基づくものであるかを識別可能である。
したがって、ステップS209の時点で、視線検出部204は、各時刻において、各光源の点灯または消灯に起因して、どの位置にどのような極性を有するイベントが発生したのかを容易に把握することができる。そのため、視線検出部204は、第1光源部101および第2光源部102が消灯または点灯されたタイミングで生成されたイベント信号に基づき、複雑な計算なしにユーザーの視線の検出を行うことができる。ユーザーの視線は、例えば第1光源部101および第2光源部102のそれぞれの反射光の位置を利用して瞳孔角膜反射法によって検出することができる。視線検出部204は、視線の検出を行う際に、図4のステップS102で行ったユーザーの視線の動きの有無の検出結果を用いてもよい。例えば、ステップS102の検出結果に基づいて、図5のステップS209で行う視線検出の範囲などを限定してもよい。
ここで、図5および図6に示されるように、説明した視線検出処理が終了する時点で、第1光源部101および第2光源部102は消灯された状態である。つまり、ユーザーの視線検出処理が開始されると、第1光源部101および第2光源部102が点灯され、視線検出処理が終了する時点では、第1光源部101および第2光源部102が消灯されることになる。したがって、第1光源部101および第2光源部102が点灯されるのは必要なタイミングに限定されるので、消費電力の低減が期待できる。
なお、図4に示した例では、ユーザーの視線の動きを検出した場合に図5および図6で示した視線検出処理を実行する例を示したが、図5および図6で示した視線検出処理を常時行う構成としてもよい。また、図5および図6に示した例では、第1光源部101および第2光源部102を同じタイミングで点灯させた後に、異なるタイミングで消灯させる例を示したが、本発明はこの例に限定されない。例えば、それぞれの光源部を異なるタイミングで点灯させてもよい。
以上で説明したような本発明の一実施形態では、ユーザーの眼に光を照射する第1光源部101および第2光源部102の光の強度を変化させる光源制御部201と、ユーザーの眼で反射する光の強度変化の位置および時刻を示すイベント信号を生成するEDS103とを備える。そして、ユーザーの眼、第1光源部101、第2光源部102、およびEDS103の相対的な位置関係と、光源制御部201による制御と同時に生成されるイベント信号とに基づいて、イベント信号に対応する光源を特定し、ユーザーの視線を検出する。したがって、光源制御部201による光源の制御の時間情報と、EDS103によるイベント信号生成の時間情報とを利用し、第1光源部101および第2光源部102の制御と、EDS103によるイベント信号の生成との相関を正確に特定することができる。そのため、処理負荷を抑えつつ、高速かつ高精度な視線検出を行うことができる。
なお、視線検出処理については、リアルタイムでの処理が求められる場合も多いが、本発明の一実施形態によれば、光源制御部201による光源の制御とほぼ同時に、光源の制御に起因したイベント信号がEDS103によって生成されるため、時間情報の精度が高い。そのため、制御や演算に関する処理負荷を軽くすることが可能であり、リアルタイムかつ高精度な処理を行うことができる。また、EDS103は、センサが光の強度変化を検出したときにのみ、イベント信号を生成するビジョンセンサであるため、イメージセンサを利用して常時撮像を行う場合に比べて、消費電力を抑えることができる。また、第1光源部101および第2光源部102の制御と、EDS103によるイベント信号の生成との相関が正確に特定されるので、屋外等であっても外光の影響を受けにくい。
また、本発明の一実施形態では、動き検出部203によりイベント信号からユーザーの視線の動きの有無を検出し、ユーザーの視線の動きを検出すると、光源制御部201による光源の制御を開始する。したがって、ユーザーの視線が動いた可能性がある場合に限定して視線検出処理を行うことにより、必要な精度を維持しつつ、不要な光源制御や視線検出処理を避け、消費電力をさらに低減することができる。
また、本発明の一実施形態では、光源制御部201は、第1光源部101および第2光源部102について、光の強度を独立に制御し、視線検出部204は、イベント信号において、第1光源部101の光の強度変化に起因してイベントが発生した位置を第1光源部101の反射光の位置として特定し、第2光源部102の光の強度変化に起因してイベントが発生した位置を第2光源部102の反射光の位置として特定する。したがって、第1光源部101および第2光源部102を互いに異なるタイミングで点灯または消灯させることにより、光源制御部201による光源の制御と同時にEDS103により生成されるイベント信号を得る際に、そのイベント信号に対応する光源を容易に特定することができる。
なお、上記の例で説明された視線検出システム10は、単一の装置内で実装されてもよいし、複数の装置に分散して実装されてもよい。例えば、HMDなどを含む端末装置に視線検出システム10全体を実装してもよいし、情報処理装置200をサーバー装置に分離して実装してもよい。また、マーケティングなどを目的としたデータ分析などの用途を想定し、光源の照射パターンとイベント信号とを時系列上で対応付けられたデータとして保存した上で、事後的に視線検出処理を行う構成としてもよい。この場合、視線検出処理は、光源制御部、受信部、および動き検出部別の装置で行う構成としてもよい。
また、上記の例で説明された視線検出システム10では、2つの光源(第1光源部101および第2光源部102)を含む例を示したが、各光源とユーザーの眼との相対的な位置関係が特定されていれば、1つの光源であってもよいし、3つ以上の光源を含んでもよい。特に、3つ以上の光源を含む構成では、一部またはすべての光源を互いに異なるタイミングで点灯または消灯させることにより、三次元情報などのさらに詳細な情報を取得することが期待できる。
また、上記の例で説明された視線検出システム10では、視線検出処理において、2つの光源(第1光源部101および第2光源部102)を点灯または消灯させる例を示したが、光源を完全には消灯せず、各光源から照射する光の強度を変更する構成としてもよい。
また、上記の例で説明された視線検出システム10では、1つのビジョンセンサ(EDS103)を含む例を示したが、各ビジョンセンサとユーザーの眼との相対的な位置関係が特定されていれば、複数のビジョンセンサを含んでもよい。特に、複数のビジョンセンサを含む構成では、各センサの配置や光源の制御などを工夫することにより、三次元情報などのさらに詳細な情報を取得することが期待できる。
以上、添付図面を参照しながら本発明のいくつかの実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10…視線検出システム、101…第1光源部、102…第2光源部、103…EDS、200…情報処理装置、201…光源制御部、202…受信部、203…動き検出部、204…視線検出部、205…照射パターンメモリ

Claims (5)

  1. ユーザーの眼に光を照射する光源の光の強度を変化させる光源制御部と、
    入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、前記ユーザーの眼で反射する前記光の強度変化の位置および時刻を示す前記イベント信号を受信する受信部と、
    前記イベント信号から前記ユーザーの視線の動きの有無を検出する動き検出部と、
    前記ユーザーの眼、前記光源、および前記ビジョンセンサの相対的な位置関係と、前記光源制御部による制御と同時に生成される前記イベント信号とに基づいて、前記イベント信号に対応する前記光源を特定し、前記ユーザーの視線を検出する視線検出部とを備え、
    前記動き検出部が前記ユーザーの視線の動きがあると検出すると、
    前記光源制御部は、前記光源の制御を開始し、
    前記視線検出部は、前記ユーザーの視線の検出を開始する、情報処理装置。
  2. 前記光源制御部は、少なくとも第1の光源および第2の光源を含む複数の前記光源について、前記光の強度を独立に制御し、
    前記視線検出部は、前記イベント信号において、前記第1の光源の前記光の強度変化に起因してイベントが発生した位置を前記第1の光源の反射光の位置として特定し、前記第2の光源の前記光の強度変化に起因してイベントが発生した位置を前記第2の光源の反射光の位置として特定する、請求項に記載の情報処理装置。
  3. ユーザーの眼に光を照射する光源と、
    前記光源の光の強度を変化させる光源制御部と、
    入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサと、
    前記ビジョンセンサから、前記ユーザーの眼で反射する前記光の強度変化の位置および時刻を示す前記イベント信号を受信する受信部
    前記イベント信号から前記ユーザーの視線の動きの有無を検出する動き検出部と、
    前記ユーザーの眼、前記光源、および前記ビジョンセンサの相対的な位置関係と、前記光源制御部による制御と同時に生成される前記イベント信号とに基づいて、前記イベント信号に対応する前記光源を特定し、前記ユーザーの視線を検出する視線検出部
    を有する端末装置とを備え、
    前記動き検出部が前記ユーザーの視線の動きがあると検出すると、
    前記光源制御部は、前記光源の制御を開始し、
    前記視線検出部は、前記ユーザーの視線の検出を開始する、視線検出システム。
  4. ユーザーの眼に光を照射する光源の光の強度を変化させるステップと、
    入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、前記ユーザーの眼で反射する前記光の強度変化の位置および時刻を示す前記イベント信号を受信するステップと、
    前記イベント信号から前記ユーザーの視線の動きの有無を検出するステップと、
    前記ユーザーの眼、前記光源、および前記ビジョンセンサの相対的な位置関係と、前記光源の光の強度の変化と同時に生成される前記イベント信号とに基づいて、前記イベント信号に対応する前記光源を特定し、前記ユーザーの視線を検出するステップとを含み、
    前記動きの有無を検出するステップにより前記ユーザーの視線の動きがあると検出すると、
    前記光の強度を変化させるステップによる前記光源の制御を開始し、
    前記視線を検出するステップによる前記ユーザーの視線の検出を開始する、視線検出方法。
  5. ユーザーの眼に光を照射する光源の光の強度を変化させる機能と、
    入射する光の強度変化を検出したときにイベント信号を生成するセンサによって構成されるイベント駆動型のビジョンセンサから、前記ユーザーの眼で反射する前記光の強度変化の位置および時刻を示す前記イベント信号を受信する機能と、
    前記イベント信号から前記ユーザーの視線の動きの有無を検出する機能と、
    前記ユーザーの眼、前記光源、および前記ビジョンセンサの相対的な位置関係と、前記光源の光の強度の変化と同時に生成される前記イベント信号とに基づいて、前記イベント
    信号に対応する前記光源を特定し、前記ユーザーの視線を検出する機能とをコンピュータに実現させる視線検出プログラムであって、
    前記動きの有無を検出する機能により前記ユーザーの視線の動きがあると検出すると、
    前記変化させる機能による前記光源の制御を開始し、
    前記視線を検出する機能による前記ユーザーの視線の検出を開始する、視線検出プログラム
JP2019148854A 2019-08-14 2019-08-14 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム Active JP7269131B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019148854A JP7269131B2 (ja) 2019-08-14 2019-08-14 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム
PCT/JP2020/030312 WO2021029342A1 (ja) 2019-08-14 2020-08-07 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム
US17/630,496 US12192611B2 (en) 2019-08-14 2020-08-07 Information processing device, visual line detection system, visual line detection method, and visual line detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019148854A JP7269131B2 (ja) 2019-08-14 2019-08-14 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム

Publications (2)

Publication Number Publication Date
JP2021029279A JP2021029279A (ja) 2021-03-01
JP7269131B2 true JP7269131B2 (ja) 2023-05-08

Family

ID=74570284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019148854A Active JP7269131B2 (ja) 2019-08-14 2019-08-14 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム

Country Status (3)

Country Link
US (1) US12192611B2 (ja)
JP (1) JP7269131B2 (ja)
WO (1) WO2021029342A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7734070B2 (ja) * 2021-12-27 2025-09-04 株式会社Screenホールディングス 動作監視方法および製造装置
US12112511B1 (en) * 2023-04-05 2024-10-08 Sony Interactive Entertainment Inc. Optimization of eye capture conditions for each user and use case

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011125693A (ja) 2009-11-18 2011-06-30 Panasonic Corp 眼電位推定装置、眼電位算出方法、視線検出装置、ウェアラブルカメラ、ヘッドマウントディスプレイおよび電子めがね
JP2018196730A (ja) 2017-05-23 2018-12-13 スティヒティング・イメック・ネーデルラントStichting IMEC Nederland 眼の位置を監視するための方法およびシステム
WO2019147677A1 (en) 2018-01-24 2019-08-01 Kaban Technologies Llc Event camera-based gaze tracking using neural networks

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1156782A (ja) * 1997-08-12 1999-03-02 Techno Works:Kk 二光源及び画像差分手段を用いた眼球特徴点検出方式
KR101880998B1 (ko) 2011-10-14 2018-07-24 삼성전자주식회사 이벤트 기반 비전 센서를 이용한 동작 인식 장치 및 방법
US8971570B1 (en) * 2011-11-04 2015-03-03 Google Inc. Dual LED usage for glint detection
JP6089705B2 (ja) * 2013-01-07 2017-03-08 セイコーエプソン株式会社 表示装置、および、表示装置の制御方法
WO2015048026A1 (en) * 2013-09-24 2015-04-02 Sony Computer Entertainment Inc. Gaze tracking variations using dynamic lighting position
US9430040B2 (en) * 2014-01-14 2016-08-30 Microsoft Technology Licensing, Llc Eye gaze detection with multiple light sources and sensors
TWI536279B (zh) * 2015-04-22 2016-06-01 緯創資通股份有限公司 人眼偵測方法及系統
CN108697321B (zh) * 2015-12-31 2021-09-17 视译公司 用于在限定操作范围内进行视线跟踪的装置
US10303246B2 (en) * 2016-01-20 2019-05-28 North Inc. Systems, devices, and methods for proximity-based eye tracking
US11167773B2 (en) * 2016-03-16 2021-11-09 Honda Motor Co., Ltd. Vehicle control system, vehicle control method, and vehicle control program
KR102548199B1 (ko) * 2016-08-03 2023-06-28 삼성전자주식회사 전자 장치 및 전자 장치의 시선 추적 방법
JP6587254B2 (ja) * 2016-09-16 2019-10-09 株式会社東海理化電機製作所 輝度制御装置、輝度制御システム及び輝度制御方法
US20180146149A1 (en) 2016-11-21 2018-05-24 Samsung Electronics Co., Ltd. Event-based sensor, user device including the same, and operation method of the same
WO2018158950A1 (ja) * 2017-03-03 2018-09-07 三菱電機株式会社 作業適性判定装置、作業適性判定方法、及び作業適性判定プログラム
JP6841146B2 (ja) * 2017-04-21 2021-03-10 富士ゼロックス株式会社 眼球の光計測装置及び眼球の光計測方法
US10108261B1 (en) * 2017-07-05 2018-10-23 Oculus Vr, Llc Eye tracking based on light polarization
US10466779B1 (en) * 2017-07-24 2019-11-05 Facebook Technologies, Llc Event camera for eye tracking
JP7056055B2 (ja) * 2017-09-27 2022-04-19 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
JP7008131B2 (ja) * 2017-09-28 2022-01-25 アップル インコーポレイテッド イベントカメラデータを使用するアイトラッキングの方法及び装置
WO2019117350A1 (ko) * 2017-12-14 2019-06-20 삼성전자 주식회사 응시 거리를 결정하는 방법 및 디바이스
US10380801B1 (en) * 2018-02-07 2019-08-13 Rockwell Collins, Inc. Head wearable device, system, and method for displaying teamed asset information
US11042031B2 (en) * 2018-02-20 2021-06-22 Google Llc Eye tracking system and method, eyeglass lens, and wearable heads-up display
US11157077B2 (en) * 2018-04-16 2021-10-26 Google Llc Method and system for dual mode eye tracking on wearable heads-up display
US10936056B2 (en) * 2018-04-16 2021-03-02 Google Llc Method and system of eye tracking with glint drift correction on wearable heads-up display
US10976814B2 (en) * 2018-04-16 2021-04-13 Google Llc Method and system for eye tracking with glint space recalibration on wearable heads-up display
CN112041788B (zh) * 2018-05-09 2024-05-03 苹果公司 使用眼睛注视来选择文本输入字段
US11064387B1 (en) * 2018-05-23 2021-07-13 Apple Inc. Adaptive wireless transmission schemes
US11435820B1 (en) * 2019-05-16 2022-09-06 Facebook Technologies, Llc Gaze detection pipeline in an artificial reality system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011125693A (ja) 2009-11-18 2011-06-30 Panasonic Corp 眼電位推定装置、眼電位算出方法、視線検出装置、ウェアラブルカメラ、ヘッドマウントディスプレイおよび電子めがね
JP2018196730A (ja) 2017-05-23 2018-12-13 スティヒティング・イメック・ネーデルラントStichting IMEC Nederland 眼の位置を監視するための方法およびシステム
WO2019147677A1 (en) 2018-01-24 2019-08-01 Kaban Technologies Llc Event camera-based gaze tracking using neural networks

Also Published As

Publication number Publication date
WO2021029342A1 (ja) 2021-02-18
JP2021029279A (ja) 2021-03-01
US12192611B2 (en) 2025-01-07
US20220272256A1 (en) 2022-08-25

Similar Documents

Publication Publication Date Title
US20180160079A1 (en) Pupil detection device
US10007337B2 (en) Eye gaze imaging
KR101205039B1 (ko) 눈 검출 시스템 및 그 동작 방법
US20140306612A1 (en) Illumination system
EP2226703A2 (en) Wearable eye tracking system
JP6583734B2 (ja) 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
CN109076662A (zh) 用于镜子部件的自适应照明系统和控制自适应照明系统的方法
US20130127705A1 (en) Apparatus for touching projection of 3d images on infrared screen using single-infrared camera
EP3173811B1 (en) High speed, high precision six degree-of-freedom optical tracker system and method
JP7269131B2 (ja) 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム
KR20170057110A (ko) 이미지 장치 및 그것의 동작 방법
US11266307B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
US7777722B2 (en) Multi-mode optical navigation
JP6957048B2 (ja) 眼部画像処理装置
WO2022038815A1 (ja) 距離算出装置、距離算出方法及び距離算出プログラム
CN103565399B (zh) 瞳孔检测装置
WO2023188183A1 (ja) 情報処理装置、システム、情報処理方法、情報処理プログラム、およびコンピュータシステム
US20240098360A1 (en) Object tracking system using a differential camera
TW200915142A (en) Optical navigational device adapted for navigation on a transparent structure
KR101002072B1 (ko) 펄스 구동 방식의 투영 영상 터치 장치
US11241152B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
WO2017154356A1 (ja) 視線検出装置および視線検出方法
WO2022038814A1 (ja) 角膜曲率半径算出装置、視線検出装置、角膜曲率半径算出方法、及び角膜曲率半径算出プログラム
US20170003826A1 (en) Touch display system, touch device and touch display method
JP2017097689A (ja) 物体検出装置、物体検出方法、及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230421

R150 Certificate of patent or registration of utility model

Ref document number: 7269131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150