[go: up one dir, main page]

JP5161685B2 - Gaze measurement apparatus and program - Google Patents

Gaze measurement apparatus and program Download PDF

Info

Publication number
JP5161685B2
JP5161685B2 JP2008192001A JP2008192001A JP5161685B2 JP 5161685 B2 JP5161685 B2 JP 5161685B2 JP 2008192001 A JP2008192001 A JP 2008192001A JP 2008192001 A JP2008192001 A JP 2008192001A JP 5161685 B2 JP5161685 B2 JP 5161685B2
Authority
JP
Japan
Prior art keywords
line
sight
data
sight data
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008192001A
Other languages
Japanese (ja)
Other versions
JP2010029262A (en
Inventor
貴志 内藤
和則 樋口
芳樹 二宮
洋 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Toyota Central R&D Labs Inc
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Toyota Central R&D Labs Inc
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Toyota Central R&D Labs Inc, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2008192001A priority Critical patent/JP5161685B2/en
Publication of JP2010029262A publication Critical patent/JP2010029262A/en
Application granted granted Critical
Publication of JP5161685B2 publication Critical patent/JP5161685B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、視線計測装置及びプログラムに係り、特に、自動較正を行う視線計測装置及びプログラムに関する。   The present invention relates to a line-of-sight measurement apparatus and a program, and more particularly, to a line-of-sight measurement apparatus and a program that perform automatic calibration.

従来、例えば車両に視線計測装置を搭載し、ドライバの視線を計測することにより、脇見運転などに対する警報を発する装置が知られている。このような視線計測装置においては、実際の視線方向と計測された視線方向とが一致するように較正することが必要であり、指定された複数の基準点をドライバに順次注視させ、得られた視線方向と実際の注視位置との関係から補正係数を算出することが行われている。   2. Description of the Related Art Conventionally, there is known an apparatus that issues an alarm for a side-view driving or the like by mounting a line-of-sight measurement device on a vehicle and measuring the line of sight of a driver. In such a line-of-sight measurement device, it is necessary to calibrate so that the actual line-of-sight direction and the measured line-of-sight direction coincide with each other. A correction coefficient is calculated from the relationship between the gaze direction and the actual gaze position.

しかし、このような較正処理ではドライバに与える負担が大きい。そこで、例えば、特許文献1記載の視線方向計測装置では、ウィンカレバーやシフトレバーなどの機器の操作が行われた際に操作信号を発生させ、この操作信号が発生しているときに算出された視線データを用いて算出した補正係数により自動較正を行うことが提案されている。特定の機器の操作を行う際に特定の位置への注視(例えば、右ウィンカを操作したときの右サイドミラーへの注視)が増えることを利用したものである。
特許第3785669号公報
However, such a calibration process places a heavy burden on the driver. Therefore, for example, in the gaze direction measuring device described in Patent Document 1, an operation signal is generated when an operation of a device such as a winker lever or a shift lever is performed, and the calculation is performed when the operation signal is generated. It has been proposed to perform automatic calibration with a correction coefficient calculated using line-of-sight data. This is to take advantage of an increase in gaze at a specific position (for example, gaze on the right side mirror when operating the right winker) when operating a specific device.
Japanese Patent No. 3785669

しかしながら、例えば、右ウィンカをオンしたときに必ずしも右サイドミラーを注視しているとは限らず、特許文献1の視線方向計測装置では、機器の操作が行われてから視線データを蓄積しているため、補正係数を算出するための視線データとして適切でない視線データも多く含まれている可能性がある、という問題があった。   However, for example, when the right winker is turned on, the right side mirror is not always watched. In the gaze direction measuring device of Patent Document 1, the gaze data is accumulated after the device is operated. Therefore, there is a problem that there is a possibility that a lot of line-of-sight data that is not appropriate as line-of-sight data for calculating the correction coefficient may be included.

本発明は、上記問題を解決するために成されたものであり、自動較正する場合でも、特定位置を注視していることの信頼度が高い視線データを用いて補正係数を算出することにより、視線計測の精度を向上させることができる視線計測装置及びプログラムを提供することを目的とする。   The present invention is made in order to solve the above problem, and even when automatic calibration is performed, by calculating a correction coefficient using line-of-sight data with high reliability of gazing at a specific position, An object of the present invention is to provide an eye gaze measuring apparatus and program capable of improving the accuracy of eye gaze measurement.

上記目的を達成するために、本発明の視線計測装置は、機器の操作を行う操作者を撮影して得られた眼領域の画像データに基づいて、前記操作者の視線方向を示す視線データを算出する視線データ算出手段と、前記操作者が前記機器を操作した際の操作データを取得する取得手段と、前記視線データ算出手段で算出された視線データと、前記取得手段で取得された操作データとを時系列に対応付けて記憶する記憶手段と、前記記憶手段に記憶された操作データが取得された前記機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データを、前記記憶手段に記憶された視線データから抽出する抽出手段と、前記抽出手段で抽出された視線データの分布に基づいて得られる前記操作者の注視位置が、前記特定の操作をする際に注視する位置として予め定めた注視位置と一致するように、前記算出手段で算出された視線データを補正するための補正係数を算出する補正係数算出手段と、を含んで構成されている。   In order to achieve the above object, the eye gaze measurement apparatus of the present invention obtains eye gaze data indicating the eye gaze direction of the operator based on image data of an eye area obtained by photographing the operator who operates the device. Line-of-sight data calculation means to calculate, acquisition means for acquiring operation data when the operator operates the device, line-of-sight data calculated by the line-of-sight data calculation means, and operation data acquired by the acquisition means And a line of sight data from a predetermined time before the start time of the specific operation to the device from which the operation data stored in the storage means is acquired to the end time, An extracting unit that extracts the line-of-sight data stored in the storage unit, and the gaze position of the operator obtained based on the distribution of the line-of-sight data extracted by the extracting unit performs the specific operation To match the predetermined fixation position as a position to watch, is configured to include a, a correction coefficient calculating means for calculating a correction coefficient for correcting the gaze data calculated by said calculation means.

また、本発明の視線計測プログラムは、コンピュータを、機器の操作を行う操作者を撮影して得られた眼領域の画像データに基づいて、前記操作者の視線方向を示す視線データを算出する視線データ算出手段と、前記操作者が前記機器を操作した際の操作データを取得する取得手段と、前記視線データ算出手段で算出された視線データと、前記取得手段で取得された操作データとを時系列に対応付けて記憶する記憶手段と、前記記憶手段に記憶された操作データが取得された前記機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データを、前記記憶手段に記憶された視線データから抽出する抽出手段と、前記抽出手段で抽出された視線データの分布に基づいて得られる前記操作者の注視位置が、前記特定の操作をする際に注視する位置として予め定めた注視位置と一致するように、前記算出手段で算出された視線データを補正するための補正係数を算出する補正係数算出手段として機能させるためのプログラムである。   Further, the eye gaze measurement program of the present invention calculates the eye gaze data indicating the eye gaze direction of the operator based on the image data of the eye area obtained by photographing the operator who operates the device. Data calculation means, acquisition means for acquiring operation data when the operator operates the device, line-of-sight data calculated by the line-of-sight data calculation means, and operation data acquired by the acquisition means Storage means for storing in association with a series; line-of-sight data from a predetermined time before the start time of a specific operation to the device from which the operation data stored in the storage means is acquired to an end time is stored in the storage means. The extraction means for extracting from the stored line-of-sight data, and the gaze position of the operator obtained based on the distribution of the line-of-sight data extracted by the extraction means performs the specific operation. To match the predetermined fixation position as a position to watch the a program for functioning as a correction coefficient calculating means for calculating a correction coefficient for correcting the gaze data calculated by said calculation means.

本発明の視線計測装置及びプログラムによれば、視線データ算出手段が、機器の操作を行う操作者を撮影して得られた眼領域の画像データに基づいて、操作者の視線方向を示す視線データを算出することにより視線計測を行う。この視線計測の較正を行うために、取得手段が、操作者が機器を操作した際の操作データを取得し、視線データ算出手段で算出された視線データと、取得手段で取得された操作データとが時系列に対応付けられて記憶手段に記憶される。   According to the line-of-sight measurement apparatus and program of the present invention, the line-of-sight data indicating the line-of-sight direction of the operator based on the image data of the eye area obtained by photographing the operator who operates the device Gaze measurement is performed by calculating. In order to calibrate the line-of-sight measurement, the acquisition unit acquires operation data when the operator operates the device, the line-of-sight data calculated by the line-of-sight data calculation unit, and the operation data acquired by the acquisition unit Are associated with the time series and stored in the storage means.

較正のタイミングで、抽出手段が、記憶手段に記憶された操作データが取得された機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データを、記憶手段に記憶された視線データから抽出し、補正係数算出手段が、抽出手段で抽出された視線データの分布に基づいて得られる操作者の注視位置が、特定の操作をする際に注視する位置として予め定めた注視位置と一致するように、算出手段で算出された視線データを補正するための補正係数を算出する。   At the time of calibration, the extraction means uses the line-of-sight data stored in the storage means for the line-of-sight data from a predetermined time before the start time of the specific operation to the device from which the operation data stored in the storage means was acquired. The gaze position of the operator obtained based on the distribution of the line-of-sight data extracted by the extraction means and the correction coefficient calculation means coincides with the gaze position predetermined as the position to gaze at when performing a specific operation In this manner, a correction coefficient for correcting the line-of-sight data calculated by the calculating means is calculated.

このように、特定の操作の開始時点の所定時間前から終了時点までの視線データを抽出することにより、運転行動などの機器の操作に伴った適切な視線データが抽出されることとなるため、自動較正する場合でも、特定位置を注視していることの信頼度が高い視線データを用いて補正係数を算出することができ、視線計測の精度を向上させることができる。   In this way, by extracting the line-of-sight data from a predetermined time before the start point of the specific operation to the end point, appropriate line-of-sight data associated with the operation of the device such as driving behavior is extracted. Even in the case of automatic calibration, the correction coefficient can be calculated using line-of-sight data with high reliability that a specific position is being watched, and the accuracy of line-of-sight measurement can be improved.

また、本発明の視線計測装置及びプログラムの前記抽出手段は、前記記憶手段に記憶された操作データが取得された前記機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データで、かつ所定領域内に分布している視線データを前記記憶手段に記憶された視線データから抽出するようにすることができる。   In addition, the line-of-sight measurement device and the program of the present invention may be the line-of-sight data from the predetermined time before the start time of the specific operation to the end time of the device for which the operation data stored in the storage means has been acquired. In addition, line-of-sight data distributed in a predetermined area can be extracted from line-of-sight data stored in the storage means.

操作者が特定位置を注視すると視線データが停留するため、視線データの所定領域内への分布が集中する。そこで、記憶手段に記憶された操作データが取得された機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データで、かつ所定領域内に分布している視線データを記憶手段に記憶された視線データから抽出するようにすることにより、視線データに含まれる不安定なデータが除去され、より精度よく補正係数を算出することができる。   When the operator gazes at a specific position, the line-of-sight data stops, and the distribution of the line-of-sight data within a predetermined region is concentrated. Therefore, the line-of-sight data from the predetermined time before the start time of the specific operation to the end of the specific operation for the device from which the operation data stored in the storage means is acquired to the storage means By extracting from the stored line-of-sight data, unstable data included in the line-of-sight data is removed, and the correction coefficient can be calculated more accurately.

以上説明したように、本発明によれば、自動較正する場合でも、特定位置を注視していることの信頼度が高い視線データを用いて補正係数を算出することにより、視線計測の精度を向上させることができるという効果が得られる。   As described above, according to the present invention, even when automatic calibration is performed, the accuracy of line-of-sight measurement is improved by calculating a correction coefficient using line-of-sight data with high reliability that a specific position is being watched. The effect that it can be made is acquired.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、本発明の視線計測装置を車両に搭載して、ドライバの視線を計測する場合について説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case where the line-of-sight measurement device of the present invention is mounted on a vehicle and the line of sight of the driver is measured will be described.

図1に示すように、本実施の形態に係る視線計測装置10は、ドライバの目領域を含む顔画像を撮影するカメラ12、ドライバの運転行動を含む機器の操作を検出する操作センサ14、及びドライバの機器の操作に基づいて視線計測の較正を行う制御を実行するコンピュータ16を備えている。   As shown in FIG. 1, the line-of-sight measurement device 10 according to the present embodiment includes a camera 12 that captures a face image including a driver's eye area, an operation sensor 14 that detects an operation of a device including a driver's driving behavior, and The computer 16 which performs control which calibrates gaze measurement based on operation of the driver | operator's apparatus is provided.

カメラ12は、ドライバの顔画像を撮影し、画像信号を生成する撮影部、撮影部で生成されたアナログ信号である画像信号をデジタル信号に変換するA/D変換部、及びA/D変換された画像信号を一時的に格納するための画像メモリを備えている。   The camera 12 captures a driver's face image and generates an image signal, an A / D conversion unit that converts an image signal that is an analog signal generated by the imaging unit into a digital signal, and A / D conversion An image memory for temporarily storing the received image signal.

操作センサ14は、ドライバの運転行動を含む機器の操作を検出するもので、例えば、ウィンカ操作を検出するウィンカセンサ、ステアリングの操舵量を検出する操舵角センサ、ブレーキペダルの踏込み量を検出するブレーキセンサ、アクセルペダルの踏込み量を検出するアクセルセンサ、車両の速度を検出する速度センサ、及びシフトレバーの設定を検出するシフトレバーセンサなどの運転行動に伴った機器の操作を検出する各種センサや、カーオーディオ、カーエアコン、及びカーナビゲーションなどの機器が操作されたことを検出する各種センサが含まれる。   The operation sensor 14 detects the operation of the device including the driving behavior of the driver. For example, the winker sensor that detects the winker operation, the steering angle sensor that detects the steering amount of the steering, and the brake that detects the depression amount of the brake pedal. Various sensors for detecting the operation of the device accompanying the driving action, such as a sensor, an accelerator sensor that detects the amount of depression of the accelerator pedal, a speed sensor that detects the speed of the vehicle, and a shift lever sensor that detects the setting of the shift lever, Various sensors that detect that devices such as a car audio, a car air conditioner, and a car navigation system are operated are included.

コンピュータ16は、視線計測装置10全体の制御を司るCPU24、後述する補正係数算出処理のプログラム等各種プログラムを記憶した記憶媒体としてのROM26、ワークエリアとしてデータを一時格納するRAM28、各種情報が記憶された記憶手段としてのメモリ30、I/O(入出力)ポート32、及びこれらを接続するバスを含んで構成されている。I/Oポート32には、カメラ12、及び操作センサ14が接続されている。   The computer 16 stores a CPU 24 that controls the entire line-of-sight measurement device 10, a ROM 26 that stores various programs such as a correction coefficient calculation processing program that will be described later, a RAM 28 that temporarily stores data as a work area, and various types of information. It includes a memory 30 as storage means, an I / O (input / output) port 32, and a bus connecting them. The camera 12 and the operation sensor 14 are connected to the I / O port 32.

次に、図2を参照して、本実施の形態における補正係数算出プログラムの処理ルーチンについて説明する。   Next, the processing routine of the correction coefficient calculation program in the present embodiment will be described with reference to FIG.

ステップ100で、カメラ12で時刻Tに撮影した画像を取り込み、次に、ステップ102で、取り込んだ画像の画像データに基づいて、視線データを算出する。ここで、視線データは、ドライバが略正面を注視している場合の視線角度を基準として、水平方向の視線角度φ、及び鉛直方向の視線角度θで表される視線方向を示すデータである。視線方向の計測は、取り込んだ画像の眼領域の画像データから抽出される画像特徴に基づいて計測する。また、1台以上のカメラによって運転者の顔映像を撮影し、画像処理によって目や鼻など顔の特徴部分を検出し、特徴部分の位置情報や変位置などから視線方向を計測するようにしてもよい。   In step 100, an image taken at time T by the camera 12 is captured, and in step 102, line-of-sight data is calculated based on the image data of the captured image. Here, the line-of-sight data is data indicating the line-of-sight direction represented by the horizontal line-of-sight angle φ and the vertical line-of-sight angle θ with reference to the line-of-sight angle when the driver is gazing substantially in front. The gaze direction is measured based on the image feature extracted from the image data of the eye area of the captured image. In addition, the driver's face image is captured by one or more cameras, facial features such as eyes and nose are detected by image processing, and the line-of-sight direction is measured from the positional information of the feature portion, the deformed position, etc. Also good.

次に、ステップ104で、操作センサ14で検出した時刻Tにおけるウィンカの状態、ステアリング操舵角、ブレーキペダルの踏込み量、アクセルペダルの踏込み量、車速、シフトレバーの状態、カーオーディオ、カーステレオ、カーナビゲーションなどの操作状態などを示す操作データを取り込む。   Next, in step 104, the winker state at the time T detected by the operation sensor 14, the steering angle, the brake pedal depression amount, the accelerator pedal depression amount, the vehicle speed, the shift lever state, car audio, car stereo, car Captures operation data indicating the operation state such as navigation.

次に、ステップ106で、ステップ102で算出した時刻Tにおける視線データと、ステップ104で取り込んだ時刻Tにおける操作データとを対応付けて、メモリ30の所定領域に記憶する。   Next, in step 106, the line-of-sight data at time T calculated in step 102 and the operation data at time T captured in step 104 are associated with each other and stored in a predetermined area of the memory 30.

次に、ステップ108で、補正係数を算出して視線計測の較正を行うタイミングか否かを判断する。この判断は、エンジンがかけられてから所定時間以上経過したか否かで判断したり、前回較正を行ってから所定時間以上経過したか否かで判断したりすることができる。また、メモリ30の所定領域に記憶された操作データのうち、特定の操作データ、例えば、右ウィンカがオフからオンへ変化したことを示す操作データが所定回数以上となった場合に、較正を行うタイミングであると判断するようにしてもよい。較正を行うタイミングの場合には、ステップ110へ進み、較正の行うタイミングではない場合には、ステップ100へ戻って、視線データ及び操作データの蓄積を繰り返す。   Next, in step 108, it is determined whether or not it is time to calculate the correction coefficient and calibrate the gaze measurement. This determination can be made based on whether or not a predetermined time has elapsed since the engine was started, or can be determined based on whether or not a predetermined time has elapsed since the last calibration. Further, calibration is performed when specific operation data, for example, operation data indicating that the right winker has changed from OFF to ON is more than a predetermined number of operation data stored in a predetermined area of the memory 30. You may make it judge that it is timing. If it is time to perform calibration, the process proceeds to step 110. If it is not time to perform calibration, the process returns to step 100, and accumulation of line-of-sight data and operation data is repeated.

ステップ110で、特定の操作が行われたときの操作データに対応する視線データを抽出する。特定の操作としては、その特定の操作のためにドライバが一連の動作行う間に、特定位置への注視を伴うものであればよく、例えば、バックミラーや右サイドミラーへの注視を伴う左車線から右車線への車線変更を特定の操作とすることができる。   In step 110, line-of-sight data corresponding to operation data when a specific operation is performed is extracted. The specific operation may be any operation that involves gazing at a specific position while the driver performs a series of operations for the specific operation, for example, the left lane with gazing at the rearview mirror or the right side mirror. Changing the lane from to the right lane can be a specific operation.

左車線から右車線への車線変更を行う場合には、右ウィンカをオンし、ステアリングを右回転し、その後ステアリングを左回転して直進状態に戻す、という運転行動がとられる。そこで、メモリ30に記憶された操作データから、この運転行動に対応する操作データを、右ウィンカの状態や操舵角を示す操作データに基づいて検索し、検索されたこの一連の操作データの中で、右ウィンカがオンされた時点(T=t1)、及び操舵角が右回転を示す値となり、その後操舵角が略0(直進状態)となった時点(T=t2)を確認し、(t1−Δt)からt2までの視線データを抽出する。   When changing the lane from the left lane to the right lane, the driving action is taken such that the right turn signal is turned on, the steering is rotated to the right, and then the steering is rotated to the left to return to the straight traveling state. Therefore, the operation data stored in the memory 30 is searched for the operation data corresponding to the driving action based on the operation data indicating the state of the right winker and the steering angle, and in the series of the searched operation data. The time when the right winker is turned on (T = t1) and the time when the steering angle becomes a value indicating right rotation and the steering angle becomes substantially 0 (straight forward state) (T = t2) are confirmed, and (t1 The line-of-sight data from -Δt) to t2 is extracted.

ここで、視線データの抽出の開始時点を(t1−Δt)としたのは、ある特定の操作を行う前から、その特定の操作に関連する特定位置への注視が増える場合も多いため、この間の視線データも抽出できるようにしたものである。例えば、上記の車線変更の場合には、バックミラーやサイドミラーを確認してから、右ウィンカをオンする、という運転行動がとられる場合も多いと考えられるため、右ウィンカをオンした時点t1の所定時間Δt前からの視線データを抽出する。これにより、特定位置であるバックミラーやサイドミラーを注視している場合の視線データをより多く抽出することができる。   Here, the point of time when the line-of-sight data extraction is started is (t1−Δt), since there are many cases in which gaze at a specific position related to the specific operation increases before performing a specific operation. The line-of-sight data can be extracted. For example, in the case of the above lane change, it is considered that there is often a driving action of turning on the right winker after confirming the rearview mirror and the side mirror, so at the time t1 when the right winker is turned on. The line-of-sight data from before the predetermined time Δt is extracted. As a result, more line-of-sight data can be extracted when the rear-view mirror or side mirror at the specific position is being watched.

図3に、横軸に水平方向の視線角度φ、縦軸に鉛直方向の視線角度θをとり、視線データをプロットした図の一例を示す。同図(A)は、ステップ108の時点で蓄積されている視線データの全部をプロットしたもので、同図(B)は、ステップ110の処理により、特定の操作(ここでは、左車線から右車線への車線変更)を行ったときの操作データに対応して抽出された視線データをプロットしたものである。このように、視線データの全部をプロットすると、視線データが広い範囲に大きく分布するが、特定の操作データに対応した視線データのみをプロットすると、ある程度局所的に視線データが分布する。   FIG. 3 shows an example of a plot in which the line-of-sight data is plotted with the horizontal axis of sight angle φ in the horizontal axis and the vertical axis of sight angle θ in the vertical axis. FIG. 6A is a plot of all the line-of-sight data accumulated at the time of step 108, and FIG. 4B shows a specific operation (in this case, from the left lane to the right by the processing of step 110). The line-of-sight data extracted corresponding to the operation data when the lane change to the lane is performed is plotted. As described above, when all the line-of-sight data is plotted, the line-of-sight data is largely distributed over a wide range. However, when only the line-of-sight data corresponding to specific operation data is plotted, the line-of-sight data is locally distributed to some extent.

同図(B)では、大きく分けて3つの領域に視線データが分布しており、φ=0、及びθ=0の近傍の所定領域に分布している視線データは、略正面を注視している際の視線データであると考えられる。車線変更の際に、バックミラーやサイドミラーで後方を確認する動作が頻繁に行われることを考慮すると、正面との位置関係から、左上部の所定領域にはバックミラーを注視している視線データが多く分布していると考えられ、また、右下部の所定領域にはサイドミラーを注視している視線データが多く分布していると考えられる。   In FIG. 6B, the line-of-sight data is distributed roughly in three areas. The line-of-sight data distributed in a predetermined area in the vicinity of φ = 0 and θ = 0 is obtained by paying close attention to the front. It is thought that it is the line-of-sight data at the time of being. When changing lanes, taking into account the frequent operation of confirming the rear with the rearview mirror and side mirror, the line-of-sight data gazing at the rearview mirror in a predetermined area in the upper left from the positional relationship with the front It is considered that a large amount of eye gaze data is distributed, and it is considered that a large amount of line-of-sight data gazing at the side mirror is distributed in a predetermined area at the lower right.

次に、ステップ112で、停留している視線データを抽出する。計測される視線データには、正面と特定の注視位置との間を視線が移動しているときの視線データも含まれる。また、計測装置の精度やドライバの挙動などによっても、視線データの分布ばらつきが生じる。そこで、正面、及び特定の注視位置に視線が停留している視線データのみを抽出することで、所定領域に分布している視線データを抽出する。   Next, in step 112, the line-of-sight data that is stopped is extracted. The measured line-of-sight data includes line-of-sight data when the line of sight is moving between the front and a specific gaze position. In addition, the distribution of line-of-sight data varies depending on the accuracy of the measuring device and the behavior of the driver. Therefore, the line-of-sight data distributed in a predetermined region is extracted by extracting only the line-of-sight data in which the line of sight is stopped at the front and a specific gaze position.

具体的には、所定区間内(T=t(n)〜T=t(n+M))のM個の視線データに対して、(1)式により、その区間内の2つの視線データ間のユークリッド距離を、すべての視線データの組み合わせについて求め、その最大値が所定値以下の場合に、その区間の視線データを停留している視線データとする。   Specifically, for M line-of-sight data in a predetermined section (T = t (n) to T = t (n + M)), Euclidean between the two line-of-sight data in the section is obtained by the expression (1). The distance is obtained for all the combinations of the line-of-sight data, and when the maximum value is equal to or less than the predetermined value, the line-of-sight data in the section is set as the stopped line-of-sight data.

Figure 0005161685
Figure 0005161685

ただし、xは、T=iのときの視線データのベクトル(φ,θ)、xは、T=jのときの視線データのベクトル(φ,θ)、Cは、所定値である。 However, x i is a line-of-sight data vector (φ i , θ i ) when T = i , x j is a line-of-sight data vector (φ j , θ j ) when T = j, and C is a predetermined value Value.

図3(C)に、同図(B)にプロットされた視線データから停留している視線データのみをプロットした状態を示す。同図(B)に比べ、所定領域への視線データの分布がより明確となっている。   FIG. 3C shows a state where only the line-of-sight data that is stationary from the line-of-sight data plotted in FIG. 3B is plotted. Compared to FIG. 5B, the distribution of the line-of-sight data to the predetermined area is clearer.

次に、ステップ114で、特定の操作データに対応する視線データで、所定領域に分布している視線データの分布の中心位置を、特定の注視位置として算出する。上記車線変更の場合では、バックミラー、及び右サイドミラーの位置が特定の注視位置である。図3(C)に示す視線データの分布は、正面を含む3つの正規分布の混合により形成されていると仮定して、EMアルゴリズムを用いて、3つの正規分布の各平均ベクトルを求め、それらを注視位置である正面、バックミラー、及び右サイドミラーの位置とする。なお、注視位置の算出は、EMアルゴリズムを用いる場合に限らず、k−means法などを用いてもよい。   Next, in step 114, the center position of the distribution of the line-of-sight data distributed in the predetermined area with the line-of-sight data corresponding to the specific operation data is calculated as the specific gaze position. In the case of the above lane change, the positions of the rearview mirror and the right side mirror are specific gaze positions. Assuming that the distribution of the line-of-sight data shown in FIG. 3C is formed by a mixture of three normal distributions including the front, each average vector of the three normal distributions is obtained using the EM algorithm. Are the positions of the front, rearview mirror, and right side mirror that are gaze positions. Note that the gaze position calculation is not limited to the case where the EM algorithm is used, and the k-means method or the like may be used.

次に、ステップ116で、ステップ114で算出した注視位置が、予め定めた既知の注視位置と一致するように、補正係数を算出する。   Next, in step 116, a correction coefficient is calculated so that the gaze position calculated in step 114 matches a predetermined known gaze position.

算出される視線データと基準時の視線データとの間には、平行移動、拡大縮小、及び回転によるずれが生じる。平行移動は、頭部位置が基準時の位置より左右、及び上下に移動した場合に、視線データも平行移動することにより生じるずれで、計測された視線を(x,y)、及び水平方向への平行移動成分をc、及び鉛直方向への平行移動成分をdとすると、較正後の視線(x’,y’)は(2)式で表される。   A shift due to parallel movement, enlargement / reduction, and rotation occurs between the calculated line-of-sight data and the reference line-of-sight data. The parallel movement is a shift caused by the parallel movement of the line-of-sight data when the head position moves left and right and up and down from the reference position, and the measured line-of-sight is moved in the (x, y) and horizontal directions. Let c be the translation component and d be the translation component in the vertical direction, and the line of sight after calibration (x ′, y ′) is expressed by equation (2).

Figure 0005161685
Figure 0005161685

拡大縮小は、頭部位置が基準時の位置より前後に移動した場合に、視線データの分布が拡大縮小することにより生じるずれで、拡大縮小率をαとすると、較正後の視線(x’,y’)は(3)式で表される。   The enlargement / reduction is a shift caused by the enlargement / reduction of the distribution of the line-of-sight data when the head position moves back and forth from the reference position. If the enlargement / reduction ratio is α, the line of sight after calibration (x ′, y ′) is expressed by equation (3).

Figure 0005161685
Figure 0005161685

回転は、車両が左右に傾いた場合などに、ドライバとカメラ12との相対位置の変化により生じるずれで、回転角度をψとすると、較正後の視線(x’,y’)は(4)式で表される。   Rotation is a shift caused by a change in the relative position between the driver and the camera 12 when the vehicle is tilted to the left and right, and when the rotation angle is ψ, the line of sight after calibration (x ′, y ′) is (4) It is expressed by a formula.

Figure 0005161685
Figure 0005161685

これら(2)式〜(4)式を組み合わせて、較正用パラメータ(a,b,c,d)からなるヘルマート相似変換と呼ばれる(5)式に示す行列Hを算出する。   By combining these equations (2) to (4), a matrix H shown in equation (5) called Helmart similarity transformation consisting of calibration parameters (a, b, c, d) is calculated.

Figure 0005161685
Figure 0005161685

算出されたバックミラーの注視位置を(xb,yb)、及び右サイドミラーの注視位置を(xr,yr)とすると、基準となるバックミラーの既知の注視位置(x’b,y’b)、及び右サイドミラーの既知の注視位置(x’r,y’r)は、(6)式で表される。   Assuming that the calculated gaze position of the rearview mirror is (xb, yb) and the gaze position of the right side mirror is (xr, yr), the known gaze position (x′b, y′b) of the reference rearview mirror , And the known gaze position (x′r, y′r) of the right side mirror are expressed by the equation (6).

Figure 0005161685
Figure 0005161685

(6)式により、行列Hの較正用パラメータ(a,b,c,d)を算出して、処理を終了する。なお、計測された視線データ(φ,θ)は、算出され較正パラメータ(行列H)を用いて、(7)式により較正され、較正後の視線データ(φ’,θ’)が得られる。   The calibration parameters (a, b, c, d) of the matrix H are calculated from the equation (6), and the process is terminated. The measured line-of-sight data (φ, θ) is calculated and calibrated by the equation (7) using the calibration parameter (matrix H), and calibrated line-of-sight data (φ ′, θ ′) is obtained.

Figure 0005161685
Figure 0005161685

なお、上記処理を実行するためのコンピュータ16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図4に示すように、カメラ12で撮影した画像データを取得する画像取得部34、画像取得部で取得した画像データに基づいて視線データを算出する視線データ算出部36、操作センサ14で検出される操作データを取得する操作データ取得部38、視線データ算出部で算出された視線データ、及び操作データ取得部で取得された操作データを時系列に対応付けて記憶するデータ蓄積部40、データ蓄積部に記憶された視線データの中から、特定の操作データに対応し、かつ所定領域に分布する視線データを抽出する視線データ抽出部42、及び抽出した視線データの分布に基づいて注視位置を算出し、その注視位置が特定の操作に対して予め定めた注視位置に一致するように視線データを補正するための補正係数を算出する補正係数算出部44を含んだ構成で表すことができる。   In addition, if the computer 16 for executing the above processing is described by function blocks divided for each function realizing means determined based on hardware and software, as shown in FIG. An image acquisition unit 34 to be acquired, a line-of-sight data calculation unit 36 that calculates line-of-sight data based on image data acquired by the image acquisition unit, an operation data acquisition unit 38 that acquires operation data detected by the operation sensor 14, and a line-of-sight data calculation Specific operation data from among the line-of-sight data calculated by the unit and the data storage unit 40 that stores the operation data acquired by the operation data acquisition unit in association with time series, and the line-of-sight data stored in the data storage unit And a line-of-sight data extraction unit 42 for extracting line-of-sight data distributed in a predetermined area, and based on the distribution of the extracted line-of-sight data A visual position is calculated and expressed by a configuration including a correction coefficient calculation unit 44 that calculates a correction coefficient for correcting the line-of-sight data so that the gaze position matches a predetermined gaze position for a specific operation. Can do.

このように、本実施の形態では、特定の操作の開始時点の所定時間前から終了時点までの視線データで、かつ所定領域内に分布する視線データを用いるため、信頼度が高い視線データを用いて補正係数を算出することができ、視線計測の精度を向上させることができる。   As described above, in the present embodiment, since the line-of-sight data from the predetermined time before the start time of the specific operation to the end time is used and the line-of-sight data distributed in the predetermined region is used, the line-of-sight data with high reliability is used. Thus, the correction coefficient can be calculated, and the accuracy of eye gaze measurement can be improved.

なお、本実施の形態では、バックミラー及びサイドミラーの位置を用いて較正用パラメータを算出する場合について説明したが、ステップ114で算出される正面の注視位置も含めて較正用パラメータを算出するようにしてもよい。   In the present embodiment, the case where the calibration parameters are calculated using the positions of the rearview mirror and the side mirror has been described. However, the calibration parameters including the front gaze position calculated in step 114 are calculated. It may be.

また、本実施の形態では、特定の操作を左車線から右車線への車線変更として、特定の注視位置がバックミラー及び右サイドミラーである場合について説明したが、特定の操作に対して特定の注視位置が推定できる場合であればよく、例えば、特定の操作を右車線から左車線への車線変更として、特定の注視位置をバックミラー及び左サイドミラーとしたり、特定の操作をアクセルペダルを所定値以上踏み込んだときとして、特定の注視位置をスピードメータとしたりしてもよい。   In the present embodiment, the specific operation is changed from the left lane to the right lane, and the specific gaze position is the rearview mirror and the right side mirror. It is sufficient if the gaze position can be estimated. For example, the specific operation is changed from the right lane to the left lane, the specific gaze position is set to the rear view mirror and the left side mirror, or the specific operation is performed with an accelerator pedal. A specific gaze position may be used as a speedometer when stepping over a value.

また、本実施の形態では、停留している視線データの抽出方法として、所定区間に含まれる視線データのユークリッド距離の最大値が所定値以下か否かで判断する場合について説明したが、所定領域に分布している視線データを抽出できればよく、例えば、所定区間内に含まれるM個の視線データの分散値を算出し、その値が所定値以下であればその区間の視線データを停留している視線データとして判断するようにしてもよい。また、視線計測の際に、視線データの信頼度が付与される方法を用いる場合には、その信頼度が所定置以上の視線データを利用するようにしてもよい。   Further, in the present embodiment, as a method of extracting stationary line-of-sight data, a case has been described in which it is determined whether or not the maximum value of the Euclidean distance of line-of-sight data included in a predetermined section is equal to or less than a predetermined value. If, for example, a variance value of M gaze data included in a predetermined section is calculated and the value is equal to or less than a predetermined value, the gaze data in that section is stopped. It may be determined as the line-of-sight data. In addition, when using a method in which the reliability of the line-of-sight data is given at the time of line-of-sight measurement, the line-of-sight data having a reliability higher than a predetermined position may be used.

また、本実施の形態では、本発明の視線計測装置を車両に搭載してドライバの視線を計測する場合について説明したが、例えば、本発明の視線計測装置を飛行機の操縦席に設け、パイロットの視線を計測し、パイロットの操作に対応して注視される操作機器や計器類を既知の注視位置とすることもできる。   Further, in the present embodiment, the case where the line-of-sight measuring device of the present invention is mounted on a vehicle and the driver's line-of-sight is measured has been described. For example, the line-of-sight measuring device of the present invention is provided in an airplane cockpit and It is also possible to measure the line of sight and set the operating devices and instruments to be watched in response to the pilot's operation as known gaze positions.

また、このような乗り物の操作以外にも、本発明の視線計測装置を適用することができる。他の実施の形態として、ゲーム機器に本発明を適用した場合について説明する。構成は上記の実施の形態と同様である。   In addition to the operation of such a vehicle, the line-of-sight measurement device of the present invention can be applied. As another embodiment, a case where the present invention is applied to a game machine will be described. The configuration is the same as in the above embodiment.

ゲームの種類やモードの選択をユーザに促すために、画面にその種類やモードに対応したアイコンを表示する場合、アイコンの表示位置は既知であるため、基準時の注視位置が定まる。また、ユーザがコントローラなどを操作して所望のアイコンを選択する場合、ユーザはそのアイコンを注視する。したがって、アイコンが選択された際に検出される選択信号を操作データとし、アイコンが選択された際の視線データと対応付けて記憶しておく。記憶した視線データと操作データとに基づいて、上記の実施の形態と同様の処理により補正係数を算出することができる。   When an icon corresponding to the type or mode is displayed on the screen in order to prompt the user to select a game type or mode, the gaze position at the reference time is determined because the icon display position is known. When the user operates the controller or the like to select a desired icon, the user gazes at the icon. Therefore, the selection signal detected when the icon is selected is used as operation data, and is stored in association with the line-of-sight data when the icon is selected. Based on the stored line-of-sight data and operation data, the correction coefficient can be calculated by the same processing as in the above embodiment.

例えば、ゲーム機器の電源がオンされるなどのタイミングで画像データの取り込みを開始して視線データを算出する。そして、画面右端にレースゲームを選択するアイコン、画面左端にシューティングゲームを選択するためのアイコン、画面中央に野球ゲームを選択するためのアイコンが表示されている場合に、選択結果を示す信号を操作データとして取り込む。較正のタイミングになった場合には、操作データから野球ゲームを選択した操作データを検索し、その操作データを取得した時点t1の所定時間Δt前から所定時点t2までの視線データを抽出する。t2は、次の操作データを取得した時点などにすることができる。そして、抽出した視線データから算出される注視位置と、野球ゲームを選択するためのアイコンの既知の注視位置とに基づいて、補正係数を算出する。同様に、レースゲームを選択した操作データとレースゲームを選択するアイコンの既知の注視位置を用いてもよいし、シューティングゲームを選択した操作データとシューティングゲームを選択するアイコンの既知の注視位置を用いてもよい。   For example, the capturing of image data is started at the timing when the power of the game device is turned on and the line-of-sight data is calculated. When the icon for selecting a racing game is displayed at the right end of the screen, the icon for selecting a shooting game is displayed at the left end of the screen, and the icon for selecting a baseball game is displayed at the center of the screen, a signal indicating the selection result is operated. Import as data. When the calibration timing is reached, the operation data for selecting the baseball game is searched from the operation data, and the line-of-sight data from the predetermined time Δt before the time t1 when the operation data is acquired to the predetermined time t2 is extracted. t2 can be the time when the next operation data is acquired. Then, the correction coefficient is calculated based on the gaze position calculated from the extracted line-of-sight data and the known gaze position of the icon for selecting the baseball game. Similarly, the operation data for selecting the racing game and the known gaze position of the icon for selecting the racing game may be used, or the operation data for selecting the shooting game and the known gaze position of the icon for selecting the shooting game may be used. May be.

このような場合は、特に、特定の操作を行う前に特定の位置を注視している可能性が高いため、特定の操作の開始時点の所定時間前からの視線データを抽出することで、より効果的に適切な視線データを抽出することができる。   In such a case, there is a high possibility that the user is gazing at a specific position before performing a specific operation, so it is more possible to extract line-of-sight data from a predetermined time before the start of the specific operation. Appropriate line-of-sight data can be extracted effectively.

本実施の形態に係る視線計測装置10の概略を示すブロック図である。It is a block diagram which shows the outline of the visual line measuring apparatus 10 which concerns on this Embodiment. 本実施の形態における補正係数算出プログラムの処理ルーチンを示すフローチャートである。It is a flowchart which shows the processing routine of the correction coefficient calculation program in this Embodiment. 視線データ(水平方向φ、鉛直方向θ)をプロットした図の一例であり、(A)蓄積した視線データの全部をプロットしたもの、(B)特定の操作データに対応した視線データをプロットしたもの、(C)特定の操作データに対応した視線データで、かつ所定領域内に分布する視線データをプロットしたものを示す。It is an example of the figure which plotted gaze data (horizontal direction (phi), vertical direction (theta)), (A) What plotted all the accumulated gaze data, (B) What plotted gaze data corresponding to specific operation data (C) Gaze data corresponding to specific operation data and plotting gaze data distributed in a predetermined area are shown. 本実施の形態に係る視線計測装置10の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the gaze measuring apparatus 10 which concerns on this Embodiment.

符号の説明Explanation of symbols

10 視線計測装置
12 カメラ
14 操作センサ
16 コンピュータ
34 画像取得部
36 視線データ算出部
38 操作データ取得部
40 データ蓄積部
42 視線データ抽出部
44 補正係数算出部
DESCRIPTION OF SYMBOLS 10 Eye-gaze measuring device 12 Camera 14 Operation sensor 16 Computer 34 Image acquisition part 36 Eye-gaze data calculation part 38 Operation data acquisition part 40 Data storage part 42 Eye-gaze data extraction part 44 Correction coefficient calculation part

Claims (4)

機器の操作を行う操作者を撮影して得られた眼領域の画像データに基づいて、前記操作者の視線方向を示す視線データを算出する視線データ算出手段と、
前記操作者が前記機器を操作した際の操作データを取得する取得手段と、
前記視線データ算出手段で算出された視線データと、前記取得手段で取得された操作データとを時系列に対応付けて記憶する記憶手段と、
前記記憶手段に記憶された操作データが取得された前記機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データを、前記記憶手段に記憶された視線データから抽出する抽出手段と、
前記抽出手段で抽出された視線データの分布に基づいて得られる前記操作者の注視位置が、前記特定の操作をする際に注視する位置として予め定めた注視位置と一致するように、前記算出手段で算出された視線データを補正するための補正係数を算出する補正係数算出手段と、
を含む視線計測装置。
Line-of-sight data calculating means for calculating line-of-sight data indicating the line-of-sight direction of the operator based on image data of an eye area obtained by photographing an operator who operates the device;
Obtaining means for obtaining operation data when the operator operates the device;
Storage means for storing line-of-sight data calculated by the line-of-sight data calculation means and operation data acquired by the acquisition means in association with each other in time series;
Extraction means for extracting line-of-sight data from a predetermined time before the start time of a specific operation to the end time of the specific operation for the device from which the operation data stored in the storage means has been acquired from line-of-sight data stored in the storage means; ,
The calculation means such that the gaze position of the operator obtained based on the distribution of the line-of-sight data extracted by the extraction means coincides with a gaze position predetermined as a position to gaze at the specific operation. Correction coefficient calculating means for calculating a correction coefficient for correcting the line-of-sight data calculated in
Eye gaze measuring device including
前記抽出手段は、前記記憶手段に記憶された操作データが取得された前記機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データで、かつ所定領域内に分布している視線データを前記記憶手段に記憶された視線データから抽出する請求項1記載の視線計測装置。   The extraction means is line-of-sight data from a predetermined time before the start time of a specific operation to the end time of the specific operation for the device from which the operation data stored in the storage means has been acquired, and a line of sight distributed in a predetermined area The line-of-sight measurement apparatus according to claim 1, wherein data is extracted from line-of-sight data stored in the storage unit. コンピュータを、
機器の操作を行う操作者を撮影して得られた眼領域の画像データに基づいて、前記操作者の視線方向を示す視線データを算出する視線データ算出手段と、
前記操作者が前記機器を操作した際の操作データを取得する取得手段と、
前記視線データ算出手段で算出された視線データと、前記取得手段で取得された操作データとを時系列に対応付けて記憶する記憶手段に記憶された操作データが取得された前記機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データを、前記記憶手段に記憶された視線データから抽出する抽出手段と、
前記抽出手段で抽出された視線データの分布に基づいて得られる前記操作者の注視位置が、前記特定の操作をする際に注視する位置として予め定めた注視位置と一致するように、前記算出手段で算出された視線データを補正するための補正係数を算出する補正係数算出手段と、
して機能させるための視線計測プログラム。
Computer
Line-of-sight data calculating means for calculating line-of-sight data indicating the line-of-sight direction of the operator based on image data of an eye area obtained by photographing an operator who operates the device;
Obtaining means for obtaining operation data when the operator operates the device;
A specific operation for the device from which the operation data stored in the storage unit that stores the line-of-sight data calculated by the line-of-sight data calculation unit and the operation data acquired by the acquisition unit in association with each other in time series is acquired. Extraction means for extracting line-of-sight data from a predetermined time before the start time to the end time from line-of-sight data stored in the storage means;
The calculation means such that the gaze position of the operator obtained based on the distribution of the line-of-sight data extracted by the extraction means coincides with a gaze position predetermined as a position to gaze at the specific operation. Correction coefficient calculating means for calculating a correction coefficient for correcting the line-of-sight data calculated in
Gaze measurement program to make it function.
コンピュータを、請求項2記載の視線計測装置を構成する各手段として機能させるための視線計測プログラム。   A line-of-sight measurement program for causing a computer to function as each means constituting the line-of-sight measurement device according to claim 2.
JP2008192001A 2008-07-25 2008-07-25 Gaze measurement apparatus and program Expired - Fee Related JP5161685B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008192001A JP5161685B2 (en) 2008-07-25 2008-07-25 Gaze measurement apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008192001A JP5161685B2 (en) 2008-07-25 2008-07-25 Gaze measurement apparatus and program

Publications (2)

Publication Number Publication Date
JP2010029262A JP2010029262A (en) 2010-02-12
JP5161685B2 true JP5161685B2 (en) 2013-03-13

Family

ID=41734480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008192001A Expired - Fee Related JP5161685B2 (en) 2008-07-25 2008-07-25 Gaze measurement apparatus and program

Country Status (1)

Country Link
JP (1) JP5161685B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5854553B2 (en) * 2011-10-18 2016-02-09 富士電機株式会社 Visual inspection support device and control method of visual inspection support device
WO2013059940A1 (en) * 2011-10-27 2013-05-02 Tandemlaunch Technologies Inc. System and method for calibrating eye gaze data
JP6187155B2 (en) * 2013-10-28 2017-08-30 株式会社デンソーアイティーラボラトリ Gaze target estimation device
WO2015064080A1 (en) * 2013-11-01 2015-05-07 パナソニックIpマネジメント株式会社 Gaze direction-detecting device and gaze direction-detecting method
JP6547268B2 (en) * 2014-10-02 2019-07-24 富士通株式会社 Eye position detection device, eye position detection method and eye position detection program
JP2016099718A (en) * 2014-11-19 2016-05-30 株式会社デンソー Visual line direction area setting device and visual line direction area setting system
JP6536443B2 (en) * 2016-03-18 2019-07-03 アイシン・エィ・ダブリュ株式会社 Eye-gaze learning system and eye-gaze learning program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3785669B2 (en) * 1996-03-05 2006-06-14 日産自動車株式会社 Gaze direction measuring device
JP2000005130A (en) * 1998-06-19 2000-01-11 Nippon Hoso Kyokai <Nhk> Eye movement measurement method and apparatus
JP3716647B2 (en) * 1998-11-11 2005-11-16 日産自動車株式会社 Safety promotion device for automobile
JP2001194161A (en) * 2000-01-11 2001-07-19 Alpine Electronics Inc Eye movement detection information presentation device
JP5044237B2 (en) * 2006-03-27 2012-10-10 富士フイルム株式会社 Image recording apparatus, image recording method, and image recording program

Also Published As

Publication number Publication date
JP2010029262A (en) 2010-02-12

Similar Documents

Publication Publication Date Title
JP5161685B2 (en) Gaze measurement apparatus and program
CN102224443B (en) Vehicle display device and display method
US10214062B2 (en) Assisting method and docking assistant for coupling a motor vehicle to a trailer
CN103019524B (en) Vehicle operating input equipment and the control method for vehicle operating input equipment
US8947533B2 (en) Parameter determining device, parameter determining system, parameter determining method, and recording medium
AU2017334261B2 (en) Device, method, and system for assisting with trailer reversing
JP2010018201A (en) Driver assistant device, driver assistant method, and driver assistant processing program
JP6720951B2 (en) Driver status determination device, method and program
US10068143B2 (en) Method for calibrating a camera for a gaze direction detection in a vehicle, device for a motor vehicle having a camera and at least one further element, and computer program product
CN106028913A (en) Display control device, display control method for display control device, gaze direction detecting system, and callibration control method for gaze direction detecting system
EP3545818A1 (en) Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
US11527013B2 (en) Camera parameter estimating device, camera parameter estimating method, and camera parameter estimating program
KR20170060652A (en) Apparatus for matching coordinate of head-up display
JP4319535B2 (en) Face orientation detection device
WO2018042861A1 (en) Vehicle operation system and computer program
JP2007259931A (en) Gaze detection device
US10596966B2 (en) Display device for vehicle and display method for vehicle
WO2018167995A1 (en) Driver state estimation device and driver state estimation method
JP6672972B2 (en) Safe driving support device and safe driving support program
JP6687006B2 (en) Driver determination device, driver state determination device including the same, and methods and programs thereof
US11640199B2 (en) Method for operating an assist system for a vehicle, and assist system
JP2023133535A (en) Imaging device, control method, program and storage medium
WO2013114871A1 (en) Driving assistance device and driving assistance method
US20210107460A1 (en) Vehicle parking assist apparatus
JP2017112566A (en) Parameter identification device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110705

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110705

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121130

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121214

R150 Certificate of patent or registration of utility model

Ref document number: 5161685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees