JP5161685B2 - Gaze measurement apparatus and program - Google Patents
Gaze measurement apparatus and program Download PDFInfo
- Publication number
- JP5161685B2 JP5161685B2 JP2008192001A JP2008192001A JP5161685B2 JP 5161685 B2 JP5161685 B2 JP 5161685B2 JP 2008192001 A JP2008192001 A JP 2008192001A JP 2008192001 A JP2008192001 A JP 2008192001A JP 5161685 B2 JP5161685 B2 JP 5161685B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- data
- sight data
- gaze
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Eye Examination Apparatus (AREA)
Description
本発明は、視線計測装置及びプログラムに係り、特に、自動較正を行う視線計測装置及びプログラムに関する。 The present invention relates to a line-of-sight measurement apparatus and a program, and more particularly, to a line-of-sight measurement apparatus and a program that perform automatic calibration.
従来、例えば車両に視線計測装置を搭載し、ドライバの視線を計測することにより、脇見運転などに対する警報を発する装置が知られている。このような視線計測装置においては、実際の視線方向と計測された視線方向とが一致するように較正することが必要であり、指定された複数の基準点をドライバに順次注視させ、得られた視線方向と実際の注視位置との関係から補正係数を算出することが行われている。 2. Description of the Related Art Conventionally, there is known an apparatus that issues an alarm for a side-view driving or the like by mounting a line-of-sight measurement device on a vehicle and measuring the line of sight of a driver. In such a line-of-sight measurement device, it is necessary to calibrate so that the actual line-of-sight direction and the measured line-of-sight direction coincide with each other. A correction coefficient is calculated from the relationship between the gaze direction and the actual gaze position.
しかし、このような較正処理ではドライバに与える負担が大きい。そこで、例えば、特許文献1記載の視線方向計測装置では、ウィンカレバーやシフトレバーなどの機器の操作が行われた際に操作信号を発生させ、この操作信号が発生しているときに算出された視線データを用いて算出した補正係数により自動較正を行うことが提案されている。特定の機器の操作を行う際に特定の位置への注視(例えば、右ウィンカを操作したときの右サイドミラーへの注視)が増えることを利用したものである。
しかしながら、例えば、右ウィンカをオンしたときに必ずしも右サイドミラーを注視しているとは限らず、特許文献1の視線方向計測装置では、機器の操作が行われてから視線データを蓄積しているため、補正係数を算出するための視線データとして適切でない視線データも多く含まれている可能性がある、という問題があった。 However, for example, when the right winker is turned on, the right side mirror is not always watched. In the gaze direction measuring device of Patent Document 1, the gaze data is accumulated after the device is operated. Therefore, there is a problem that there is a possibility that a lot of line-of-sight data that is not appropriate as line-of-sight data for calculating the correction coefficient may be included.
本発明は、上記問題を解決するために成されたものであり、自動較正する場合でも、特定位置を注視していることの信頼度が高い視線データを用いて補正係数を算出することにより、視線計測の精度を向上させることができる視線計測装置及びプログラムを提供することを目的とする。 The present invention is made in order to solve the above problem, and even when automatic calibration is performed, by calculating a correction coefficient using line-of-sight data with high reliability of gazing at a specific position, An object of the present invention is to provide an eye gaze measuring apparatus and program capable of improving the accuracy of eye gaze measurement.
上記目的を達成するために、本発明の視線計測装置は、機器の操作を行う操作者を撮影して得られた眼領域の画像データに基づいて、前記操作者の視線方向を示す視線データを算出する視線データ算出手段と、前記操作者が前記機器を操作した際の操作データを取得する取得手段と、前記視線データ算出手段で算出された視線データと、前記取得手段で取得された操作データとを時系列に対応付けて記憶する記憶手段と、前記記憶手段に記憶された操作データが取得された前記機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データを、前記記憶手段に記憶された視線データから抽出する抽出手段と、前記抽出手段で抽出された視線データの分布に基づいて得られる前記操作者の注視位置が、前記特定の操作をする際に注視する位置として予め定めた注視位置と一致するように、前記算出手段で算出された視線データを補正するための補正係数を算出する補正係数算出手段と、を含んで構成されている。 In order to achieve the above object, the eye gaze measurement apparatus of the present invention obtains eye gaze data indicating the eye gaze direction of the operator based on image data of an eye area obtained by photographing the operator who operates the device. Line-of-sight data calculation means to calculate, acquisition means for acquiring operation data when the operator operates the device, line-of-sight data calculated by the line-of-sight data calculation means, and operation data acquired by the acquisition means And a line of sight data from a predetermined time before the start time of the specific operation to the device from which the operation data stored in the storage means is acquired to the end time, An extracting unit that extracts the line-of-sight data stored in the storage unit, and the gaze position of the operator obtained based on the distribution of the line-of-sight data extracted by the extracting unit performs the specific operation To match the predetermined fixation position as a position to watch, is configured to include a, a correction coefficient calculating means for calculating a correction coefficient for correcting the gaze data calculated by said calculation means.
また、本発明の視線計測プログラムは、コンピュータを、機器の操作を行う操作者を撮影して得られた眼領域の画像データに基づいて、前記操作者の視線方向を示す視線データを算出する視線データ算出手段と、前記操作者が前記機器を操作した際の操作データを取得する取得手段と、前記視線データ算出手段で算出された視線データと、前記取得手段で取得された操作データとを時系列に対応付けて記憶する記憶手段と、前記記憶手段に記憶された操作データが取得された前記機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データを、前記記憶手段に記憶された視線データから抽出する抽出手段と、前記抽出手段で抽出された視線データの分布に基づいて得られる前記操作者の注視位置が、前記特定の操作をする際に注視する位置として予め定めた注視位置と一致するように、前記算出手段で算出された視線データを補正するための補正係数を算出する補正係数算出手段として機能させるためのプログラムである。 Further, the eye gaze measurement program of the present invention calculates the eye gaze data indicating the eye gaze direction of the operator based on the image data of the eye area obtained by photographing the operator who operates the device. Data calculation means, acquisition means for acquiring operation data when the operator operates the device, line-of-sight data calculated by the line-of-sight data calculation means, and operation data acquired by the acquisition means Storage means for storing in association with a series; line-of-sight data from a predetermined time before the start time of a specific operation to the device from which the operation data stored in the storage means is acquired to an end time is stored in the storage means. The extraction means for extracting from the stored line-of-sight data, and the gaze position of the operator obtained based on the distribution of the line-of-sight data extracted by the extraction means performs the specific operation. To match the predetermined fixation position as a position to watch the a program for functioning as a correction coefficient calculating means for calculating a correction coefficient for correcting the gaze data calculated by said calculation means.
本発明の視線計測装置及びプログラムによれば、視線データ算出手段が、機器の操作を行う操作者を撮影して得られた眼領域の画像データに基づいて、操作者の視線方向を示す視線データを算出することにより視線計測を行う。この視線計測の較正を行うために、取得手段が、操作者が機器を操作した際の操作データを取得し、視線データ算出手段で算出された視線データと、取得手段で取得された操作データとが時系列に対応付けられて記憶手段に記憶される。 According to the line-of-sight measurement apparatus and program of the present invention, the line-of-sight data indicating the line-of-sight direction of the operator based on the image data of the eye area obtained by photographing the operator who operates the device Gaze measurement is performed by calculating. In order to calibrate the line-of-sight measurement, the acquisition unit acquires operation data when the operator operates the device, the line-of-sight data calculated by the line-of-sight data calculation unit, and the operation data acquired by the acquisition unit Are associated with the time series and stored in the storage means.
較正のタイミングで、抽出手段が、記憶手段に記憶された操作データが取得された機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データを、記憶手段に記憶された視線データから抽出し、補正係数算出手段が、抽出手段で抽出された視線データの分布に基づいて得られる操作者の注視位置が、特定の操作をする際に注視する位置として予め定めた注視位置と一致するように、算出手段で算出された視線データを補正するための補正係数を算出する。 At the time of calibration, the extraction means uses the line-of-sight data stored in the storage means for the line-of-sight data from a predetermined time before the start time of the specific operation to the device from which the operation data stored in the storage means was acquired. The gaze position of the operator obtained based on the distribution of the line-of-sight data extracted by the extraction means and the correction coefficient calculation means coincides with the gaze position predetermined as the position to gaze at when performing a specific operation In this manner, a correction coefficient for correcting the line-of-sight data calculated by the calculating means is calculated.
このように、特定の操作の開始時点の所定時間前から終了時点までの視線データを抽出することにより、運転行動などの機器の操作に伴った適切な視線データが抽出されることとなるため、自動較正する場合でも、特定位置を注視していることの信頼度が高い視線データを用いて補正係数を算出することができ、視線計測の精度を向上させることができる。 In this way, by extracting the line-of-sight data from a predetermined time before the start point of the specific operation to the end point, appropriate line-of-sight data associated with the operation of the device such as driving behavior is extracted. Even in the case of automatic calibration, the correction coefficient can be calculated using line-of-sight data with high reliability that a specific position is being watched, and the accuracy of line-of-sight measurement can be improved.
また、本発明の視線計測装置及びプログラムの前記抽出手段は、前記記憶手段に記憶された操作データが取得された前記機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データで、かつ所定領域内に分布している視線データを前記記憶手段に記憶された視線データから抽出するようにすることができる。 In addition, the line-of-sight measurement device and the program of the present invention may be the line-of-sight data from the predetermined time before the start time of the specific operation to the end time of the device for which the operation data stored in the storage means has been acquired. In addition, line-of-sight data distributed in a predetermined area can be extracted from line-of-sight data stored in the storage means.
操作者が特定位置を注視すると視線データが停留するため、視線データの所定領域内への分布が集中する。そこで、記憶手段に記憶された操作データが取得された機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データで、かつ所定領域内に分布している視線データを記憶手段に記憶された視線データから抽出するようにすることにより、視線データに含まれる不安定なデータが除去され、より精度よく補正係数を算出することができる。 When the operator gazes at a specific position, the line-of-sight data stops, and the distribution of the line-of-sight data within a predetermined region is concentrated. Therefore, the line-of-sight data from the predetermined time before the start time of the specific operation to the end of the specific operation for the device from which the operation data stored in the storage means is acquired to the storage means By extracting from the stored line-of-sight data, unstable data included in the line-of-sight data is removed, and the correction coefficient can be calculated more accurately.
以上説明したように、本発明によれば、自動較正する場合でも、特定位置を注視していることの信頼度が高い視線データを用いて補正係数を算出することにより、視線計測の精度を向上させることができるという効果が得られる。 As described above, according to the present invention, even when automatic calibration is performed, the accuracy of line-of-sight measurement is improved by calculating a correction coefficient using line-of-sight data with high reliability that a specific position is being watched. The effect that it can be made is acquired.
以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、本発明の視線計測装置を車両に搭載して、ドライバの視線を計測する場合について説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case where the line-of-sight measurement device of the present invention is mounted on a vehicle and the line of sight of the driver is measured will be described.
図1に示すように、本実施の形態に係る視線計測装置10は、ドライバの目領域を含む顔画像を撮影するカメラ12、ドライバの運転行動を含む機器の操作を検出する操作センサ14、及びドライバの機器の操作に基づいて視線計測の較正を行う制御を実行するコンピュータ16を備えている。
As shown in FIG. 1, the line-of-
カメラ12は、ドライバの顔画像を撮影し、画像信号を生成する撮影部、撮影部で生成されたアナログ信号である画像信号をデジタル信号に変換するA/D変換部、及びA/D変換された画像信号を一時的に格納するための画像メモリを備えている。
The
操作センサ14は、ドライバの運転行動を含む機器の操作を検出するもので、例えば、ウィンカ操作を検出するウィンカセンサ、ステアリングの操舵量を検出する操舵角センサ、ブレーキペダルの踏込み量を検出するブレーキセンサ、アクセルペダルの踏込み量を検出するアクセルセンサ、車両の速度を検出する速度センサ、及びシフトレバーの設定を検出するシフトレバーセンサなどの運転行動に伴った機器の操作を検出する各種センサや、カーオーディオ、カーエアコン、及びカーナビゲーションなどの機器が操作されたことを検出する各種センサが含まれる。
The
コンピュータ16は、視線計測装置10全体の制御を司るCPU24、後述する補正係数算出処理のプログラム等各種プログラムを記憶した記憶媒体としてのROM26、ワークエリアとしてデータを一時格納するRAM28、各種情報が記憶された記憶手段としてのメモリ30、I/O(入出力)ポート32、及びこれらを接続するバスを含んで構成されている。I/Oポート32には、カメラ12、及び操作センサ14が接続されている。
The
次に、図2を参照して、本実施の形態における補正係数算出プログラムの処理ルーチンについて説明する。 Next, the processing routine of the correction coefficient calculation program in the present embodiment will be described with reference to FIG.
ステップ100で、カメラ12で時刻Tに撮影した画像を取り込み、次に、ステップ102で、取り込んだ画像の画像データに基づいて、視線データを算出する。ここで、視線データは、ドライバが略正面を注視している場合の視線角度を基準として、水平方向の視線角度φ、及び鉛直方向の視線角度θで表される視線方向を示すデータである。視線方向の計測は、取り込んだ画像の眼領域の画像データから抽出される画像特徴に基づいて計測する。また、1台以上のカメラによって運転者の顔映像を撮影し、画像処理によって目や鼻など顔の特徴部分を検出し、特徴部分の位置情報や変位置などから視線方向を計測するようにしてもよい。
In
次に、ステップ104で、操作センサ14で検出した時刻Tにおけるウィンカの状態、ステアリング操舵角、ブレーキペダルの踏込み量、アクセルペダルの踏込み量、車速、シフトレバーの状態、カーオーディオ、カーステレオ、カーナビゲーションなどの操作状態などを示す操作データを取り込む。
Next, in
次に、ステップ106で、ステップ102で算出した時刻Tにおける視線データと、ステップ104で取り込んだ時刻Tにおける操作データとを対応付けて、メモリ30の所定領域に記憶する。
Next, in
次に、ステップ108で、補正係数を算出して視線計測の較正を行うタイミングか否かを判断する。この判断は、エンジンがかけられてから所定時間以上経過したか否かで判断したり、前回較正を行ってから所定時間以上経過したか否かで判断したりすることができる。また、メモリ30の所定領域に記憶された操作データのうち、特定の操作データ、例えば、右ウィンカがオフからオンへ変化したことを示す操作データが所定回数以上となった場合に、較正を行うタイミングであると判断するようにしてもよい。較正を行うタイミングの場合には、ステップ110へ進み、較正の行うタイミングではない場合には、ステップ100へ戻って、視線データ及び操作データの蓄積を繰り返す。
Next, in
ステップ110で、特定の操作が行われたときの操作データに対応する視線データを抽出する。特定の操作としては、その特定の操作のためにドライバが一連の動作行う間に、特定位置への注視を伴うものであればよく、例えば、バックミラーや右サイドミラーへの注視を伴う左車線から右車線への車線変更を特定の操作とすることができる。
In
左車線から右車線への車線変更を行う場合には、右ウィンカをオンし、ステアリングを右回転し、その後ステアリングを左回転して直進状態に戻す、という運転行動がとられる。そこで、メモリ30に記憶された操作データから、この運転行動に対応する操作データを、右ウィンカの状態や操舵角を示す操作データに基づいて検索し、検索されたこの一連の操作データの中で、右ウィンカがオンされた時点(T=t1)、及び操舵角が右回転を示す値となり、その後操舵角が略0(直進状態)となった時点(T=t2)を確認し、(t1−Δt)からt2までの視線データを抽出する。
When changing the lane from the left lane to the right lane, the driving action is taken such that the right turn signal is turned on, the steering is rotated to the right, and then the steering is rotated to the left to return to the straight traveling state. Therefore, the operation data stored in the
ここで、視線データの抽出の開始時点を(t1−Δt)としたのは、ある特定の操作を行う前から、その特定の操作に関連する特定位置への注視が増える場合も多いため、この間の視線データも抽出できるようにしたものである。例えば、上記の車線変更の場合には、バックミラーやサイドミラーを確認してから、右ウィンカをオンする、という運転行動がとられる場合も多いと考えられるため、右ウィンカをオンした時点t1の所定時間Δt前からの視線データを抽出する。これにより、特定位置であるバックミラーやサイドミラーを注視している場合の視線データをより多く抽出することができる。 Here, the point of time when the line-of-sight data extraction is started is (t1−Δt), since there are many cases in which gaze at a specific position related to the specific operation increases before performing a specific operation. The line-of-sight data can be extracted. For example, in the case of the above lane change, it is considered that there is often a driving action of turning on the right winker after confirming the rearview mirror and the side mirror, so at the time t1 when the right winker is turned on. The line-of-sight data from before the predetermined time Δt is extracted. As a result, more line-of-sight data can be extracted when the rear-view mirror or side mirror at the specific position is being watched.
図3に、横軸に水平方向の視線角度φ、縦軸に鉛直方向の視線角度θをとり、視線データをプロットした図の一例を示す。同図(A)は、ステップ108の時点で蓄積されている視線データの全部をプロットしたもので、同図(B)は、ステップ110の処理により、特定の操作(ここでは、左車線から右車線への車線変更)を行ったときの操作データに対応して抽出された視線データをプロットしたものである。このように、視線データの全部をプロットすると、視線データが広い範囲に大きく分布するが、特定の操作データに対応した視線データのみをプロットすると、ある程度局所的に視線データが分布する。
FIG. 3 shows an example of a plot in which the line-of-sight data is plotted with the horizontal axis of sight angle φ in the horizontal axis and the vertical axis of sight angle θ in the vertical axis. FIG. 6A is a plot of all the line-of-sight data accumulated at the time of
同図(B)では、大きく分けて3つの領域に視線データが分布しており、φ=0、及びθ=0の近傍の所定領域に分布している視線データは、略正面を注視している際の視線データであると考えられる。車線変更の際に、バックミラーやサイドミラーで後方を確認する動作が頻繁に行われることを考慮すると、正面との位置関係から、左上部の所定領域にはバックミラーを注視している視線データが多く分布していると考えられ、また、右下部の所定領域にはサイドミラーを注視している視線データが多く分布していると考えられる。 In FIG. 6B, the line-of-sight data is distributed roughly in three areas. The line-of-sight data distributed in a predetermined area in the vicinity of φ = 0 and θ = 0 is obtained by paying close attention to the front. It is thought that it is the line-of-sight data at the time of being. When changing lanes, taking into account the frequent operation of confirming the rear with the rearview mirror and side mirror, the line-of-sight data gazing at the rearview mirror in a predetermined area in the upper left from the positional relationship with the front It is considered that a large amount of eye gaze data is distributed, and it is considered that a large amount of line-of-sight data gazing at the side mirror is distributed in a predetermined area at the lower right.
次に、ステップ112で、停留している視線データを抽出する。計測される視線データには、正面と特定の注視位置との間を視線が移動しているときの視線データも含まれる。また、計測装置の精度やドライバの挙動などによっても、視線データの分布ばらつきが生じる。そこで、正面、及び特定の注視位置に視線が停留している視線データのみを抽出することで、所定領域に分布している視線データを抽出する。
Next, in
具体的には、所定区間内(T=t(n)〜T=t(n+M))のM個の視線データに対して、(1)式により、その区間内の2つの視線データ間のユークリッド距離を、すべての視線データの組み合わせについて求め、その最大値が所定値以下の場合に、その区間の視線データを停留している視線データとする。 Specifically, for M line-of-sight data in a predetermined section (T = t (n) to T = t (n + M)), Euclidean between the two line-of-sight data in the section is obtained by the expression (1). The distance is obtained for all the combinations of the line-of-sight data, and when the maximum value is equal to or less than the predetermined value, the line-of-sight data in the section is set as the stopped line-of-sight data.
ただし、xiは、T=iのときの視線データのベクトル(φi,θi)、xjは、T=jのときの視線データのベクトル(φj,θj)、Cは、所定値である。 However, x i is a line-of-sight data vector (φ i , θ i ) when T = i , x j is a line-of-sight data vector (φ j , θ j ) when T = j, and C is a predetermined value Value.
図3(C)に、同図(B)にプロットされた視線データから停留している視線データのみをプロットした状態を示す。同図(B)に比べ、所定領域への視線データの分布がより明確となっている。 FIG. 3C shows a state where only the line-of-sight data that is stationary from the line-of-sight data plotted in FIG. 3B is plotted. Compared to FIG. 5B, the distribution of the line-of-sight data to the predetermined area is clearer.
次に、ステップ114で、特定の操作データに対応する視線データで、所定領域に分布している視線データの分布の中心位置を、特定の注視位置として算出する。上記車線変更の場合では、バックミラー、及び右サイドミラーの位置が特定の注視位置である。図3(C)に示す視線データの分布は、正面を含む3つの正規分布の混合により形成されていると仮定して、EMアルゴリズムを用いて、3つの正規分布の各平均ベクトルを求め、それらを注視位置である正面、バックミラー、及び右サイドミラーの位置とする。なお、注視位置の算出は、EMアルゴリズムを用いる場合に限らず、k−means法などを用いてもよい。
Next, in
次に、ステップ116で、ステップ114で算出した注視位置が、予め定めた既知の注視位置と一致するように、補正係数を算出する。
Next, in
算出される視線データと基準時の視線データとの間には、平行移動、拡大縮小、及び回転によるずれが生じる。平行移動は、頭部位置が基準時の位置より左右、及び上下に移動した場合に、視線データも平行移動することにより生じるずれで、計測された視線を(x,y)、及び水平方向への平行移動成分をc、及び鉛直方向への平行移動成分をdとすると、較正後の視線(x’,y’)は(2)式で表される。 A shift due to parallel movement, enlargement / reduction, and rotation occurs between the calculated line-of-sight data and the reference line-of-sight data. The parallel movement is a shift caused by the parallel movement of the line-of-sight data when the head position moves left and right and up and down from the reference position, and the measured line-of-sight is moved in the (x, y) and horizontal directions. Let c be the translation component and d be the translation component in the vertical direction, and the line of sight after calibration (x ′, y ′) is expressed by equation (2).
拡大縮小は、頭部位置が基準時の位置より前後に移動した場合に、視線データの分布が拡大縮小することにより生じるずれで、拡大縮小率をαとすると、較正後の視線(x’,y’)は(3)式で表される。 The enlargement / reduction is a shift caused by the enlargement / reduction of the distribution of the line-of-sight data when the head position moves back and forth from the reference position. If the enlargement / reduction ratio is α, the line of sight after calibration (x ′, y ′) is expressed by equation (3).
回転は、車両が左右に傾いた場合などに、ドライバとカメラ12との相対位置の変化により生じるずれで、回転角度をψとすると、較正後の視線(x’,y’)は(4)式で表される。
Rotation is a shift caused by a change in the relative position between the driver and the
これら(2)式〜(4)式を組み合わせて、較正用パラメータ(a,b,c,d)からなるヘルマート相似変換と呼ばれる(5)式に示す行列Hを算出する。 By combining these equations (2) to (4), a matrix H shown in equation (5) called Helmart similarity transformation consisting of calibration parameters (a, b, c, d) is calculated.
算出されたバックミラーの注視位置を(xb,yb)、及び右サイドミラーの注視位置を(xr,yr)とすると、基準となるバックミラーの既知の注視位置(x’b,y’b)、及び右サイドミラーの既知の注視位置(x’r,y’r)は、(6)式で表される。 Assuming that the calculated gaze position of the rearview mirror is (xb, yb) and the gaze position of the right side mirror is (xr, yr), the known gaze position (x′b, y′b) of the reference rearview mirror , And the known gaze position (x′r, y′r) of the right side mirror are expressed by the equation (6).
(6)式により、行列Hの較正用パラメータ(a,b,c,d)を算出して、処理を終了する。なお、計測された視線データ(φ,θ)は、算出され較正パラメータ(行列H)を用いて、(7)式により較正され、較正後の視線データ(φ’,θ’)が得られる。 The calibration parameters (a, b, c, d) of the matrix H are calculated from the equation (6), and the process is terminated. The measured line-of-sight data (φ, θ) is calculated and calibrated by the equation (7) using the calibration parameter (matrix H), and calibrated line-of-sight data (φ ′, θ ′) is obtained.
なお、上記処理を実行するためのコンピュータ16をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図4に示すように、カメラ12で撮影した画像データを取得する画像取得部34、画像取得部で取得した画像データに基づいて視線データを算出する視線データ算出部36、操作センサ14で検出される操作データを取得する操作データ取得部38、視線データ算出部で算出された視線データ、及び操作データ取得部で取得された操作データを時系列に対応付けて記憶するデータ蓄積部40、データ蓄積部に記憶された視線データの中から、特定の操作データに対応し、かつ所定領域に分布する視線データを抽出する視線データ抽出部42、及び抽出した視線データの分布に基づいて注視位置を算出し、その注視位置が特定の操作に対して予め定めた注視位置に一致するように視線データを補正するための補正係数を算出する補正係数算出部44を含んだ構成で表すことができる。
In addition, if the
このように、本実施の形態では、特定の操作の開始時点の所定時間前から終了時点までの視線データで、かつ所定領域内に分布する視線データを用いるため、信頼度が高い視線データを用いて補正係数を算出することができ、視線計測の精度を向上させることができる。 As described above, in the present embodiment, since the line-of-sight data from the predetermined time before the start time of the specific operation to the end time is used and the line-of-sight data distributed in the predetermined region is used, the line-of-sight data with high reliability is used. Thus, the correction coefficient can be calculated, and the accuracy of eye gaze measurement can be improved.
なお、本実施の形態では、バックミラー及びサイドミラーの位置を用いて較正用パラメータを算出する場合について説明したが、ステップ114で算出される正面の注視位置も含めて較正用パラメータを算出するようにしてもよい。
In the present embodiment, the case where the calibration parameters are calculated using the positions of the rearview mirror and the side mirror has been described. However, the calibration parameters including the front gaze position calculated in
また、本実施の形態では、特定の操作を左車線から右車線への車線変更として、特定の注視位置がバックミラー及び右サイドミラーである場合について説明したが、特定の操作に対して特定の注視位置が推定できる場合であればよく、例えば、特定の操作を右車線から左車線への車線変更として、特定の注視位置をバックミラー及び左サイドミラーとしたり、特定の操作をアクセルペダルを所定値以上踏み込んだときとして、特定の注視位置をスピードメータとしたりしてもよい。 In the present embodiment, the specific operation is changed from the left lane to the right lane, and the specific gaze position is the rearview mirror and the right side mirror. It is sufficient if the gaze position can be estimated. For example, the specific operation is changed from the right lane to the left lane, the specific gaze position is set to the rear view mirror and the left side mirror, or the specific operation is performed with an accelerator pedal. A specific gaze position may be used as a speedometer when stepping over a value.
また、本実施の形態では、停留している視線データの抽出方法として、所定区間に含まれる視線データのユークリッド距離の最大値が所定値以下か否かで判断する場合について説明したが、所定領域に分布している視線データを抽出できればよく、例えば、所定区間内に含まれるM個の視線データの分散値を算出し、その値が所定値以下であればその区間の視線データを停留している視線データとして判断するようにしてもよい。また、視線計測の際に、視線データの信頼度が付与される方法を用いる場合には、その信頼度が所定置以上の視線データを利用するようにしてもよい。 Further, in the present embodiment, as a method of extracting stationary line-of-sight data, a case has been described in which it is determined whether or not the maximum value of the Euclidean distance of line-of-sight data included in a predetermined section is equal to or less than a predetermined value. If, for example, a variance value of M gaze data included in a predetermined section is calculated and the value is equal to or less than a predetermined value, the gaze data in that section is stopped. It may be determined as the line-of-sight data. In addition, when using a method in which the reliability of the line-of-sight data is given at the time of line-of-sight measurement, the line-of-sight data having a reliability higher than a predetermined position may be used.
また、本実施の形態では、本発明の視線計測装置を車両に搭載してドライバの視線を計測する場合について説明したが、例えば、本発明の視線計測装置を飛行機の操縦席に設け、パイロットの視線を計測し、パイロットの操作に対応して注視される操作機器や計器類を既知の注視位置とすることもできる。 Further, in the present embodiment, the case where the line-of-sight measuring device of the present invention is mounted on a vehicle and the driver's line-of-sight is measured has been described. For example, the line-of-sight measuring device of the present invention is provided in an airplane cockpit and It is also possible to measure the line of sight and set the operating devices and instruments to be watched in response to the pilot's operation as known gaze positions.
また、このような乗り物の操作以外にも、本発明の視線計測装置を適用することができる。他の実施の形態として、ゲーム機器に本発明を適用した場合について説明する。構成は上記の実施の形態と同様である。 In addition to the operation of such a vehicle, the line-of-sight measurement device of the present invention can be applied. As another embodiment, a case where the present invention is applied to a game machine will be described. The configuration is the same as in the above embodiment.
ゲームの種類やモードの選択をユーザに促すために、画面にその種類やモードに対応したアイコンを表示する場合、アイコンの表示位置は既知であるため、基準時の注視位置が定まる。また、ユーザがコントローラなどを操作して所望のアイコンを選択する場合、ユーザはそのアイコンを注視する。したがって、アイコンが選択された際に検出される選択信号を操作データとし、アイコンが選択された際の視線データと対応付けて記憶しておく。記憶した視線データと操作データとに基づいて、上記の実施の形態と同様の処理により補正係数を算出することができる。 When an icon corresponding to the type or mode is displayed on the screen in order to prompt the user to select a game type or mode, the gaze position at the reference time is determined because the icon display position is known. When the user operates the controller or the like to select a desired icon, the user gazes at the icon. Therefore, the selection signal detected when the icon is selected is used as operation data, and is stored in association with the line-of-sight data when the icon is selected. Based on the stored line-of-sight data and operation data, the correction coefficient can be calculated by the same processing as in the above embodiment.
例えば、ゲーム機器の電源がオンされるなどのタイミングで画像データの取り込みを開始して視線データを算出する。そして、画面右端にレースゲームを選択するアイコン、画面左端にシューティングゲームを選択するためのアイコン、画面中央に野球ゲームを選択するためのアイコンが表示されている場合に、選択結果を示す信号を操作データとして取り込む。較正のタイミングになった場合には、操作データから野球ゲームを選択した操作データを検索し、その操作データを取得した時点t1の所定時間Δt前から所定時点t2までの視線データを抽出する。t2は、次の操作データを取得した時点などにすることができる。そして、抽出した視線データから算出される注視位置と、野球ゲームを選択するためのアイコンの既知の注視位置とに基づいて、補正係数を算出する。同様に、レースゲームを選択した操作データとレースゲームを選択するアイコンの既知の注視位置を用いてもよいし、シューティングゲームを選択した操作データとシューティングゲームを選択するアイコンの既知の注視位置を用いてもよい。 For example, the capturing of image data is started at the timing when the power of the game device is turned on and the line-of-sight data is calculated. When the icon for selecting a racing game is displayed at the right end of the screen, the icon for selecting a shooting game is displayed at the left end of the screen, and the icon for selecting a baseball game is displayed at the center of the screen, a signal indicating the selection result is operated. Import as data. When the calibration timing is reached, the operation data for selecting the baseball game is searched from the operation data, and the line-of-sight data from the predetermined time Δt before the time t1 when the operation data is acquired to the predetermined time t2 is extracted. t2 can be the time when the next operation data is acquired. Then, the correction coefficient is calculated based on the gaze position calculated from the extracted line-of-sight data and the known gaze position of the icon for selecting the baseball game. Similarly, the operation data for selecting the racing game and the known gaze position of the icon for selecting the racing game may be used, or the operation data for selecting the shooting game and the known gaze position of the icon for selecting the shooting game may be used. May be.
このような場合は、特に、特定の操作を行う前に特定の位置を注視している可能性が高いため、特定の操作の開始時点の所定時間前からの視線データを抽出することで、より効果的に適切な視線データを抽出することができる。 In such a case, there is a high possibility that the user is gazing at a specific position before performing a specific operation, so it is more possible to extract line-of-sight data from a predetermined time before the start of the specific operation. Appropriate line-of-sight data can be extracted effectively.
10 視線計測装置
12 カメラ
14 操作センサ
16 コンピュータ
34 画像取得部
36 視線データ算出部
38 操作データ取得部
40 データ蓄積部
42 視線データ抽出部
44 補正係数算出部
DESCRIPTION OF
Claims (4)
前記操作者が前記機器を操作した際の操作データを取得する取得手段と、
前記視線データ算出手段で算出された視線データと、前記取得手段で取得された操作データとを時系列に対応付けて記憶する記憶手段と、
前記記憶手段に記憶された操作データが取得された前記機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データを、前記記憶手段に記憶された視線データから抽出する抽出手段と、
前記抽出手段で抽出された視線データの分布に基づいて得られる前記操作者の注視位置が、前記特定の操作をする際に注視する位置として予め定めた注視位置と一致するように、前記算出手段で算出された視線データを補正するための補正係数を算出する補正係数算出手段と、
を含む視線計測装置。 Line-of-sight data calculating means for calculating line-of-sight data indicating the line-of-sight direction of the operator based on image data of an eye area obtained by photographing an operator who operates the device;
Obtaining means for obtaining operation data when the operator operates the device;
Storage means for storing line-of-sight data calculated by the line-of-sight data calculation means and operation data acquired by the acquisition means in association with each other in time series;
Extraction means for extracting line-of-sight data from a predetermined time before the start time of a specific operation to the end time of the specific operation for the device from which the operation data stored in the storage means has been acquired from line-of-sight data stored in the storage means; ,
The calculation means such that the gaze position of the operator obtained based on the distribution of the line-of-sight data extracted by the extraction means coincides with a gaze position predetermined as a position to gaze at the specific operation. Correction coefficient calculating means for calculating a correction coefficient for correcting the line-of-sight data calculated in
Eye gaze measuring device including
機器の操作を行う操作者を撮影して得られた眼領域の画像データに基づいて、前記操作者の視線方向を示す視線データを算出する視線データ算出手段と、
前記操作者が前記機器を操作した際の操作データを取得する取得手段と、
前記視線データ算出手段で算出された視線データと、前記取得手段で取得された操作データとを時系列に対応付けて記憶する記憶手段に記憶された操作データが取得された前記機器に対する特定の操作の開始時点の所定時間前から終了時点までの視線データを、前記記憶手段に記憶された視線データから抽出する抽出手段と、
前記抽出手段で抽出された視線データの分布に基づいて得られる前記操作者の注視位置が、前記特定の操作をする際に注視する位置として予め定めた注視位置と一致するように、前記算出手段で算出された視線データを補正するための補正係数を算出する補正係数算出手段と、
して機能させるための視線計測プログラム。 Computer
Line-of-sight data calculating means for calculating line-of-sight data indicating the line-of-sight direction of the operator based on image data of an eye area obtained by photographing an operator who operates the device;
Obtaining means for obtaining operation data when the operator operates the device;
A specific operation for the device from which the operation data stored in the storage unit that stores the line-of-sight data calculated by the line-of-sight data calculation unit and the operation data acquired by the acquisition unit in association with each other in time series is acquired. Extraction means for extracting line-of-sight data from a predetermined time before the start time to the end time from line-of-sight data stored in the storage means;
The calculation means such that the gaze position of the operator obtained based on the distribution of the line-of-sight data extracted by the extraction means coincides with a gaze position predetermined as a position to gaze at the specific operation. Correction coefficient calculating means for calculating a correction coefficient for correcting the line-of-sight data calculated in
Gaze measurement program to make it function.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008192001A JP5161685B2 (en) | 2008-07-25 | 2008-07-25 | Gaze measurement apparatus and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008192001A JP5161685B2 (en) | 2008-07-25 | 2008-07-25 | Gaze measurement apparatus and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2010029262A JP2010029262A (en) | 2010-02-12 |
| JP5161685B2 true JP5161685B2 (en) | 2013-03-13 |
Family
ID=41734480
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008192001A Expired - Fee Related JP5161685B2 (en) | 2008-07-25 | 2008-07-25 | Gaze measurement apparatus and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP5161685B2 (en) |
Families Citing this family (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5854553B2 (en) * | 2011-10-18 | 2016-02-09 | 富士電機株式会社 | Visual inspection support device and control method of visual inspection support device |
| WO2013059940A1 (en) * | 2011-10-27 | 2013-05-02 | Tandemlaunch Technologies Inc. | System and method for calibrating eye gaze data |
| JP6187155B2 (en) * | 2013-10-28 | 2017-08-30 | 株式会社デンソーアイティーラボラトリ | Gaze target estimation device |
| WO2015064080A1 (en) * | 2013-11-01 | 2015-05-07 | パナソニックIpマネジメント株式会社 | Gaze direction-detecting device and gaze direction-detecting method |
| JP6547268B2 (en) * | 2014-10-02 | 2019-07-24 | 富士通株式会社 | Eye position detection device, eye position detection method and eye position detection program |
| JP2016099718A (en) * | 2014-11-19 | 2016-05-30 | 株式会社デンソー | Visual line direction area setting device and visual line direction area setting system |
| JP6536443B2 (en) * | 2016-03-18 | 2019-07-03 | アイシン・エィ・ダブリュ株式会社 | Eye-gaze learning system and eye-gaze learning program |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3785669B2 (en) * | 1996-03-05 | 2006-06-14 | 日産自動車株式会社 | Gaze direction measuring device |
| JP2000005130A (en) * | 1998-06-19 | 2000-01-11 | Nippon Hoso Kyokai <Nhk> | Eye movement measurement method and apparatus |
| JP3716647B2 (en) * | 1998-11-11 | 2005-11-16 | 日産自動車株式会社 | Safety promotion device for automobile |
| JP2001194161A (en) * | 2000-01-11 | 2001-07-19 | Alpine Electronics Inc | Eye movement detection information presentation device |
| JP5044237B2 (en) * | 2006-03-27 | 2012-10-10 | 富士フイルム株式会社 | Image recording apparatus, image recording method, and image recording program |
-
2008
- 2008-07-25 JP JP2008192001A patent/JP5161685B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| JP2010029262A (en) | 2010-02-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5161685B2 (en) | Gaze measurement apparatus and program | |
| CN102224443B (en) | Vehicle display device and display method | |
| US10214062B2 (en) | Assisting method and docking assistant for coupling a motor vehicle to a trailer | |
| CN103019524B (en) | Vehicle operating input equipment and the control method for vehicle operating input equipment | |
| US8947533B2 (en) | Parameter determining device, parameter determining system, parameter determining method, and recording medium | |
| AU2017334261B2 (en) | Device, method, and system for assisting with trailer reversing | |
| JP2010018201A (en) | Driver assistant device, driver assistant method, and driver assistant processing program | |
| JP6720951B2 (en) | Driver status determination device, method and program | |
| US10068143B2 (en) | Method for calibrating a camera for a gaze direction detection in a vehicle, device for a motor vehicle having a camera and at least one further element, and computer program product | |
| CN106028913A (en) | Display control device, display control method for display control device, gaze direction detecting system, and callibration control method for gaze direction detecting system | |
| EP3545818A1 (en) | Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program | |
| US11527013B2 (en) | Camera parameter estimating device, camera parameter estimating method, and camera parameter estimating program | |
| KR20170060652A (en) | Apparatus for matching coordinate of head-up display | |
| JP4319535B2 (en) | Face orientation detection device | |
| WO2018042861A1 (en) | Vehicle operation system and computer program | |
| JP2007259931A (en) | Gaze detection device | |
| US10596966B2 (en) | Display device for vehicle and display method for vehicle | |
| WO2018167995A1 (en) | Driver state estimation device and driver state estimation method | |
| JP6672972B2 (en) | Safe driving support device and safe driving support program | |
| JP6687006B2 (en) | Driver determination device, driver state determination device including the same, and methods and programs thereof | |
| US11640199B2 (en) | Method for operating an assist system for a vehicle, and assist system | |
| JP2023133535A (en) | Imaging device, control method, program and storage medium | |
| WO2013114871A1 (en) | Driving assistance device and driving assistance method | |
| US20210107460A1 (en) | Vehicle parking assist apparatus | |
| JP2017112566A (en) | Parameter identification device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110705 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20110705 |
|
| TRDD | Decision of grant or rejection written | ||
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121130 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121204 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121214 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 5161685 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151221 Year of fee payment: 3 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |