[go: up one dir, main page]

JP5716345B2 - Correction value calculation apparatus, correction value calculation method, and correction value calculation program - Google Patents

Correction value calculation apparatus, correction value calculation method, and correction value calculation program Download PDF

Info

Publication number
JP5716345B2
JP5716345B2 JP2010226904A JP2010226904A JP5716345B2 JP 5716345 B2 JP5716345 B2 JP 5716345B2 JP 2010226904 A JP2010226904 A JP 2010226904A JP 2010226904 A JP2010226904 A JP 2010226904A JP 5716345 B2 JP5716345 B2 JP 5716345B2
Authority
JP
Japan
Prior art keywords
line
subject
sight
correction value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010226904A
Other languages
Japanese (ja)
Other versions
JP2012080910A (en
Inventor
智 雨宮
智 雨宮
酒井 覚
覚 酒井
西山 陽二
陽二 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010226904A priority Critical patent/JP5716345B2/en
Publication of JP2012080910A publication Critical patent/JP2012080910A/en
Application granted granted Critical
Publication of JP5716345B2 publication Critical patent/JP5716345B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Description

本発明は、補正値を算出する補正値算出装置、補正値算出方法および補正値算出プログラムに関する。   The present invention relates to a correction value calculation device, a correction value calculation method, and a correction value calculation program for calculating a correction value.

人の視線を検出する技術として、近赤外線を対象者の眼球に照射して、角膜表面における反射像の位置から得られる角膜曲率中心と瞳孔中心から視線を検出するものがある。しかし、角膜表面における反射像を利用して検出される視線(以下、「仮の視線」という)と、実際の視線との間には、対象者に固有の誤差が生じる。   As a technique for detecting a person's line of sight, there is a technique of irradiating a subject's eyeball with near infrared rays and detecting the line of sight from the center of corneal curvature obtained from the position of a reflected image on the corneal surface and the center of the pupil. However, an error peculiar to the subject is generated between a line of sight detected using a reflection image on the corneal surface (hereinafter referred to as “temporary line of sight”) and an actual line of sight.

対象者に固有の誤差の発生要因としては、例えば、角膜表面における光の屈折率、眼球形状、眼球中心に対する中心窩のズレなどの個人差がある。そのため、実際の視線と仮の視線との誤差を補正するために、キャリブレーションと呼ばれる仮の視線を補正するための処理が行われる。キャリブレーションでは、対象者に固有の補正値を用いて仮の視線を補正する。   Factors causing the error inherent to the subject include individual differences such as the refractive index of light on the cornea surface, the eyeball shape, and the deviation of the fovea from the center of the eyeball. Therefore, in order to correct an error between the actual visual line and the temporary visual line, a process for correcting the temporary visual line called calibration is performed. In the calibration, a temporary line of sight is corrected using a correction value unique to the subject.

従来、対象者に固有の補正値は、視線検出前の段階に対象者の協力の下で行われる事前手続において求める。事前手続では、画面上に表示される複数のマーカを順に注視するように対象者に指示する。そして、事前手続では、対象者が指示されたマーカを注視した際の仮の視線と、対象者の眼球からマーカに向かう視線との誤差から補正値を算出する。   Conventionally, the correction value unique to the subject is obtained in a pre-procedure performed under the cooperation of the subject before the eye-gaze detection. In the pre-procedure, the subject is instructed to watch the plurality of markers displayed on the screen in order. In the pre-procedure, a correction value is calculated from an error between a temporary line of sight when the subject gazes at the instructed marker and a line of sight from the eyeball of the subject toward the marker.

一方で、事前手続は、対象者の協力の下に行われるため、対象者に負担がかかるとともに、対象者の視線の検出を開始するまでに時間がかかってしまう。そこで、従来において、事前手続を行うことなく、対象者の視線を検出するための技術が各種開示されている。   On the other hand, since the pre-procedure is performed in cooperation with the target person, it takes a burden on the target person and it takes time to start detecting the line of sight of the target person. Therefore, conventionally, various techniques for detecting the line of sight of the subject without performing a preliminary procedure have been disclosed.

特開2005−261728号公報JP 2005-261728 A 特開2003−79577号公報JP 2003-79777 A 特開2002−301030号公報JP 2002-301030 A

しかしながら、上述した従来技術によれば、画面に表示される任意の画像を見ている対象者の視線検出中に、対象者の個人差にともなう誤差を補正するための補正値を求めることが難しいという問題がある。   However, according to the above-described prior art, it is difficult to obtain a correction value for correcting an error due to individual differences of the target person while detecting the line of sight of the target person who is viewing an arbitrary image displayed on the screen. There is a problem.

本発明は、上述した従来技術による問題点を解消するため、対象者の個人差にともなう視線の誤差を正確に補正するための補正値を求めることができる補正値算出装置、補正値算出方法および補正値算出プログラムを提供することを目的とする。   In order to solve the above-described problems caused by the prior art, the present invention provides a correction value calculating apparatus, a correction value calculating method, and a correction value calculating method capable of obtaining a correction value for accurately correcting an eye-gaze error due to individual differences among subjects. An object is to provide a correction value calculation program.

上述した課題を解決し、目的を達成するため、開示の補正値算出装置、補正値算出方法および補正値算出プログラムは、被写体の眼の撮影画像に基づく、表示装置の画面に表示された表示画像上の前記被写体の視線位置を取得し、前記表示画像を区切って分割された区画群の中から、取得された前記被写体の視線位置を含む区画を検索し、検索された区画に含まれる画素の画素値に基づいて、前記区画内の領域ごとの特徴を抽出した特徴量を算出し、算出された領域ごとの特徴量に基づいて、前記区画内の複数の領域のいずれかの領域を、前記被写体が注視している注視点に決定し、前記区画ごとに、取得された前記被写体の視線位置と、決定された前記区画内の注視点の座標位置とを関連付け、前記区画ごとの関連付け結果のうち複数の区画の関連付け結果に基づいて、前記被写体に固有の補正値を算出する。   In order to solve the above-described problems and achieve the object, a disclosed correction value calculation device, correction value calculation method, and correction value calculation program are displayed on a screen of a display device based on a photographed image of a subject's eye. The line-of-sight position of the subject is acquired, and a section including the acquired line-of-sight position of the subject is searched from a group of sections divided by dividing the display image, and pixels included in the searched section Based on the pixel value, a feature amount obtained by extracting features for each region in the partition is calculated, and based on the calculated feature amount for each region, any one of the plurality of regions in the partition is The gazing point that the subject is gazing at is determined, and for each section, the acquired gaze position of the subject is associated with the determined coordinate position of the gazing point within the section, and the association result for each section Multiple wards Based on the association result, and calculates a unique compensation value to said subject.

本補正値算出装置、補正値算出方法および補正値算出プログラムによれば、対象者の個人差にともなう視線の誤差を正確に補正するための補正値を求めることができるという効果を奏する。   According to the present correction value calculation device, correction value calculation method, and correction value calculation program, there is an effect that a correction value for accurately correcting a line-of-sight error due to individual differences among subjects can be obtained.

実施の形態1にかかる補正値算出装置が適用されるシステムの一実施例を示す説明図である。It is explanatory drawing which shows one Example of the system with which the correction value calculation apparatus concerning Embodiment 1 is applied. 実施の形態1にかかる補正値算出装置の補正値算出処理の一実施例を示す説明図である。FIG. 10 is an explanatory diagram illustrating an example of correction value calculation processing of the correction value calculation apparatus according to the first embodiment; 実施の形態2にかかる視線検出装置のハードウェア構成の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of a hardware configuration of a visual line detection device according to a second exemplary embodiment. ディスプレイの外観の一例を示す説明図である。It is explanatory drawing which shows an example of the external appearance of a display. 視線検出に使用する座標系の一例を示す説明図である。It is explanatory drawing which shows an example of the coordinate system used for a visual line detection. 視線検出装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a gaze detection apparatus. 眼球画像の具体例を示す説明図である。It is explanatory drawing which shows the specific example of an eyeball image. 特徴量テーブルの記憶内容の一例を示す説明図である。It is explanatory drawing which shows an example of the memory content of a feature-value table. ベクトルペアテーブルの記憶内容の一例を示す説明図である。It is explanatory drawing which shows an example of the memory content of a vector pair table. パラメータテーブルの記憶内容の一例を示す説明図である。It is explanatory drawing which shows an example of the memory content of a parameter table. 視線検出結果の具体例を示す説明図である。It is explanatory drawing which shows the specific example of a gaze detection result. 区画内の閉領域の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the closed area | region in a division. 閉領域データテーブルの記憶内容の一例を示す説明図である。It is explanatory drawing which shows an example of the memory content of a closed region data table. 誤差テーブルの記憶内容の一例を示す説明図である。It is explanatory drawing which shows an example of the memory content of an error table. 第1の視線ベクトルV1を算出する具体的な処理内容の概要を示す説明図(その1)である。It is explanatory drawing (the 1) which shows the outline | summary of the specific process content which calculates the 1st eyes | visual_axis vector V1. 第1の視線ベクトルV1を算出する具体的な処理内容の概要を示す説明図(その2)である。It is explanatory drawing (the 2) which shows the outline | summary of the specific processing content which calculates the 1st eyes | visual_axis vector V1. 視線ベクトルと視線位置との関係を表す説明図である。It is explanatory drawing showing the relationship between a gaze vector and a gaze position. 2値化処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of a binarization process. 輝度・色・形が周囲と異なる領域の一例を示す説明図である。It is explanatory drawing which shows an example of the area | region where a brightness | luminance, a color, and a shape differ from the circumference | surroundings. 輝度成分に関する顕著度マップ作成処理の概要を示す説明図(その1)である。It is explanatory drawing (the 1) which shows the outline | summary of the saliency map creation process regarding a luminance component. 輝度成分に関する顕著度マップ作成処理の概要を示す説明図(その2)である。It is explanatory drawing (the 2) which shows the outline | summary of the saliency map creation process regarding a luminance component. 色成分に関する顕著度マップ作成処理の概要を示す説明図(その1)である。It is explanatory drawing (the 1) which shows the outline | summary of the saliency map creation process regarding a color component. 色成分に関する顕著度マップ作成処理の概要を示す説明図(その2)である。It is explanatory drawing (the 2) which shows the outline | summary of the saliency map creation process regarding a color component. 色成分に関する顕著度マップ作成処理の概要を示す説明図(その3)である。It is explanatory drawing (the 3) which shows the outline | summary of the saliency map creation process regarding a color component. 方向成分に関する顕著度マップ作成処理の概要を示す説明図(その1)である。It is explanatory drawing (the 1) which shows the outline | summary of the saliency map creation process regarding a direction component. 方向成分に関する顕著度マップ作成処理の概要を示す説明図(その2)である。It is explanatory drawing (the 2) which shows the outline | summary of the saliency map creation process regarding a direction component. 方向成分に関する顕著度マップ作成処理の概要を示す説明図(その3)である。It is explanatory drawing (the 3) which shows the outline | summary of the saliency map creation process regarding a direction component. 表示画像の顕著度マップ作成処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the saliency map creation process of a display image. 顕著度マップの具体例を示す説明図である。It is explanatory drawing which shows the specific example of a saliency map. 視線検出装置の補正値算出処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the correction value calculation process procedure of a gaze detection apparatus. 注視点決定処理の具体的な処理手順の一例を示すフローチャート(その1)である。It is a flowchart (the 1) which shows an example of the specific process sequence of a gaze point determination process. 注視点決定処理の具体的な処理手順の一例を示すフローチャート(その2)である。It is a flowchart (the 2) which shows an example of the specific process sequence of a gaze point determination process. 注視点決定処理の具体的な処理手順の一例を示すフローチャート(その3)である。It is a flowchart (the 3) which shows an example of the specific process sequence of a gaze point determination process. 注視点決定処理の具体的な処理手順の一例を示すフローチャート(その4)である。It is a flowchart (the 4) which shows an example of the specific process sequence of a gaze point determination process. 視線検出装置の補正値算出処理手順の他の一例を示すフローチャート(その1)である。It is a flowchart (the 1) which shows another example of the correction value calculation processing procedure of a gaze detection apparatus. 視線検出装置の補正値算出処理手順の他の一例を示すフローチャート(その2)である。It is a flowchart (the 2) which shows another example of the correction value calculation process procedure of a gaze detection apparatus. 視線検出装置の視線検出処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the gaze detection process sequence of a gaze detection apparatus.

以下に添付図面を参照して、本発明にかかる補正値算出装置、補正値算出方法および補正値算出プログラムの好適な実施の形態を詳細に説明する。   Exemplary embodiments of a correction value calculation apparatus, a correction value calculation method, and a correction value calculation program according to the present invention will be described below in detail with reference to the accompanying drawings.

(実施の形態1)
まず、実施の形態1にかかる補正値算出装置101が適用されるシステム100の一実施例について説明する。図1は、実施の形態1にかかる補正値算出装置が適用されるシステムの一実施例を示す説明図である。
(Embodiment 1)
First, an example of the system 100 to which the correction value calculation apparatus 101 according to the first embodiment is applied will be described. FIG. 1 is an explanatory diagram of an example of a system to which the correction value calculation apparatus according to the first embodiment is applied.

図1において、システム100は、補正値算出装置101と、視線検出装置102と、表示装置103と、撮影装置104と、を含む。システム100において、補正値算出装置101と、視線検出装置102と、表示装置103と、撮影装置104とは、有線または無線のネットワーク110を介して通信可能に接続されている。   In FIG. 1, a system 100 includes a correction value calculation device 101, a line-of-sight detection device 102, a display device 103, and an imaging device 104. In the system 100, a correction value calculation device 101, a line-of-sight detection device 102, a display device 103, and an imaging device 104 are connected to be communicable via a wired or wireless network 110.

システム100は、例えば、商業施設、空港、駅などに設置されるデジタルサイネージ(電子看板)を利用した広告システムや、eラーニング(electronic learning)を利用した学習システムなどに適用される。   The system 100 is applied to, for example, an advertising system using digital signage (electronic signage) installed in a commercial facility, airport, station, or a learning system using e-learning (electronic learning).

補正値算出装置101は、表示装置103が有する画面105に対向している被写体120に固有の補正値を算出する。ここで、被写体120とは、撮影装置104の撮影対象となる人である。例えば、被写体120は、画面105を見ながら作業をしているユーザでもよく、また、表示装置103の前を通りかかって画面105を見ている通行人でもよい。   The correction value calculation device 101 calculates a correction value specific to the subject 120 facing the screen 105 of the display device 103. Here, the subject 120 is a person who is a subject to be photographed by the photographing apparatus 104. For example, the subject 120 may be a user who works while looking at the screen 105, or may be a passerby who is passing the display device 103 and looking at the screen 105.

また、被写体120に固有の補正値とは、キャリブレーションに用いるパラメータの値である。キャリブレーションとは、被写体120の眼球121の角膜表面における光の屈折率、眼球形状、眼球中心に対する中心窩のズレなどの個人差にともなう視線の誤差を補正するための処理である。   The correction value unique to the subject 120 is a parameter value used for calibration. Calibration is a process for correcting gaze errors due to individual differences such as the refractive index of light on the cornea surface of the eyeball 121 of the subject 120, the eyeball shape, and the deviation of the fovea from the center of the eyeball.

視線検出装置102は、表示装置103が有する画面105に対向している被写体120の視線位置を検出する。また、視線検出装置102は、補正値算出装置101によって算出された被写体120に固有の補正値を用いて、被写体120の視線位置を補正する。ここで、被写体120の視線位置とは、被写体120の視線と画面105の表示画像SPとが交差する表示画像SP上の点の座標位置である。   The line-of-sight detection device 102 detects the line-of-sight position of the subject 120 facing the screen 105 included in the display device 103. The line-of-sight detection device 102 corrects the line-of-sight position of the subject 120 using a correction value unique to the subject 120 calculated by the correction value calculation device 101. Here, the line-of-sight position of the subject 120 is the coordinate position of a point on the display image SP where the line of sight of the subject 120 and the display image SP on the screen 105 intersect.

被写体120の視線は、例えば、被写体120の眼球121の角膜曲率中心122から瞳孔123の瞳孔中心124に向かうベクトル(以下、「第1の視線ベクトルV1」と表記する)によって定義される。ここで、第1の視線ベクトルV1に基づく表示画像SP上の視線位置には、被写体の個人差にともなう誤差が含まれている可能性がある。そこで、以下の説明では、第1の視線ベクトルV1に基づく表示画像SP上の視線位置を「仮の視線位置VP」と表記する。   The line of sight of the subject 120 is defined by, for example, a vector (hereinafter referred to as “first line-of-sight vector V1”) from the cornea curvature center 122 of the eyeball 121 of the subject 120 toward the pupil center 124 of the pupil 123. Here, the line-of-sight position on the display image SP based on the first line-of-sight vector V1 may include an error due to the individual difference of the subject. Therefore, in the following description, the line-of-sight position on the display image SP based on the first line-of-sight vector V1 is referred to as “temporary line-of-sight position VP”.

具体的には、例えば、視線検出装置102が、撮影装置104によって撮影された被写体120の眼の撮影画像に基づいて、被写体120の第1の視線ベクトルV1を算出する。ここで、被写体120の眼とは、被写体120の眼球121の表面であり、例えば、まぶたの動きに連動して露出する黒眼と白眼を含む眼球121の表面である。そして、視線検出装置102が、算出された被写体120の第1の視線ベクトルV1と、画面105と被写体120の眼球121との距離に基づいて、表示画像SP上の仮の視線位置VPを算出する。なお、画面105と被写体120の眼球121との距離は、例えば、予め設定されている。   Specifically, for example, the line-of-sight detection device 102 calculates the first line-of-sight vector V1 of the subject 120 based on the photographed image of the eye of the subject 120 photographed by the photographing device 104. Here, the eye of the subject 120 is the surface of the eyeball 121 of the subject 120, for example, the surface of the eyeball 121 including black and white eyes exposed in conjunction with the movement of the eyelid. Then, the line-of-sight detection device 102 calculates a temporary line-of-sight position VP on the display image SP based on the calculated first line-of-sight vector V1 of the subject 120 and the distance between the screen 105 and the eyeball 121 of the subject 120. . The distance between the screen 105 and the eyeball 121 of the subject 120 is set in advance, for example.

表示装置103は、画面105に表示画像SPを表示する。画面105に表示される表示画像SPは、例えば、任意の時間間隔で連続的に切り替わる。表示画像SPは、例えば、デジタルサイネージの広告画像でもよく、また、eラーニングのための教材画像でもよい。撮影装置104は、画面105に対向している被写体120の眼を撮影する。撮影装置104は、画面105に対向している被写体120の眼を撮影可能な所定の位置に設置されている。   The display device 103 displays the display image SP on the screen 105. For example, the display image SP displayed on the screen 105 is continuously switched at an arbitrary time interval. The display image SP may be, for example, an advertisement image of digital signage or a teaching material image for e-learning. The imaging device 104 captures the eye of the subject 120 facing the screen 105. The photographing device 104 is installed at a predetermined position where the eye of the subject 120 facing the screen 105 can be photographed.

実施の形態1では、表示画像SP上の領域ごとの特徴を抽出した特徴量に基づいて、被写体120が注視している注視点Gを決定する。そして、実施の形態1では、被写体120の実際の視線が注視点Gに向いていると仮定して、被写体120の眼の撮影画像から得られる仮の視線位置VPを注視点Gに略一致させるための被写体120に固有の補正値を算出する。   In the first embodiment, the gazing point G at which the subject 120 is gazing is determined based on the feature amount obtained by extracting the feature for each region on the display image SP. In the first embodiment, it is assumed that the actual line of sight of the subject 120 faces the gazing point G, and the temporary sight line position VP obtained from the captured image of the eye of the subject 120 is made to substantially coincide with the gazing point G. Therefore, a correction value specific to the subject 120 is calculated.

また、実施の形態1では、被写体120に固有の補正値を正確に求めるために、表示画像SP上の仮の視線位置VPと注視点Gとのペアを複数求めて、被写体120に固有の補正値を統計的に求める。ところが、被写体120が注視している注視点Gは、表示画像SP上の特定の領域に偏る場合がある。この場合、被写体120に固有の補正値を複数のペアから統計的に求めても、注視点Gの位置的な偏りにより、正確な補正値を算出することができない場合がある。   Further, in the first embodiment, in order to accurately obtain a correction value unique to the subject 120, a plurality of pairs of the temporary gaze position VP and the gazing point G on the display image SP are obtained, and correction unique to the subject 120 is obtained. Find the value statistically. However, the gazing point G at which the subject 120 is gazing may be biased toward a specific area on the display image SP. In this case, even if a correction value unique to the subject 120 is statistically obtained from a plurality of pairs, an accurate correction value may not be calculated due to the positional deviation of the gazing point G.

そこで、実施の形態1では、画面105の表示画像SPを区切って分割された区画ごとに仮の視線位置VPと注視点Gとのペアを求め、複数の区画のペアに基づいて、被写体120に固有の補正値を算出する。これにより、被写体120に固有の補正値の算出元となるペアが特定の区画に偏ることを防ぎ(すなわち、注視点Gの位置的な偏りを防ぎ)、被写体120に固有の補正値を正確に求める。以下、図2を用いて、被写体120に固有の補正値を算出する補正値算出装置101の処理手順(1)〜(7)について説明する。   Therefore, in the first embodiment, a pair of the temporary gaze position VP and the gazing point G is obtained for each section divided by dividing the display image SP of the screen 105, and the subject 120 is determined based on the plurality of pairs of sections. A unique correction value is calculated. This prevents a pair that is a calculation source of a correction value unique to the subject 120 from being biased to a specific section (that is, prevents a positional bias of the gazing point G), and accurately corrects a correction value unique to the subject 120. Ask. Hereinafter, the processing procedures (1) to (7) of the correction value calculation apparatus 101 for calculating the correction value unique to the subject 120 will be described with reference to FIG.

図2は、実施の形態1にかかる補正値算出装置の補正値算出処理の一実施例を示す説明図である。(1)補正値算出装置101は、撮影装置104によって撮影された被写体120の眼の撮影画像に基づく被写体120の仮の視線位置VPを視線検出装置102から取得する。具体的には、例えば、補正値算出装置101が、被写体120の仮の視線位置VP1を視線検出装置102から取得する。   FIG. 2 is an explanatory diagram of an example of the correction value calculation process of the correction value calculation apparatus according to the first embodiment. (1) The correction value calculation apparatus 101 acquires the temporary gaze position VP of the subject 120 based on the photographed image of the eye of the subject 120 photographed by the photographing apparatus 104 from the gaze detection apparatus 102. Specifically, for example, the correction value calculation apparatus 101 acquires the temporary gaze position VP1 of the subject 120 from the gaze detection apparatus 102.

(2)補正値算出装置101は、画面105の表示画像SPを区切って分割された区画群の中から、取得された被写体120の仮の視線位置VPを含む区画を検索する。ここで、区画とは、表示画像SPを任意の大きさに区切って分割された所定範囲の領域である。具体的には、例えば、補正値算出装置101が、区画D1〜D4の中から、仮の視線位置VP1を含む区画D1を検索する。   (2) The correction value calculation apparatus 101 searches the section including the provisional visual line position VP of the acquired subject 120 from the section group divided by dividing the display image SP on the screen 105. Here, the section is an area of a predetermined range divided by dividing the display image SP into an arbitrary size. Specifically, for example, the correction value calculation apparatus 101 searches the section D1 including the temporary line-of-sight position VP1 from the sections D1 to D4.

(3)補正値算出装置101は、検索された区画に含まれる画素の画素値に基づいて、区画内の領域ごとの特徴を抽出した特徴量を算出する。ここで、領域とは、例えば、表示画像SPを画素単位で区切って分割した画像領域である。画素値とは、例えば、画素の赤色、緑色、青色ごとの輝度である。   (3) The correction value calculation apparatus 101 calculates a feature amount obtained by extracting features for each region in the section based on the pixel values of the pixels included in the searched section. Here, the region is, for example, an image region obtained by dividing the display image SP in units of pixels. The pixel value is, for example, the luminance of each pixel in red, green, and blue.

また、特徴量とは、人間の視覚的な注意を引きつける強さを表す指標値である。すなわち、特徴量が大きい領域ほど、人間の視覚的な注意を引きつける強さが大きい領域となる。具体的には、例えば、補正値算出装置101が、表示画像SPに含まれる画素の画素値に基づいて、領域ごとの特徴を強調する処理を行うことにより、領域ごとの特徴量を算出する。   The feature amount is an index value representing the strength that attracts human visual attention. That is, the region having a larger feature amount is a region having a greater strength for attracting human visual attention. Specifically, for example, the correction value calculation apparatus 101 calculates a feature amount for each region by performing a process of enhancing the feature for each region based on the pixel value of the pixel included in the display image SP.

(4)補正値算出装置101は、算出された区画内の領域ごとの特徴量に基づいて、区画内の複数の領域のいずれかの領域を、被写体120が注視している注視点Gに決定する。ここで、特徴量が大きい領域ほど、人間の視覚的な注意を引きつける強さが大きくなるため、人間の視線が向きやすい領域として扱うことができる。   (4) The correction value calculation apparatus 101 determines any one of the plurality of areas in the section as the gazing point G at which the subject 120 is gazing based on the calculated feature amount for each area in the section. To do. Here, the region having a larger feature amount has a higher strength for attracting human visual attention, and thus can be handled as a region in which human eyes are more likely to face.

そこで、補正値算出装置101が、複数の領域のうち他の領域に比べて特徴量が大きい領域を、被写体120が注視している注視点Gに決定する。具体的には、例えば、補正値算出装置101が、区画D1内の領域ごとの特徴量に基づいて、区画D1内の領域A1を、被写体120が注視している注視点G1に決定する。   Therefore, the correction value calculation apparatus 101 determines an area having a larger feature amount than the other areas as the gazing point G at which the subject 120 is gazing. Specifically, for example, the correction value calculation apparatus 101 determines the area A1 in the section D1 as the gazing point G1 at which the subject 120 is gazing based on the feature amount for each area in the section D1.

(5)補正値算出装置101は、取得された仮の視線位置VPと、決定された注視点Gの座標位置とを関連付ける。具体的には、例えば、補正値算出装置101が、取得された仮の視線位置VP1と、決定された注視点G1の座標位置とをペアP1として関連付ける。   (5) The correction value calculation apparatus 101 associates the acquired temporary gaze position VP with the determined coordinate position of the gazing point G. Specifically, for example, the correction value calculation apparatus 101 associates the acquired temporary gaze position VP1 and the determined coordinate position of the gazing point G1 as a pair P1.

(6)補正値算出装置101は、上記(1)〜(5)を繰り返した結果、関連付けられた区画ごとの関連付け結果のうち、複数の区画の関連付け結果に基づいて、被写体120に固有の補正値を算出する。ここで、被写体120の実際の視線は、眼球121から注視点Gに向かうベクトル(以下、「第2の視線ベクトルV2」と表記する)であると推定することができる。そこで、補正値算出装置101が、被写体120の実際の視線が注視点Gに向いていると仮定して、第1の視線ベクトルV1を第2の視線ベクトルV2に略一致させるための補正値を算出する。   (6) As a result of repeating the above (1) to (5), the correction value calculation apparatus 101 performs correction specific to the subject 120 based on the association result of a plurality of sections among the association results for each associated section. Calculate the value. Here, it can be estimated that the actual line of sight of the subject 120 is a vector (hereinafter referred to as “second line-of-sight vector V2”) from the eyeball 121 toward the gazing point G. Therefore, assuming that the actual line of sight of the subject 120 is facing the gazing point G, the correction value calculation apparatus 101 sets a correction value for making the first line-of-sight vector V1 substantially coincide with the second line-of-sight vector V2. calculate.

具体的には、例えば、補正値算出装置101が、区画D1〜D4ごとのペアP1〜P4のうち、少なくとも2以上の区画のペアに基づいて、被写体120に固有の補正値を算出する。ペアP2は、区画D2内の仮の視線位置VP2と注視点G2の座標位置との関連付け結果である。ペアP3は、区画D3内の仮の視線位置VP3と注視点G3の座標位置との関連付け結果である。ペアP4は、区画D4内の仮の視線位置VP4と注視点G4の座標位置との関連付け結果である。   Specifically, for example, the correction value calculation apparatus 101 calculates a correction value specific to the subject 120 based on at least two pairs of sections among the pairs P1 to P4 for each of the sections D1 to D4. The pair P2 is an association result between the temporary line-of-sight position VP2 in the section D2 and the coordinate position of the gazing point G2. The pair P3 is an association result between the temporary line-of-sight position VP3 in the section D3 and the coordinate position of the gazing point G3. The pair P4 is an association result between the temporary line-of-sight position VP4 in the section D4 and the coordinate position of the gazing point G4.

(7)補正値算出装置101は、算出された被写体120に固有の補正値を視線検出装置102に出力する。この結果、視線検出装置102において、被写体120に固有の補正値を用いて、被写体120の眼の撮影画像に基づく仮の視線位置VP(第1の視線ベクトルV1)を補正して、被写体120の個人差にともなう誤差を補正した視線を検出することができる。   (7) The correction value calculation apparatus 101 outputs the calculated correction value unique to the subject 120 to the line-of-sight detection apparatus 102. As a result, the line-of-sight detection device 102 corrects the temporary line-of-sight position VP (first line-of-sight vector V1) based on the captured image of the eye of the subject 120 using the correction value specific to the subject 120, and It is possible to detect a line of sight corrected for errors due to individual differences.

以上説明したように、実施の形態1にかかる補正値算出装置101によれば、画面105の表示画像SPを区切って分割された区画D1〜D4ごとに、仮の視線位置VPと注視点Gとを関連付けることができる。これにより、表示画像SP上の複数の区画の仮の視線位置VPと注視点Gとのペア(例えば、ペアP1〜P4)を求めることができる。   As described above, according to the correction value calculation apparatus 101 according to the first embodiment, the temporary gaze position VP and the gazing point G are divided for each of the sections D1 to D4 divided by dividing the display image SP of the screen 105. Can be associated. Thereby, the pair (for example, pair P1-P4) of temporary eyes | visual_axis position VP and the gaze point G of the some division on display image SP can be calculated | required.

また、補正値算出装置101によれば、区画ごとのペアのうち、少なくとも2以上の区画のペアに基づいて、被写体120に固有の補正値を算出することができる。これにより、被写体120に固有の補正値の算出元となるペアが特定の区画に偏ることを防ぎ、被写体120に固有の補正値を正確に求めることができる。   Further, according to the correction value calculation apparatus 101, it is possible to calculate a correction value specific to the subject 120 based on at least two pairs of sections among pairs of sections. Thereby, it is possible to prevent a pair that is a calculation source of a correction value unique to the subject 120 from being biased to a specific section, and to accurately obtain a correction value unique to the subject 120.

これらのことから、実施の形態1にかかる補正値算出装置101によれば、視線検出前の段階に被写体120の協力の下で行われる事前手続を行うことなく、被写体120に固有の補正値を正確に求めることができる。また、補正値算出装置101によれば、被写体120に固有の補正値を求めるために、特定の画像を予め用意する必要がなく、さらに、特定の画像を被写体120に対して呈示する必要がない。   Therefore, according to the correction value calculation apparatus 101 according to the first embodiment, the correction value unique to the subject 120 can be obtained without performing the preliminary procedure performed in cooperation with the subject 120 at the stage before the line-of-sight detection. It can be determined accurately. Further, according to the correction value calculation apparatus 101, it is not necessary to prepare a specific image in advance in order to obtain a correction value specific to the subject 120, and further, it is not necessary to present the specific image to the subject 120. .

(実施の形態2)
つぎに、実施の形態2にかかる視線検出装置300について説明する。実施の形態2では、実施の形態1で説明した補正値算出装置101を視線検出装置300に適用した場合について説明する。なお、実施の形態1で説明した箇所と同一箇所については、同一符号を付して説明を省略する。
(Embodiment 2)
Next, the line-of-sight detection apparatus 300 according to the second embodiment will be described. In the second embodiment, a case where the correction value calculation apparatus 101 described in the first embodiment is applied to the line-of-sight detection apparatus 300 will be described. In addition, about the same location as the location demonstrated in Embodiment 1, the same code | symbol is attached | subjected and description is abbreviate | omitted.

(視線検出装置300のハードウェア構成)
まず、実施の形態2にかかる視線検出装置300のハードウェア構成について説明する。図3は、実施の形態2にかかる視線検出装置のハードウェア構成の一例を示すブロック図である。図3において、視線検出装置300は、CPU(Central Processing Unit)301と、ROM(Read‐Only Memory)302と、RAM(Random Access Memory)303と、磁気ディスクドライブ304と、磁気ディスク305と、光ディスクドライブ306と、光ディスク307と、I/F(Interface)308と、キーボード309と、マウス310と、ディスプレイ311と、カメラ312と、を備えている。また、各構成部はバス320によってそれぞれ接続されている。
(Hardware configuration of line-of-sight detection device 300)
First, the hardware configuration of the visual line detection device 300 according to the second embodiment will be described. FIG. 3 is a block diagram of an example of a hardware configuration of the visual line detection device according to the second embodiment. In FIG. 3, a line-of-sight detection apparatus 300 includes a CPU (Central Processing Unit) 301, a ROM (Read-Only Memory) 302, a RAM (Random Access Memory) 303, a magnetic disk drive 304, a magnetic disk 305, and an optical disk. A drive 306, an optical disk 307, an I / F (Interface) 308, a keyboard 309, a mouse 310, a display 311, and a camera 312 are provided. Each component is connected by a bus 320.

ここで、CPU301は、視線検出装置300の全体の制御を司る。ROM302は、ブートプログラムなどのプログラムを記憶している。RAM303は、CPU301のワークエリアとして使用される。磁気ディスクドライブ304は、CPU301の制御にしたがって磁気ディスク305に対するデータのリード/ライトを制御する。磁気ディスク305は、磁気ディスクドライブ304の制御で書き込まれたデータを記憶する。   Here, the CPU 301 governs overall control of the visual line detection device 300. The ROM 302 stores a program such as a boot program. The RAM 303 is used as a work area for the CPU 301. The magnetic disk drive 304 controls the reading / writing of the data with respect to the magnetic disk 305 according to control of CPU301. The magnetic disk 305 stores data written under the control of the magnetic disk drive 304.

光ディスクドライブ306は、CPU301の制御にしたがって光ディスク307に対するデータのリード/ライトを制御する。光ディスク307は、光ディスクドライブ306の制御で書き込まれたデータを記憶したり、光ディスク307に記憶されたデータをコンピュータに読み取らせたりする。   The optical disk drive 306 controls the reading / writing of the data with respect to the optical disk 307 according to control of CPU301. The optical disk 307 stores data written under the control of the optical disk drive 306, and causes the computer to read data stored on the optical disk 307.

I/F308は、通信回線を通じてLAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどのネットワーク314に接続され、ネットワーク314を介して他の装置に接続される。そして、I/F308は、ネットワーク314と内部のインターフェースを司り、外部装置からのデータの入出力を制御する。I/F308には、例えばモデムやLANアダプタなどを採用することができる。   The I / F 308 is connected to a network 314 such as a LAN (Local Area Network), a WAN (Wide Area Network), and the Internet through a communication line, and is connected to another device via the network 314. The I / F 308 controls an internal interface with the network 314 and controls input / output of data from an external device. For example, a modem or a LAN adapter may be employed as the I / F 308.

キーボード309は、文字、数字、各種指示などの入力のためのキーを備え、データの入力を行う。また、タッチパネル式の入力パッドやテンキーなどであってもよい。マウス310は、カーソルの移動や範囲選択、あるいはウィンドウの移動やサイズの変更などを行う。   The keyboard 309 includes keys for inputting characters, numbers, various instructions, and the like, and inputs data. Moreover, a touch panel type input pad or a numeric keypad may be used. The mouse 310 performs cursor movement, range selection, window movement, size change, and the like.

ディスプレイ311は、カーソル、アイコンあるいはツールボックスをはじめ、文書、画像、機能情報などのデータを表示する。ディスプレイ311は、例えば、CRT、TFT液晶ディスプレイ、プラズマディスプレイなどを採用することができる。カメラ312は、ディスプレイ311に対向している被写体の眼を撮影するためのデジタルカメラである。カメラ312は、例えば、被写体の眼を撮影するための専用カメラであってもよく、また、監視カメラやウェブカメラなどであってもよい。   The display 311 displays data such as a document, an image, and function information as well as a cursor, an icon, or a tool box. As the display 311, for example, a CRT, a TFT liquid crystal display, a plasma display, or the like can be adopted. The camera 312 is a digital camera for photographing the eye of the subject facing the display 311. The camera 312 may be, for example, a dedicated camera for photographing the subject's eyes, or may be a surveillance camera, a web camera, or the like.

(ディスプレイ311の外観)
つぎに、視線検出装置300のディスプレイ311の外観について説明する。図4は、ディスプレイの外観の一例を示す説明図である。図4において、ディスプレイ311には、カメラ312と赤外線LED(Light Emitting Diode)401が設置されている。
(Appearance of display 311)
Next, the appearance of the display 311 of the line-of-sight detection device 300 will be described. FIG. 4 is an explanatory diagram showing an example of the appearance of the display. In FIG. 4, a camera 312 and an infrared LED (Light Emitting Diode) 401 are installed on a display 311.

カメラ312は、ディスプレイ311に対向している被写体の眼402を撮影可能な位置に設置されている。赤外線LED401は、近赤外線を照射する点光源である。赤外線LED401は、例えば、カメラ312の光軸から外れた位置から、被写体の眼402に近赤外線を照射可能な状態で設置されている。   The camera 312 is installed at a position where the subject's eye 402 facing the display 311 can be photographed. The infrared LED 401 is a point light source that emits near infrared rays. For example, the infrared LED 401 is installed in a state in which near-infrared rays can be emitted to the subject's eye 402 from a position off the optical axis of the camera 312.

(各種座標系510,520,530)
ここで、被写体の視線検出に使用する各種座標系510,520,530について説明する。図5は、視線検出に使用する座標系の一例を示す説明図である。図5において、画像座標系510は、例えば、カメラ312によって撮影された被写体の眼の撮影画像(以下、「眼球画像EP」という)の所定の基準点を原点OPとするXP軸とYP軸からなる直交座標系である。
(Various coordinate systems 510, 520, 530)
Here, various coordinate systems 510, 520, and 530 used for detecting the line of sight of the subject will be described. FIG. 5 is an explanatory diagram illustrating an example of a coordinate system used for line-of-sight detection. 5, the image coordinate system 510, for example, the captured image of the eye of a subject taken by the camera 312 (hereinafter, referred to as "eye image EP") to a predetermined reference point of the origin O P X P axis and Y It is an orthogonal coordinate system consisting of the P- axis.

カメラ座標系520は、例えば、カメラ原点OCをカメラ312の光学中心とするXC軸とYC軸とZC軸とからなる直交座標系である。世界座標系530は、例えば、ディスプレイ311上の所定の基準点を原点OWとするXW軸とYW軸とZW軸とからなる直交座標系である。 The camera coordinate system 520 is, for example, an orthogonal coordinate system including an X C axis, a Y C axis, and a Z C axis with the camera origin O C as the optical center of the camera 312. The world coordinate system 530 is, for example, an orthogonal coordinate system including an X W axis, a Y W axis, and a Z W axis with a predetermined reference point on the display 311 as an origin O W.

(視線検出装置300の機能的構成)
つぎに、実施の形態2にかかる視線検出装置300の機能的構成について説明する。図6は、視線検出装置の機能的構成を示すブロック図である。図6において、視線検出装置300は、取得部601と、視線算出部602と、分割部603と、検索部604と、特徴量算出部605と、注視点決定部606と、関連付け部607と、登録/更新部608と、補正値算出部609と、補正部610と、出力部611と、判断部612と、誤差算出部613と、区画決定部614と、を含む。
(Functional configuration of the line-of-sight detection device 300)
Next, a functional configuration of the visual line detection device 300 according to the second embodiment will be described. FIG. 6 is a block diagram illustrating a functional configuration of the visual line detection device. In FIG. 6, the gaze detection apparatus 300 includes an acquisition unit 601, a gaze calculation unit 602, a division unit 603, a search unit 604, a feature amount calculation unit 605, a gaze point determination unit 606, an association unit 607, A registration / update unit 608, a correction value calculation unit 609, a correction unit 610, an output unit 611, a determination unit 612, an error calculation unit 613, and a partition determination unit 614 are included.

各機能部(取得部601〜区画決定部614)は、例えば、図3に示したROM302、RAM303、磁気ディスク305、光ディスク307などの記憶装置に記憶されたプログラムをCPU301に実行させることにより、または、I/F308により、その機能を実現する。なお、各機能部(取得部601〜区画決定部614)の処理結果は、特に指定する場合を除いて、RAM303、磁気ディスク305、光ディスク307などの記憶装置に記憶される。   Each functional unit (acquisition unit 601 to section determination unit 614) causes the CPU 301 to execute a program stored in a storage device such as the ROM 302, the RAM 303, the magnetic disk 305, and the optical disk 307 illustrated in FIG. The function is realized by the I / F 308. Note that the processing results of each functional unit (acquisition unit 601 to section determination unit 614) are stored in a storage device such as the RAM 303, the magnetic disk 305, and the optical disk 307 unless otherwise specified.

まず、取得部601は、例えば、連続的に表示が切り替わるディスプレイ311の表示画像SPを取得する。具体的には、例えば、取得部601が、ディスプレイ311に表示された画面イメージを画像データとしてキャプチャすることにより表示画像SPを取得する。   First, the acquisition unit 601 acquires the display image SP of the display 311 whose display is continuously switched, for example. Specifically, for example, the acquisition unit 601 acquires the display image SP by capturing a screen image displayed on the display 311 as image data.

表示画像SPは、動画像でも任意の時間間隔で表示が切り替わる静止画像でもよい。また、取得部601による表示画像SPの取得タイミングは、任意に設定可能である。例えば、取得部601は、ディスプレイ311の表示が切り替わるごとに表示画像SPを取得してもよい。また、取得部601は、一定の時間間隔で表示画像SPを取得してもよい。   The display image SP may be a moving image or a still image whose display is switched at an arbitrary time interval. The acquisition timing of the display image SP by the acquisition unit 601 can be arbitrarily set. For example, the acquisition unit 601 may acquire the display image SP each time the display on the display 311 is switched. Further, the acquisition unit 601 may acquire the display image SP at regular time intervals.

取得部601は、ディスプレイ311に対向している被写体の眼(眼球)の眼球画像EPをカメラ312から取得する。ここで、被写体とは、カメラ312によって撮影される対象者である。例えば、被写体は、ディスプレイ311を見ながら作業をしているユーザでもよく、また、ディスプレイ311の前を通りかかってディスプレイ311を見ている通行人でもよい。   The acquisition unit 601 acquires an eyeball image EP of the subject's eye (eyeball) facing the display 311 from the camera 312. Here, the subject is a subject photographed by the camera 312. For example, the subject may be a user who is working while looking at the display 311, or may be a passerby who is passing the display 311 and looking at the display 311.

また、被写体の眼(眼球)とは、被写体の眼球表面であり、例えば、まぶたの動きに連動して露出する黒眼と白眼を含む部分である。なお、以下の説明では、被写体として「人」を例に挙げて説明するが、被写体は眼球を有するゴリラや猿などの「人に準ずる動物」でもよい。   The subject's eye (eyeball) is the surface of the subject's eyeball, and is, for example, a part including black eyes and white eyes that are exposed in conjunction with eyelid movement. In the following description, “person” is taken as an example of the subject, but the subject may be an “animal similar to a person” such as a gorilla or monkey having an eyeball.

また、取得部601による眼球画像EPの取得タイミングは、任意に設定可能である。例えば、取得部601は、一定の時間間隔で眼球画像EPを取得してもよい。また、取得部601は、表示画像SPの取得タイミングと同期を取って、眼球画像EPを取得してもよい。また、眼球画像EPに写る被写体の眼球は、片眼でも両眼でもよい。   Moreover, the acquisition timing of the eyeball image EP by the acquisition unit 601 can be arbitrarily set. For example, the acquisition unit 601 may acquire the eyeball image EP at regular time intervals. The acquisition unit 601 may acquire the eyeball image EP in synchronization with the acquisition timing of the display image SP. Further, the eyeball of the subject shown in the eyeball image EP may be one eye or both eyes.

取得された眼球画像EPは、例えば、取得された眼球画像EPの撮影時にディスプレイ311に表示中の表示画像SPと関連付けてRAM303、磁気ディスク305、光ディスク307などの記憶装置に記憶される。なお、眼球画像EPには、例えば、眼球画像EPの撮影時刻が付加されている。ここで、カメラ312によって撮影された眼球画像EPの具体例について説明する。   The acquired eyeball image EP is stored in a storage device such as the RAM 303, the magnetic disk 305, and the optical disk 307 in association with the display image SP being displayed on the display 311 when the acquired eyeball image EP is captured. Note that, for example, the photographing time of the eyeball image EP is added to the eyeball image EP. Here, a specific example of the eyeball image EP photographed by the camera 312 will be described.

図7は、眼球画像の具体例を示す説明図である。図7において、眼球画像EPは、カメラ312によって人の眼球700を撮影した画像である。なお、図面では眼球画像EPの一部を抜粋して表示している。ここでは、図4に示した赤外線LED401により、眼球700に向けて近赤外線を照射して撮影している。このため、眼球画像EPにおいて、瞳孔701が虹彩702と比較して暗くなり、角膜表面にプルキニエ像703が現れている。プルキニエ像703とは、眼球700に近赤外線を照射した際に現れる角膜表面における反射像である。   FIG. 7 is an explanatory diagram illustrating a specific example of an eyeball image. In FIG. 7, an eyeball image EP is an image obtained by photographing a human eyeball 700 with the camera 312. In the drawing, a part of the eyeball image EP is extracted and displayed. In this case, the infrared LED 401 shown in FIG. For this reason, in the eyeball image EP, the pupil 701 is darker than the iris 702, and a Purkinje image 703 appears on the cornea surface. The Purkinje image 703 is a reflection image on the corneal surface that appears when the eyeball 700 is irradiated with near infrared rays.

図6の説明に戻り、視線算出部602は、取得された眼球画像EPに基づいて、被写体の眼球からディスプレイ311に向かう第1の視線ベクトルV1を算出する。具体的には、例えば、視線算出部602が、人の眼球に近赤外線を照射したときの角膜表面における反射像(例えば、図7に示したプルキニエ像703)を利用して、第1の視線ベクトルV1を算出する。   Returning to the description of FIG. 6, the line-of-sight calculation unit 602 calculates a first line-of-sight vector V1 from the eyeball of the subject toward the display 311 based on the acquired eyeball image EP. Specifically, for example, the line-of-sight calculation unit 602 uses the reflection image (for example, the Purkinje image 703 illustrated in FIG. 7) on the cornea surface when the human eyeball is irradiated with near-infrared rays. Vector V1 is calculated.

ただし、世界座標系530におけるディスプレイ311と被写体の眼球とのZW軸方向の距離は、予め設定されている。具体的には、例えば、ディスプレイ311を、商業施設、空港、駅などに設置されるデジタルサイネージとして使用する場合、ディスプレイ311と被写体の眼球とのZW軸方向の距離は100〜130[cm]程度に設定される。また、ディスプレイ311を、パーソナル・コンピュータの画面として使用する場合、ディスプレイ311と被写体の眼球とのZW軸方向の距離は30〜50[cm]程度に設定される。 However, the distance in the Z W axis direction between the display 311 and the eyeball of the subject in the world coordinate system 530 is set in advance. Specifically, for example, a display 311, commercial facilities, airports, when used as a digital signage that is installed in the station, the distance Z W-axis direction between the eye of the display 311 and the object is 100 to 130 [cm] Set to degree. Further, the display 311, when used as a screen of a personal computer, the distance Z W-axis direction between the eye of the display 311 and the object is set to about 30 to 50 [cm].

また、世界座標系530におけるカメラ312の設置位置は、既知の値である。このため、カメラ312によって撮影された被写体の眼球画像EPから第1の視線ベクトルV1を算出することができる。なお、第1の視線ベクトルV1を算出する具体的な処理内容は、図15および図16を用いて後述する。   Further, the installation position of the camera 312 in the world coordinate system 530 is a known value. Therefore, the first line-of-sight vector V1 can be calculated from the eyeball image EP of the subject photographed by the camera 312. Specific processing contents for calculating the first line-of-sight vector V1 will be described later with reference to FIGS.

ここで、第1の視線ベクトルV1は、例えば、下記式(1)を用いて、極座標系におけるベクトルによって表現される。ただし、V1は、第1の視線ベクトルである。また、r1は動径であり、世界座標系530の原点OWから眼球までの距離である。また、θ1は偏角であり、第1の視線ベクトルV1と世界座標系530の基準軸(例えば、ZW軸)とのなす角である。また、φ1は偏角であり、第1の視線ベクトルV1と世界座標系530の基準軸(例えば、XW軸)とのなす角である。 Here, the first line-of-sight vector V1 is expressed by a vector in the polar coordinate system using, for example, the following formula (1). However, V1 is a 1st gaze vector. Further, r1 is the radius is the distance from the origin O W of the world coordinate system 530 to the eye. Further, θ1 is a declination angle, which is an angle formed by the first line-of-sight vector V1 and the reference axis (for example, Z W axis) of the world coordinate system 530. Φ1 is a declination angle, which is an angle formed by the first line-of-sight vector V1 and the reference axis (for example, the XW axis) of the world coordinate system 530.

Figure 0005716345
Figure 0005716345

また、視線算出部602は、算出された第1の視線ベクトルV1に基づいて、表示画像SP上の仮の視線位置VPを算出する。ここで、仮の視線位置VPは、被写体の眼球からディスプレイ311に向かう第1の視線ベクトルV1と、ディスプレイ311の表示画像SPとが交差する表示画像SP上の点の座標位置である。   The line-of-sight calculation unit 602 calculates a temporary line-of-sight position VP on the display image SP based on the calculated first line-of-sight vector V1. Here, the temporary line-of-sight position VP is a coordinate position of a point on the display image SP where the first line-of-sight vector V1 directed from the eyeball of the subject toward the display 311 and the display image SP of the display 311 intersect.

具体的には、例えば、視線算出部602が、第1の視線ベクトルV1の方向に伸びる直線と表示画像SPとが交わる点の座標位置を、表示画像SP上の仮の視線位置VPとして算出する。以下の説明では、仮の視線位置VPの座標位置を「(XW,YW)=(vx,vy)」と表記する。なお、仮の視線位置VPを算出する具体的な処理内容については、図17を用いて後述する。 Specifically, for example, the line-of-sight calculation unit 602 calculates the coordinate position of the point where the straight line extending in the direction of the first line-of-sight vector V1 and the display image SP intersects as the temporary line-of-sight position VP on the display image SP. . In the following description, the coordinate position of the temporary visual line position VP is expressed as “(X W , Y W ) = (vx, vy)”. The specific processing content for calculating the temporary visual line position VP will be described later with reference to FIG.

分割部603は、ディスプレイ311の画面に表示された表示画像SPを区切って区画群に分割する。ここで、区画とは、ディスプレイ311の画面を区切って分割された所定範囲の領域(例えば、円、三角形、矩形など)である。具体的には、例えば、分割部603が、ディスプレイ311の画面の縦横をそれぞれM等分することにより、画面を区画群に分割することにしてもよい。   The division unit 603 divides the display image SP displayed on the screen of the display 311 into division groups. Here, the section is an area (for example, a circle, a triangle, a rectangle, etc.) of a predetermined range divided by dividing the screen of the display 311. Specifically, for example, the dividing unit 603 may divide the screen into partition groups by dividing the screen of the display 311 into M equal parts.

以下の説明では、表示画像SPを区切って分割された区画群を「区画D1〜Dm」と表記し、区画D1〜Dmのうち任意の区画を「区画Di」と表記する(i=1,2,…,m)。また、区画Diを、世界座標系530のXW座標の範囲と、世界座標系530のYW座標の範囲によって指定される矩形領域とする。 In the following description, a group of sections divided by dividing the display image SP is referred to as “partitions D1 to Dm”, and an arbitrary section among the sections D1 to Dm is referred to as “partition Di” (i = 1, 2). , ..., m). Further, the section Di is a rectangular area specified by the X W coordinate range of the world coordinate system 530 and the Y W coordinate range of the world coordinate system 530.

検索部604は、表示画像SPを区切って分割された区画D1〜Dmの中から、仮の視線位置VPを含む区画Diを検索する。具体的には、例えば、検索部604が、区画Diを指定するXW座標の範囲内に仮の視線位置VPのXW座標「vx」を含み、かつ、区画Diを指定するYW座標の範囲内に仮の視線位置VPのYW座標「vy」を含む区画Diを検索する。 The search unit 604 searches for a section Di including the temporary line-of-sight position VP from the sections D1 to Dm divided by dividing the display image SP. Specifically, for example, the search unit 604, within the range of X W coordinate that specifies the partition Di includes X W coordinate "vx" tentative gaze position VP, and the Y W coordinate that specifies the partition Di A section Di that includes the Y W coordinate “vy” of the temporary line-of-sight position VP in the range is searched.

特徴量算出部605は、検索された区画Diに含まれる画素の画素値に基づいて、区画Di内の領域ごとの特徴を抽出した特徴量を算出する。ここで、領域とは、区画Diを任意の大きさで区切って分割した画像領域である。例えば、領域は、区画Diを画素単位で区切って分割したものでもよく、また、区画Diをa画素×b画素の単位で分割したものでもよい(a,b:自然数)。画素の画素値とは、例えば、画素の色(赤、緑、青)ごとの輝度である。輝度とは、各領域の色ごとの明るさの度合いを表す値である。   The feature amount calculation unit 605 calculates a feature amount obtained by extracting features for each region in the section Di based on the pixel values of the pixels included in the searched section Di. Here, the region is an image region obtained by dividing the partition Di by dividing it into an arbitrary size. For example, the region may be divided and divided into sections Di in units of pixels, or may be divided into sections Di in units of a pixels × b pixels (a, b: natural numbers). The pixel value of a pixel is the brightness | luminance for every color (red, green, blue) of a pixel, for example. Luminance is a value that represents the degree of brightness for each color in each region.

特徴量とは、人の視覚的な注意を引きつける強さを表す指標値である。すなわち、区画Di内の複数の領域のうち特徴量が大きい領域ほど、人の視覚的な注意を引きつける強さが大きい領域となる。ただし、各領域の特徴量は、複数の領域の特徴を相対評価して算出してもよく、また、各領域の特徴を絶対評価して算出してもよい。   The feature amount is an index value that represents the strength of attracting a person's visual attention. In other words, the region having the larger feature amount among the plurality of regions in the section Di is a region having a greater strength for attracting human visual attention. However, the feature amount of each region may be calculated by relatively evaluating the features of a plurality of regions, or may be calculated by absolute evaluation of the features of each region.

具体的には、例えば、特徴量算出部605が、表示画像SPの中から、検索された区画Diの画像を抽出する。そして、特徴量算出部605が、抽出された区画Diの画像上の領域ごとの特徴を抽出した特徴量を算出する。なお、特徴量算出部605の具体的な処理内容は、図18〜図29を用いて後述する。   Specifically, for example, the feature amount calculation unit 605 extracts the image of the searched section Di from the display image SP. Then, the feature amount calculation unit 605 calculates a feature amount obtained by extracting features for each region on the extracted image of the section Di. The specific processing content of the feature amount calculation unit 605 will be described later with reference to FIGS.

また、特徴量算出部605が、表示画像SPに含まれる画素の画素値に基づいて、表示画像SP上の領域ごとの特徴を抽出した特徴量を算出する。そして、特徴量算出部605が、表示画像SP上の領域ごとの特徴量の中から、区画Diの領域ごとの特徴量を抽出することにしてもよい。   Further, the feature amount calculation unit 605 calculates a feature amount obtained by extracting features for each region on the display image SP based on the pixel values of the pixels included in the display image SP. Then, the feature amount calculation unit 605 may extract the feature amount for each region of the section Di from the feature amounts for each region on the display image SP.

以下の説明では、領域の一例として、区画Di内の各画素を例に挙げて説明する。また、区画Di内の複数の画素を「画素p1〜pn」と表記し、画素p1〜pnのうち任意の画素を「画素pj」と表記する(j=1,2,…,n)。また、各画素p1〜pnの特徴量を「特徴量C1〜Cn」と表記する。   In the following description, each pixel in the section Di will be described as an example of the region. In addition, a plurality of pixels in the section Di are denoted as “pixels p1 to pn”, and an arbitrary pixel among the pixels p1 to pn is denoted as “pixel pj” (j = 1, 2,..., N). Further, the feature amounts of the pixels p1 to pn are referred to as “feature amounts C1 to Cn”.

算出された画素p1〜pnごとの特徴量C1〜Cnは、例えば、図8に示す特徴量テーブル800に記憶される。特徴量テーブル800は、例えば、RAM303、磁気ディスク305、光ディスク307などの記憶装置により実現される。ここで、特徴量テーブル800の記憶内容について説明する。   The calculated feature amounts C1 to Cn for the pixels p1 to pn are stored in, for example, the feature amount table 800 illustrated in FIG. The feature amount table 800 is realized by a storage device such as the RAM 303, the magnetic disk 305, and the optical disk 307, for example. Here, the contents stored in the feature amount table 800 will be described.

図8は、特徴量テーブルの記憶内容の一例を示す説明図である。図8において、特徴量テーブル800は、画素ID、座標位置および特徴量のフィールドを有し、画素p1〜pnごとの特徴量データ800−1〜800−nをレコードとして記憶している。   FIG. 8 is an explanatory diagram of an example of the contents stored in the feature amount table. In FIG. 8, the feature quantity table 800 has fields of pixel ID, coordinate position, and feature quantity, and stores feature quantity data 800-1 to 800-n for each of the pixels p1 to pn as records.

画素IDとは、区画Di内の画素pjの識別子である。座標位置は、世界座標系530における画素pjのXW座標およびYW座標である。ただし、世界座標系530における画素pjのZW座標は「0」とする。特徴量とは、画素pjの人の視覚的な注意を引きつける強さを表す指標値である。 The pixel ID is an identifier of the pixel pj in the section Di. The coordinate position is the X W coordinate and Y W coordinate of the pixel pj in the world coordinate system 530. However, the Z W coordinate of the pixel pj in the world coordinate system 530 is “0”. The feature amount is an index value representing the strength that attracts the visual attention of the person of the pixel pj.

図6の説明に戻り、注視点決定部606は、算出された画素p1〜pnごとの特徴量C1〜Cnに基づいて、区画Di内の画素p1〜pnのいずれかの画素pjを、被写体が注視している注視点Gに決定する。ここで、区画Di内の画素p1〜pnのうち特徴量が大きい画素pjは、人の視線が向きやすい領域であり、人が注視している可能性が高い領域である。   Returning to the description of FIG. 6, the gaze point determination unit 606 determines that the pixel pj of any of the pixels p1 to pn in the section Di is based on the calculated feature amounts C1 to Cn for the pixels p1 to pn. The gazing point G being watched is determined. Here, the pixel pj having a large feature amount among the pixels p1 to pn in the section Di is a region where a person's line of sight is likely to be directed, and is a region that is likely to be watched by a person.

そこで、注視点決定部606が、例えば、特徴量テーブル800を参照して、画素p1〜pnのうち、特徴量が最大となる画素pjを注視点Gに決定することにしてもよい。例えば、特徴量テーブル800内の特徴量C1〜Cnのうち特徴量C1が最大であるとする。この場合、決定部が、画素p1〜pnのうち、特徴量が最大となる画素p1の座標位置「(XW,YW)=(x1,y1)」を注視点Gに決定する。 Accordingly, the gazing point determination unit 606 may determine the pixel pj having the maximum feature amount as the gazing point G among the pixels p1 to pn with reference to the feature amount table 800, for example. For example, it is assumed that the feature amount C1 is the largest among the feature amounts C1 to Cn in the feature amount table 800. In this case, the determination unit determines the coordinate position “(X W , Y W ) = (x1, y1)” of the pixel p1 having the maximum feature amount among the pixels p1 to pn as the gaze point G.

これにより、区画Di内の画素p1〜pnのうち、人の視覚的な注意を引きつける強さが最も大きく、人の視線が最も向きやすい画素pj(例えば、画素p1)を注視点Gに決定することができる。以下の説明では、世界座標系530における注視点GのXW座標を「gx」とし、YW座標を「gy」とする。ただし、世界座標系530における注視点GのZW座標は「0」とする。なお、注視点Gを決定する他の決定手法については、図13を用いて後述する。 As a result, among the pixels p1 to pn in the section Di, the pixel pj (for example, the pixel p1) that has the greatest strength for attracting human visual attention and that is most likely to face the human eye is determined as the gazing point G. be able to. In the following description, the X W coordinate of the gazing point G in the world coordinate system 530 is “gx”, and the Y W coordinate is “gy”. However, the Z W coordinate of the gazing point G in the world coordinate system 530 is “0”. Note that another determination method for determining the gazing point G will be described later with reference to FIG.

また、視線算出部602は、被写体の眼球から、決定された注視点Gに向かう第2の視線ベクトルV2を算出する。具体的には、例えば、視線算出部602が、世界座標系530における眼球の角膜曲率中心の座標位置と注視点Gの座標位置とに基づいて、第2の視線ベクトルV2を算出する。なお、第2の視線ベクトルV2を算出する具体的な処理内容は、図17を用いて後述する。   Also, the line-of-sight calculation unit 602 calculates a second line-of-sight vector V2 toward the determined gazing point G from the subject's eyeball. Specifically, for example, the line-of-sight calculation unit 602 calculates the second line-of-sight vector V2 based on the coordinate position of the corneal curvature center of the eyeball and the coordinate position of the gazing point G in the world coordinate system 530. The specific processing content for calculating the second line-of-sight vector V2 will be described later with reference to FIG.

ここで、第2の視線ベクトルV2は、例えば、下記式(2)を用いて、極座標系におけるベクトルによって表現される。V2は、第2の視線ベクトルである。また、r2は動径であり、世界座標系530の原点OWから眼球までの距離である。また、θ2は偏角であり、第2の視線ベクトルV2と世界座標系530の基準軸(例えば、ZW軸)とのなす角である。また、φ2は偏角であり、第2の視線ベクトルV2と世界座標系530の基準軸(例えば、XW軸)とのなす角である。 Here, the second line-of-sight vector V2 is expressed by a vector in the polar coordinate system using, for example, the following equation (2). V2 is a second line-of-sight vector. Further, r2 is the radius vector is the distance from the origin O W of the world coordinate system 530 to the eye. Further, θ2 is a declination angle, which is an angle formed by the second line-of-sight vector V2 and the reference axis (for example, Z W axis) of the world coordinate system 530. Φ2 is a declination angle, which is an angle formed between the second line-of-sight vector V2 and the reference axis (for example, the XW axis) of the world coordinate system 530.

Figure 0005716345
Figure 0005716345

関連付け部607は、算出された区画Di内の仮の視線位置VPと、決定された区画Di内の注視点Gの座標位置とを関連付ける。具体的には、例えば、関連付け部607が、区画Diごとに、仮の視線位置VPの算出元である第1の視線ベクトルV1と、被写体の眼球から注視点Gに向かう第2の視線ベクトルV2とを関連付けることにしてもよい。   The associating unit 607 associates the calculated temporary line-of-sight position VP in the section Di with the coordinate position of the gazing point G in the determined section Di. Specifically, for example, for each section Di, the associating unit 607 includes a first line-of-sight vector V1 that is a calculation source of the temporary line-of-sight position VP, and a second line-of-sight vector V2 from the subject's eyeball toward the gazing point G. May be associated with each other.

以下の説明では、関連付け部607が、区画Diごとに、第1の視線ベクトルV1と第2の視線ベクトルV2とをベクトルペアとして関連付ける場合を例に挙げて説明する。   In the following description, the case where the associating unit 607 associates the first line-of-sight vector V1 and the second line-of-sight vector V2 as a vector pair for each section Di will be described as an example.

登録/更新部608は、関連付けられた区画Diのベクトルペアを図9に示すベクトルペアテーブル900に登録する。ベクトルペアテーブル900は、例えば、RAM303、磁気ディスク305、光ディスク307などの記憶装置により実現される。ここで、ベクトルペアテーブル900の記憶内容について説明する。   The registration / update unit 608 registers the vector pair of the associated section Di in the vector pair table 900 shown in FIG. The vector pair table 900 is realized by a storage device such as the RAM 303, the magnetic disk 305, and the optical disk 307, for example. Here, the contents stored in the vector pair table 900 will be described.

図9は、ベクトルペアテーブルの記憶内容の一例を示す説明図である。図9において、ベクトルペアテーブル900は、ペアID、区画ID、θ1、φ1、θ2およびφ2のフィールドを有し、ベクトルペアP1〜P3ごとの偏角データ(例えば、偏角データ900−1〜900−3)をレコードとして記憶している。   FIG. 9 is an explanatory diagram of an example of the contents stored in the vector pair table. In FIG. 9, the vector pair table 900 has fields of pair ID, section ID, θ1, φ1, θ2, and φ2, and includes deflection angle data (for example, deflection angle data 900-1 to 900-2) for each of the vector pairs P1 to P3. -3) is stored as a record.

ここで、ペアIDとは、第1の視線ベクトルV1と第2の視線ベクトルV2のベクトルペアの識別子である。区画IDは、仮の視線位置VPおよび注視点Gを含む区画Diの識別子である。θ1およびφ1は、第1の視線ベクトルV1の偏角である。θ2およびφ2は、第2の視線ベクトルV2の偏角である。なお、各偏角の単位は[度]である。   Here, the pair ID is an identifier of a vector pair of the first line-of-sight vector V1 and the second line-of-sight vector V2. The section ID is an identifier of the section Di including the temporary line-of-sight position VP and the gazing point G. θ1 and φ1 are declination angles of the first line-of-sight vector V1. θ2 and φ2 are the deflection angles of the second line-of-sight vector V2. The unit of each declination is [degree].

図6の説明に戻り、補正値算出部609は、関連付けられた区画Diごとの関連付け結果のうち、複数の区画の関連付け結果に基づいて、被写体に固有の補正値を算出する。ここで、補正値は、被写体の個人差にともなう視線位置の誤差を補正するためのキャリブレーションに用いるパラメータの値である。補正値は、具体的には、例えば、下記式(3)に示す行列W(以下、「キャリブレーション行列W」という)に含まれるパラメータω1〜ω4の値である。 Returning to the description of FIG. 6, the correction value calculation unit 609 calculates a correction value unique to the subject based on the association result of a plurality of sections among the association results for each of the associated sections Di. Here, the correction value is a value of a parameter used for calibration for correcting an error of the line-of-sight position due to individual differences of subjects. Specifically, the correction value is, for example, a value of parameters ω 1 to ω 4 included in a matrix W (hereinafter referred to as “calibration matrix W”) represented by the following formula (3).

Figure 0005716345
Figure 0005716345

具体的には、例えば、補正値算出部609が、下記式(4)を用いて、被写体に固有のパラメータω1〜ω4の値を算出することができる。ただし、V1は第1の視線ベクトル、V2は第2の視線ベクトル、Wはキャリブレーション行列である。 Specifically, for example, the correction value calculation unit 609 can calculate the values of parameters ω 1 to ω 4 unique to the subject using the following equation (4). Here, V1 is a first line-of-sight vector, V2 is a second line-of-sight vector, and W is a calibration matrix.

Figure 0005716345
Figure 0005716345

より具体的には、例えば、補正値算出部609が、関連付けられた区画Diごとの関連付け結果のうち、所定の区画数N以上の区画の関連付け結果に基づいて、被写体に固有の補正値を算出する。ここで、所定の区画数Nは、2以上n以下の任意の値である。例えば、画面内の全区画数nを「n=16」とすると、所定の区画数Nは、例えば、「N=10」、「N=13」、「N=16」などに設定される。   More specifically, for example, the correction value calculation unit 609 calculates a correction value specific to the subject based on an association result of a predetermined number of divisions N or more among association results for each associated division Di. To do. Here, the predetermined number N of partitions is an arbitrary value between 2 and n. For example, when the total number n of partitions in the screen is “n = 16”, the predetermined number of partitions N is set to “N = 10”, “N = 13”, “N = 16”, and the like.

区画数Nの値として、例えば、画面内の全区画数nの値を設定することにより、補正値の算出元となる注視点Gの座標位置を、画面上に均一に分散させることができる。区画数Nは、例えば、ROM302、RAM303、磁気ディスク305、光ディスク307などの記憶装置に記憶されている。なお、補正値算出部609の具体的な処理内容については後述する。   As the value of the number of sections N, for example, by setting the value of the total number of sections n in the screen, the coordinate position of the gazing point G from which the correction value is calculated can be uniformly distributed on the screen. The number of partitions N is stored in a storage device such as the ROM 302, the RAM 303, the magnetic disk 305, and the optical disk 307, for example. The specific processing content of the correction value calculation unit 609 will be described later.

また、算出された補正値は、例えば、図10に示すパラメータテーブル1000に記憶される。パラメータテーブル1000は、例えば、RAM303、磁気ディスク305、光ディスク307などの記憶装置により実現される。   Further, the calculated correction value is stored in, for example, the parameter table 1000 shown in FIG. The parameter table 1000 is realized by a storage device such as the RAM 303, the magnetic disk 305, and the optical disk 307, for example.

図10は、パラメータテーブルの記憶内容の一例を示す説明図である。図10において、パラメータテーブル1000は、キャリブレーション行列Wに含まれるパラメータω1〜ω4の値を保持している。 FIG. 10 is an explanatory diagram of an example of the contents stored in the parameter table. In FIG. 10, the parameter table 1000 holds the values of parameters ω 1 to ω 4 included in the calibration matrix W.

図6の説明に戻り、補正部610は、被写体に固有の補正値を用いて、表示画像SP上の仮の視線位置VPを補正する。具体的には、例えば、補正部610が、下記式(5)を用いて、仮の視線位置VPの算出元である第1の視線ベクトルV1を補正する。ただし、V1’は補正後の第1の視線ベクトル、V1は第1の視線ベクトル、Wはキャリブレーション行列である。   Returning to the description of FIG. 6, the correction unit 610 corrects the temporary line-of-sight position VP on the display image SP using a correction value unique to the subject. Specifically, for example, the correction unit 610 corrects the first line-of-sight vector V1, which is the calculation source of the temporary line-of-sight position VP, using the following equation (5). Where V1 'is the corrected first line-of-sight vector, V1 is the first line-of-sight vector, and W is the calibration matrix.

Figure 0005716345
Figure 0005716345

より具体的には、例えば、補正部610が、パラメータテーブル1000を参照して、各パラメータω1〜ω4の値を上記式(5)に代入する。さらに、補正部610が、第1の視線ベクトルV1の動径r1および偏角θ1、φ1を上記式(5)に代入することにより、補正後の第1の視線ベクトルV1’を算出することができる。 More specifically, for example, the correction unit 610 refers to the parameter table 1000 and substitutes the values of the parameters ω 1 to ω 4 into the above equation (5). Furthermore, the correction unit 610 calculates the corrected first line-of-sight vector V1 ′ by substituting the radius r1 and the declination angles θ1 and φ1 of the first line-of-sight vector V1 into the above equation (5). it can.

また、補正部610は、補正された補正後の第1の視線ベクトルV1’に基づいて、表示画像SP上の視線位置を算出する。具体的には、例えば、補正部610が、補正後の第1の視線ベクトルV1’の方向に伸びる直線と表示画像SPとが交わる点の座標位置を、表示画像SP上の視線位置として算出する。ここで、補正後の第1の視線ベクトルV1’に基づく表示画像SP上の視線位置は、被写体の個人差にともなう誤差が補正された被写体の視線位置(以下、「被写体の視線位置RP」という)である。   Further, the correcting unit 610 calculates the line-of-sight position on the display image SP based on the corrected first line-of-sight vector V1 'after correction. Specifically, for example, the correction unit 610 calculates the coordinate position of the point where the straight line extending in the direction of the corrected first line-of-sight vector V1 ′ and the display image SP intersects as the line-of-sight position on the display image SP. . Here, the line-of-sight position on the display image SP based on the corrected first line-of-sight vector V1 ′ is the line-of-sight position of the subject (hereinafter referred to as “the line-of-sight position RP of the subject”) in which the error due to the individual difference of the subject is corrected. ).

出力部611は、表示画像SP上の被写体の視線位置RPを出力する。具体的には、例えば、出力部611が、表示画像SPと、表示画像SP上の被写体の視線位置RPとを関連付けて示す視線検出結果を出力する。ここで、視線検出結果の具体例について説明する。   The output unit 611 outputs the line-of-sight position RP of the subject on the display image SP. Specifically, for example, the output unit 611 outputs a line-of-sight detection result indicating the display image SP in association with the line-of-sight position RP of the subject on the display image SP. Here, a specific example of the line-of-sight detection result will be described.

図11は、視線検出結果の具体例を示す説明図である。図11において、視線検出結果Rは、画像ID、時刻および座標位置を有している。画像IDは、表示画像SPの識別子である。時刻は、眼球画像EPの撮影時刻であり、視線検出時刻を表している。座標位置は、世界座標系530における被写体の視線位置RPのXW座標およびYW座標である。 FIG. 11 is an explanatory diagram illustrating a specific example of the line-of-sight detection result. In FIG. 11, the line-of-sight detection result R has an image ID, a time, and a coordinate position. The image ID is an identifier of the display image SP. The time is the photographing time of the eyeball image EP and represents the eye gaze detection time. The coordinate positions are the X W coordinate and the Y W coordinate of the visual line position RP of the subject in the world coordinate system 530.

視線検出結果Rによれば、時刻tjに表示画像SPjを見ている被写体の表示画像SPj上での視線位置RP(xj,yj)を認識することができる。具体的には、例えば、視線検出結果Rは、例えば、表示装置103に対する入力インターフェースとして利用することができる。   According to the line-of-sight detection result R, it is possible to recognize the line-of-sight position RP (xj, yj) on the display image SPj of the subject who is viewing the display image SPj at time tj. Specifically, for example, the line-of-sight detection result R can be used as an input interface for the display device 103, for example.

なお、出力部611の出力形式としては、例えば、ディスプレイ311への表示、I/F308による外部装置への送信がある。また、他の出力形式として、RAM303、磁気ディスク305、光ディスク307などの記憶装置に記憶することにしてもよい。   The output format of the output unit 611 includes, for example, display on the display 311 and transmission to an external device through the I / F 308. Further, as another output format, the data may be stored in a storage device such as the RAM 303, the magnetic disk 305, and the optical disk 307.

また、出力部611は、算出された被写体に固有の補正値を出力することにしてもよい。具体的には、例えば、出力部611が、パラメータテーブル1000内のパラメータω1〜ω4の値を出力することにしてもよい。これにより、以降において、被写体に固有のパラメータω1〜ω4の値を用いて、キャリブレーションを行うことができる。 The output unit 611 may output a correction value unique to the calculated subject. Specifically, for example, the output unit 611 may output the values of the parameters ω 1 to ω 4 in the parameter table 1000. Thereby, calibration can be performed thereafter using the values of the parameters ω 1 to ω 4 unique to the subject.

判断部612は、表示画像SP上の仮の視線位置VPが停留点か否かを判断する。ここで、停留点とは、被写体の視線位置が停留している点である。ここでは、仮の視線位置VPが所定時間T以上、所定領域Q内に留まっている場合に、仮の視線位置VPが停留点であると定義する。   The determination unit 612 determines whether or not the temporary line-of-sight position VP on the display image SP is a stop point. Here, the stop point is a point where the line-of-sight position of the subject stops. Here, it is defined that the temporary visual line position VP is a stop point when the temporary visual line position VP remains in the predetermined region Q for a predetermined time T or longer.

具体的には、例えば、まず、判断部612が、表示画像SPにおいて、仮の視線位置VP(ここでは、「仮の視線位置VP[1]」という)を中心とする所定領域Qを設定する。所定領域Qは、例えば、仮の視線位置VP[1]を中心とする半径q(例えば、q=30[ピクセル])の円である。   Specifically, for example, first, the determination unit 612 sets a predetermined region Q centered on a temporary line-of-sight position VP (here, referred to as “provisional line-of-sight position VP [1]”) in the display image SP. . The predetermined region Q is, for example, a circle having a radius q (for example, q = 30 [pixel]) centered on the temporary line-of-sight position VP [1].

つぎに、視線算出部602が、例えば、仮の視線位置VP[1]の算出元となる眼球画像EPの撮影時刻から一定時間t0経過した後、新たな仮の視線位置VP[2]を算出する。そして、判断部612が、新たな仮の視線位置VP[2]が所定領域Q内に存在するか否かを判断する。ここで、新たな仮の視線位置VP[2]が所定領域Q内に存在しない場合、判断部612が、表示画像SP上の仮の視線位置VPが停留点ではないと判断する。 Next, the line-of-sight calculation unit 602, for example, sets a new temporary line-of-sight position VP [2] after a predetermined time t 0 has elapsed from the photographing time of the eyeball image EP that is a calculation source of the temporary line-of-sight position VP [1]. calculate. Then, the determination unit 612 determines whether or not the new temporary line-of-sight position VP [2] exists within the predetermined region Q. Here, when the new temporary line-of-sight position VP [2] does not exist within the predetermined region Q, the determination unit 612 determines that the temporary line-of-sight position VP on the display image SP is not a stop point.

一方、新たな仮の視線位置VP[2]が所定領域Q内に存在する場合、判断部612が、仮の視線位置VP[1]を算出した時点から所定時間T経過したか否かを判断する。ここで、所定時間T経過した場合、判断部612が、表示画像SP上の仮の視線位置VP[1]が停留点であると判断する。   On the other hand, when the new temporary line-of-sight position VP [2] exists in the predetermined region Q, the determination unit 612 determines whether or not a predetermined time T has elapsed since the temporary line-of-sight position VP [1] was calculated. To do. Here, when the predetermined time T has elapsed, the determination unit 612 determines that the temporary line-of-sight position VP [1] on the display image SP is a stop point.

一方、所定時間T経過していない場合、視線算出部602が、仮の視線位置VP[2]の算出元となる眼球画像EPの撮影時刻から一定時間t0経過した後、新たな仮の視線位置VP[3]を算出して、上記同様の処理を繰り返す。これにより、表示画像SP上の仮の視線位置VPが停留点か否かを判断することができる。 On the other hand, when the predetermined time T has not elapsed, the line-of-sight calculation unit 602 creates a new temporary line of sight after a predetermined time t 0 has elapsed from the photographing time of the eyeball image EP that is the calculation source of the temporary line-of-sight position VP [2]. The position VP [3] is calculated, and the same processing as described above is repeated. Thereby, it is possible to determine whether or not the temporary line-of-sight position VP on the display image SP is a stop point.

なお、所定領域Qの半径q、一定時間t0および所定時間Tは、例えば、予め設定されてROM302、RAM303、磁気ディスク305、光ディスク307などの記憶装置に記憶されている。 Note that the radius q, the predetermined time t 0, and the predetermined time T of the predetermined area Q are set in advance and stored in a storage device such as the ROM 302, the RAM 303, the magnetic disk 305, and the optical disk 307, for example.

また、関連付け部607は、表示画像SP上の仮の視線位置VPが停留点であると判断された場合に、第1の視線ベクトルV1と第2の視線ベクトルV2とをベクトルペアとして関連付けることにしてもよい。これにより、被写体が意識的に見た視線位置をもとに、被写体に固有の補正値を算出することができる。換言すれば、被写体の視線移動中の通過点を、補正値の算出元から排除することができる。この結果、被写体の視線の誤差を補正する際の補正精度を向上させることができる。   The association unit 607 associates the first line-of-sight vector V1 and the second line-of-sight vector V2 as a vector pair when it is determined that the temporary line-of-sight position VP on the display image SP is a stop point. May be. Accordingly, a correction value unique to the subject can be calculated based on the line-of-sight position that the subject has consciously viewed. In other words, a passing point during the movement of the line of sight of the subject can be excluded from the correction value calculation source. As a result, it is possible to improve the correction accuracy when correcting the line-of-sight error of the subject.

また、関連付け部607は、登録/更新部608によって登録された区画Diのベクトルペアの数が所定数A未満の場合、第1の視線ベクトルV1と第2の視線ベクトルV2とをベクトルペアとして関連付けることにしてもよい。具体的には、例えば、まず、関連付け部607が、ベクトルペアテーブル900内の区画IDフィールドに「Di」が設定されているレコード数を計数することにより、区画Diのベクトルペアの数を計数する。   The associating unit 607 associates the first line-of-sight vector V1 and the second line-of-sight vector V2 as a vector pair when the number of vector pairs of the section Di registered by the registration / update unit 608 is less than a predetermined number A. You may decide. Specifically, for example, first, the associating unit 607 counts the number of vector pairs of the partition Di by counting the number of records in which “Di” is set in the partition ID field in the vector pair table 900. .

そして、区画Diのベクトルペアの数が所定数A未満の場合、関連付け部607が、第1の視線ベクトルV1と第2の視線ベクトルV2とをベクトルペアとして関連付ける。一方、区画Diのベクトルペアの数が所定数A以上の場合、関連付け部607は、第1の視線ベクトルV1と第2の視線ベクトルV2との関連付けを行わない。これにより、区画Diごとのベクトルペアの数を平準化して、被写体に固有の補正値の算出元となるベクトルペアが特定の区画Diに偏ることを防ぐことができる。   When the number of vector pairs in the section Di is less than the predetermined number A, the associating unit 607 associates the first line-of-sight vector V1 and the second line-of-sight vector V2 as a vector pair. On the other hand, when the number of vector pairs in the section Di is equal to or greater than the predetermined number A, the associating unit 607 does not associate the first line-of-sight vector V1 with the second line-of-sight vector V2. As a result, the number of vector pairs for each section Di can be leveled to prevent the vector pair that is the calculation source of the correction value specific to the subject from being biased to a specific section Di.

なお、特徴量算出部605は、区画Diのベクトルペアの数が所定数A以上の場合、区画Di内の画素p1〜pnごとの特徴量C1〜Cnを算出しないことにしてもよい。これにより、画素p1〜pnごとの特徴量C1〜Cnの算出処理にかかる負荷を軽減することができる。   Note that the feature amount calculation unit 605 may not calculate the feature amounts C1 to Cn for the pixels p1 to pn in the partition Di when the number of vector pairs in the partition Di is equal to or greater than the predetermined number A. Thereby, the load concerning the calculation process of the feature-value C1-Cn for every pixel p1-pn can be reduced.

また、注視点決定部606は、区画Diのベクトルペアの数が所定数A以上の場合、区画Di内の注視点Gを決定しないことにしてもよい。これにより、区画Di内の注視点Gの決定処理にかかる負荷を軽減することができる。   The gazing point determination unit 606 may not determine the gazing point G in the section Di when the number of vector pairs in the section Di is equal to or greater than the predetermined number A. Thereby, the load concerning the determination process of the gazing point G in the section Di can be reduced.

また、登録/更新部608は、関連付けられた区画Diのベクトルペアに基づいて、ベクトルペアテーブル900に登録済みの区画Diのベクトルペアを更新することにしてもよい。具体的には、例えば、登録/更新部608が、未登録のベクトルペアと登録済みのベクトルペアとの間で、それぞれ注視点Gに決定された画素pjの特徴量Cjを比較する。   Further, the registration / update unit 608 may update the vector pair of the section Di registered in the vector pair table 900 based on the associated vector pair of the section Di. Specifically, for example, the registration / update unit 608 compares the feature amount Cj of the pixel pj determined as the gazing point G between the unregistered vector pair and the registered vector pair.

この結果、未登録のベクトルペアの特徴量Cjが大きい場合、ベクトルペアテーブル900に登録済みのベクトルペアを未登録のベクトルペアに更新する。これにより、注視点Gに決定された画素pjの特徴量Cjが大きくなるように区間Diのベクトルペアを更新することができ、補正値の算出元としてより適切なベクトルペアをベクトルペアテーブル900に登録することができる。   As a result, when the feature amount Cj of the unregistered vector pair is large, the vector pair registered in the vector pair table 900 is updated to an unregistered vector pair. As a result, the vector pair in the section Di can be updated so that the feature amount Cj of the pixel pj determined as the gazing point G becomes large, and a more appropriate vector pair as a correction value calculation source is stored in the vector pair table 900. You can register.

なお、上述した説明では、世界座標系530におけるディスプレイ311と被写体の眼球とのZW軸方向の距離を、予め設定することにしたが、これに限らない。例えば、既存技術を利用して、ディスプレイ311に対向している被写体にレーザ光を照射し、レーザ光が反射して戻ってくるまでの時間から、ディスプレイ311と被写体の眼球との距離を測定することにしてもよい。 Incidentally, in the above description, the distance Z W-axis direction between the eye of the display 311 and the object in the world coordinate system 530, it has been to be preset, is not limited thereto. For example, using existing technology, a subject facing the display 311 is irradiated with laser light, and the distance between the display 311 and the subject's eyeball is measured from the time it takes for the laser light to be reflected back. You may decide.

(注視点Gの決定手法)
つぎに、表示画像SP上の仮の視線位置VPを含む区画Di内の注視点Gを決定する他の決定手法について説明する。以下に説明する決定手法では、人や地物などのオブジェクトを表す領域は、他の領域に比べて人間の視覚的な注意を引きつける強さが大きくなることを想定する。
(Method for determining gaze point G)
Next, another determination method for determining the gazing point G in the section Di including the temporary line-of-sight position VP on the display image SP will be described. In the determination method described below, it is assumed that an area representing an object such as a person or a feature has a greater strength to attract human visual attention than other areas.

そこで、まず、注視点決定部606は、区画Di上のオブジェクトを閉領域として抽出することにより、被写体の視線が向いている領域を絞り込む。具体的には、例えば、注視点決定部606が、区画Diにラベリング処理を施すことにより、区画Diの中から複数の閉領域を抽出する。ラベリング処理とは、2値化処理された画像において、連結している画素に同じラベル(番号)を属性として付加することで、閉領域を抽出する処理である。   Therefore, first, the gazing point determination unit 606 extracts an object on the section Di as a closed region, thereby narrowing down a region where the line of sight of the subject is facing. Specifically, for example, the gazing point determination unit 606 extracts a plurality of closed regions from the section Di by applying a labeling process to the section Di. The labeling process is a process for extracting a closed region by adding the same label (number) as an attribute to connected pixels in a binarized image.

以下の説明では、表示画像SP上の仮の視線位置VPを含む区画Di内の閉領域を「閉領域H1〜HK」と表記し、閉領域H1〜HKのうち任意の閉領域を「閉領域Hk」と表記する(k=1,2,…,K)。また、閉領域Hkに含まれる画素群を「画素p[1]〜p[V]」と表記し、画素p[1]〜p[V]のうち任意の画素を「画素p[v]」と表記する。ただし、画素p[v]は、区画Di内のいずれかの画素pjに対応している。さらに、各画素p[1]〜p[V]の特徴量を「特徴量C[1]〜C[V]」と表記する。ここで、区画Di内の閉領域Hkの具体例について説明する。   In the following description, the closed region in the section Di including the temporary line-of-sight position VP on the display image SP is referred to as “closed region H1 to HK”, and any closed region among the closed regions H1 to HK is referred to as “closed region”. Hk ”(k = 1, 2,..., K). In addition, a pixel group included in the closed region Hk is expressed as “pixels p [1] to p [V]”, and an arbitrary pixel among the pixels p [1] to p [V] is referred to as “pixel p [v]”. Is written. However, the pixel p [v] corresponds to one of the pixels pj in the section Di. Further, the feature amounts of the pixels p [1] to p [V] are expressed as “feature amounts C [1] to C [V]”. Here, a specific example of the closed region Hk in the section Di will be described.

図12は、区画内の閉領域の具体例を示す説明図である。図12において、画像1210は、表示画像SP上の仮の視線位置VPを含む区画Di内の各画素を「黒」または「白」によって表現する2値化画像である。具体的には、例えば、注視点決定部606が、区画Diの画像に対して2値化処理を施すことにより画像1210を作成する。2値化処理の具体的な処理内容は図18を用いて後述する。   FIG. 12 is an explanatory diagram illustrating a specific example of a closed region in a section. In FIG. 12, an image 1210 is a binarized image in which each pixel in the section Di including the temporary line-of-sight position VP on the display image SP is expressed by “black” or “white”. Specifically, for example, the gazing point determination unit 606 creates the image 1210 by performing binarization processing on the image of the section Di. Specific processing contents of the binarization processing will be described later with reference to FIG.

また、画像1220は、画像1210の縦方向、横方向に連続している画素に同じラベルが付加された画像である。具体的には、例えば、注視点決定部606が、画像1210の左上から右方向に走査して、縦方向、横方向に連続している画素に同じラベルを付加することにより画像1220を作成する。   The image 1220 is an image in which the same label is added to pixels that are continuous in the vertical and horizontal directions of the image 1210. Specifically, for example, the gazing point determination unit 606 creates the image 1220 by scanning from the upper left of the image 1210 to the right and adding the same label to pixels that are continuous in the vertical and horizontal directions. .

このあと、注視点決定部606が、画像1220の中から、同じラベル(ただし、「0」を除く)が付加された画素の集合を閉領域Hkとして抽出する。ここでは、画像1220の中から、閉領域H1〜H3が抽出される。これにより、区画Di内のオブジェクトを閉領域H1〜H3として抽出することができる。   Thereafter, the gazing point determination unit 606 extracts a set of pixels to which the same label (excluding “0”) is added from the image 1220 as the closed region Hk. Here, closed regions H1 to H3 are extracted from the image 1220. Thereby, the object in the division Di can be extracted as the closed regions H1 to H3.

以下、図12に示す複数の閉領域H1〜H3の中から、注視点Gを含む閉領域を決定する決定手法1〜4について説明する。   Hereinafter, determination methods 1 to 4 for determining a closed region including the gazing point G from the plurality of closed regions H1 to H3 illustrated in FIG. 12 will be described.

<決定手法1>
まず、各閉領域Hkに含まれる画素p[v]ごとの特徴量C[v]に基づいて、注視点Gを含む閉領域を決定する場合について説明する。ここでは、閉領域Hkに含まれる画素p[v]の特徴量C[v]の最大値が大きくなればなるほど、人間の視覚的な注意を引きつける強さが大きくなることを想定する。
<Determination method 1>
First, a case will be described in which a closed region including the gazing point G is determined based on the feature amount C [v] for each pixel p [v] included in each closed region Hk. Here, it is assumed that the greater the maximum value of the feature value C [v] of the pixel p [v] included in the closed region Hk, the greater the strength of attracting human visual attention.

注視点決定部606は、図8に示した特徴量テーブル800を参照して、区画Di内の閉領域Hkごとに、閉領域Hkに含まれる画素p[1]〜p[V]の特徴量C[1]〜C[V]うち、最大の特徴量(以下、「極大値Cmax(k)」と表記する)を特定する。 The gaze point determination unit 606 refers to the feature amount table 800 illustrated in FIG. 8, and for each closed region Hk in the section Di, the feature amount of the pixels p [1] to p [V] included in the closed region Hk. Among C [1] to C [V], the maximum feature amount (hereinafter referred to as “maximum value C max (k)”) is specified.

特定された閉領域Hkごとの極大値Cmax(k)は、例えば、図13に示す閉領域データテーブル1300に記憶される。閉領域データテーブル1300は、例えば、RAM303、磁気ディスク305、光ディスク307などの記憶装置により実現される。ここで、閉領域データテーブル1300の記憶内容について説明する。 The maximum value C max (k) for each identified closed region Hk is stored in, for example, the closed region data table 1300 shown in FIG. The closed area data table 1300 is realized by a storage device such as the RAM 303, the magnetic disk 305, and the optical disk 307, for example. Here, the contents stored in the closed region data table 1300 will be described.

図13は、閉領域データテーブルの記憶内容の一例を示す説明図である。図13において、閉領域データテーブル1300は、閉領域ID、極大値、面積、集中度および評価値のフィールドを有し、閉領域Hkごとの閉領域データをレコードとして記憶する。   FIG. 13 is an explanatory diagram showing an example of the contents stored in the closed region data table. In FIG. 13, a closed region data table 1300 has fields of closed region ID, maximum value, area, concentration degree, and evaluation value, and stores closed region data for each closed region Hk as a record.

閉領域IDは、閉領域Hkの識別子である。極大値は、閉領域Hkの極大値Cmax(k)である。面積は、閉領域Hkの面積Skである。集中度は、閉領域Hkの集中度Fkである。評価値は、閉領域Hkの評価値Ekである。なお、集中度Fkおよび評価値Ekについての詳細な説明は後述する。 The closed area ID is an identifier of the closed area Hk. The maximum value is the maximum value C max (k) of the closed region Hk. The area is the area Sk of the closed region Hk. The concentration degree is the concentration degree Fk of the closed region Hk. The evaluation value is the evaluation value Ek of the closed region Hk. A detailed description of the concentration degree Fk and the evaluation value Ek will be described later.

図13の(13−1)において、閉領域H1の閉領域ID『H1』が閉領域IDフィールドに設定され、閉領域H1の極大値『200』が極大値フィールドに設定されて、閉領域データ1300−1がレコードとして閉領域データテーブル1300に記憶されている。同(13−1)において、閉領域H2の閉領域ID『H2』が閉領域IDフィールドに設定され、閉領域H2の極大値『250』が極大値フィールドに設定されて、閉領域データ1300−2がレコードとして閉領域データテーブル1300に記憶されている。同(13−1)において、閉領域H3の閉領域ID『H3』が閉領域IDフィールドに設定され、閉領域H3の極大値『100』が極大値フィールドに設定されて、閉領域データ1300−3がレコードとして閉領域データテーブル1300に記憶されている。   In (13-1) of FIG. 13, the closed region ID “H1” of the closed region H1 is set in the closed region ID field, and the maximum value “200” of the closed region H1 is set in the maximum value field. 1300-1 is stored in the closed area data table 1300 as a record. In (13-1), the closed region ID “H2” of the closed region H2 is set in the closed region ID field, the maximum value “250” of the closed region H2 is set in the maximum value field, and the closed region data 1300− 2 is stored in the closed area data table 1300 as a record. In (13-1), the closed region ID “H3” of the closed region H3 is set in the closed region ID field, the maximum value “100” of the closed region H3 is set in the maximum value field, and the closed region data 1300− 3 is stored in the closed area data table 1300 as a record.

注視点決定部606は、閉領域H1〜HKの中から、極大値Cmax(k)が最大の閉領域Hkを、注視点Gを含む閉領域に決定する。具体的には、例えば、注視点決定部606が、閉領域データテーブル1300を参照して、極大値が最大の閉領域H2を、注視点Gを含む閉領域に決定する。 The gazing point determination unit 606 determines the closed region Hk having the maximum local maximum C max (k) as the closed region including the gazing point G from the closed regions H1 to HK. Specifically, for example, the gazing point determination unit 606 refers to the closed region data table 1300 to determine the closed region H2 having the maximum maximum value as a closed region including the gazing point G.

ここで、閉領域H1〜HKの中に、極大値Cmax(k)が最大の閉領域Hkが複数存在する場合がある。この場合、例えば、注視点決定部606が、極大値Cmax(k)が最大の各閉領域Hkの重心と仮の視線位置VPとの距離を算出して、仮の視線位置VPとの距離が最小の閉領域Hkを、注視点Gを含む閉領域に決定することにしてもよい。 Here, there may be a plurality of closed regions Hk having the maximum local maximum C max (k) in the closed regions H1 to HK. In this case, for example, the gazing point determination unit 606 calculates the distance between the center of gravity of each closed region Hk having the maximum maximum value C max (k) and the temporary gaze position VP, and the distance from the temporary gaze position VP. May be determined as a closed region including the gazing point G.

また、注視点決定部606は、決定された閉領域Hk内の画素p[1]〜p[V]のいずれかの画素p[v]を、被写体が注視している注視点Gに決定する。具体的には、例えば、注視点決定部606が、閉領域Hk内の画素p[1]〜p[V]のうち、特徴量C[v]が極大値Cmax(k)の画素p[v]を注視点Gに決定する。 In addition, the gaze point determination unit 606 determines any pixel p [v] of the pixels p [1] to p [V] in the determined closed region Hk as the gaze point G at which the subject is gazing. . Specifically, for example, the gazing point determination unit 606 determines that the pixel p [1] has a maximum value C max (k) among the pixels p [1] to p [V] in the closed region Hk. v] is determined as the gaze point G.

この際、特徴量C[v]が極大値Cmax(k)の画素が複数存在する場合、例えば、注視点決定部606が、特徴量C[v]が極大値Cmax(k)の任意の画素p[v]を注視点Gに決定することにしてもよい。また、注視点決定部606は、決定された閉領域Hkの重心の位置を注視点Gに決定することにしてもよい。 At this time, when there are a plurality of pixels having the maximum value C max (k) of the feature quantity C [v], for example, the gazing point determination unit 606 determines that the feature quantity C [v] has the maximum value C max (k). The pixel p [v] may be determined as the gaze point G. The gazing point determination unit 606 may determine the position of the center of gravity of the determined closed region Hk as the gazing point G.

これにより、区画Di内のオブジェクトを表す閉領域H1〜HKの中から、極大値Cmax(k)が最大の閉領域Hkを、注視点Gを含む閉領域に決定することができる。 Thereby, the closed region Hk having the maximum local maximum C max (k) can be determined as the closed region including the gazing point G from the closed regions H1 to HK representing the objects in the section Di.

また、上記登録/更新部608は、注視点Gを含む閉領域に決定された閉領域Hkの極大値Cmax(k)に基づいて、ベクトルペアテーブル900に登録済みの区画Diのベクトルペアを更新することにしてもよい。具体的には、例えば、登録/更新部608が、未登録のベクトルペアと登録済みのベクトルペアとの間で、それぞれ注視点Gを含む閉領域に決定された閉領域Hkの極大値Cmax(k)を比較する。 Further, the registration / update unit 608 adds the vector pair of the section Di registered in the vector pair table 900 based on the maximum value C max (k) of the closed region Hk determined as the closed region including the gazing point G. You may decide to update. Specifically, for example, the maximum value C max of the closed region Hk determined by the registration / update unit 608 as the closed region including the gazing point G between the unregistered vector pair and the registered vector pair. Compare (k).

この結果、未登録のベクトルペアの極大値Cmax(k)が大きい場合、ベクトルペアテーブル900に登録済みのベクトルペアを未登録のベクトルペアに更新する。これにより、注視点Gを含む閉領域Hkの極大値Cmax(k)が大きくなるように区間Diのベクトルペアを更新することができ、補正値の算出元としてより適切なベクトルペアをベクトルペアテーブル900に登録することができる。 As a result, when the maximum value C max (k) of the unregistered vector pair is large, the vector pair registered in the vector pair table 900 is updated to an unregistered vector pair. As a result, the vector pair in the section Di can be updated so that the maximum value C max (k) of the closed region Hk including the gazing point G is increased, and a more appropriate vector pair can be selected as the correction value calculation source. It can be registered in the table 900.

なお、区画Diから抽出された閉領域Hkが一つの場合は、注視点決定部606は、閉領域Hk内の画素p[1]〜p[V]のうち、特徴量C[v]が最大の画素p[v]を注視点Gに決定することにしてもよい。   Note that when there is one closed region Hk extracted from the section Di, the gaze point determination unit 606 has the maximum feature amount C [v] among the pixels p [1] to p [V] in the closed region Hk. The pixel p [v] may be determined as the gaze point G.

<決定手法2>
つぎに、閉領域Hkごとの面積Skに基づいて、注視点Gを含む閉領域を決定する場合について説明する。ここでは、閉領域Hkの面積Skが大きくなればなるほど、人間の視覚的な注意を引きつける強さが大きくなることを想定する。
<Determination method 2>
Next, a case where the closed region including the gazing point G is determined based on the area Sk for each closed region Hk will be described. Here, it is assumed that the greater the area Sk of the closed region Hk, the greater the strength that attracts human visual attention.

注視点決定部606は、区画Di内の閉領域Hkごとに、閉領域Hkの面積Skを算出する。具体的には、例えば、注視点決定部606が、閉領域Hkに含まれる画素p[1]〜p[S]の画素数を計数することにより、閉領域Hkの面積Skを算出する。特定された閉領域Hkごとの面積Skは、例えば、図13に示した閉領域データテーブル1300に記憶される。   The gaze point determination unit 606 calculates the area Sk of the closed region Hk for each closed region Hk in the section Di. Specifically, for example, the gazing point determination unit 606 calculates the area Sk of the closed region Hk by counting the number of pixels p [1] to p [S] included in the closed region Hk. The area Sk for each identified closed region Hk is stored in, for example, the closed region data table 1300 illustrated in FIG.

図13の(13−2)において、閉領域H1の面積『26』が面積フィールドに設定されて、閉領域データ1300−1が更新されている。同(13−2)において、閉領域H2の面積『13』が面積フィールドに設定されて、閉領域データ1300−2が更新記憶されている。同(13−2)において、閉領域H3の面積『3』が面積フィールドに設定されて、閉領域データ1300−3が更新されている。   In (13-2) of FIG. 13, the area “26” of the closed region H1 is set in the area field, and the closed region data 1300-1 is updated. In (13-2), the area “13” of the closed region H2 is set in the area field, and the closed region data 1300-2 is updated and stored. In (13-2), the area “3” of the closed region H3 is set in the area field, and the closed region data 1300-3 is updated.

注視点決定部606は、閉領域H1〜HKの中から、面積Skが最大の閉領域Hkを、注視点Gを含む閉領域に決定する。具体的には、例えば、注視点決定部606が、閉領域データテーブル1300を参照して、面積が最大の閉領域H1を、注視点Gを含む閉領域に決定する。   The gazing point determination unit 606 determines the closed region Hk having the largest area Sk as the closed region including the gazing point G from the closed regions H1 to HK. Specifically, for example, the gazing point determination unit 606 refers to the closed region data table 1300 to determine the closed region H1 having the largest area as a closed region including the gazing point G.

ここで、閉領域H1〜HKの中に、面積Skが最大の閉領域Hkが複数存在する場合がある。この場合、例えば、注視点決定部606が、面積Skが最大の各閉領域Hkの重心と仮の視線位置VPとの距離を算出して、仮の視線位置VPとの距離が最小の閉領域Hkを、注視点Gを含む閉領域に決定することにしてもよい。   Here, there may be a plurality of closed regions Hk having the largest area Sk in the closed regions H1 to HK. In this case, for example, the gazing point determination unit 606 calculates the distance between the center of gravity of each closed region Hk having the largest area Sk and the temporary gaze position VP, and the closed region having the smallest distance from the temporary gaze position VP. Hk may be determined as a closed region including the gazing point G.

また、注視点決定部606は、決定された閉領域Hk内の画素p[1]〜p[V]のいずれかの画素p[v]を、被写体が注視している注視点Gに決定する。具体的には、例えば、注視点決定部606が、閉領域Hk内の画素p[1]〜p[V]のうち、特徴量C[v]が極大値Cmax(k)の画素p[v]を注視点Gに決定する。 In addition, the gaze point determination unit 606 determines any pixel p [v] of the pixels p [1] to p [V] in the determined closed region Hk as the gaze point G at which the subject is gazing. . Specifically, for example, the gazing point determination unit 606 determines that the pixel p [1] has a maximum value C max (k) among the pixels p [1] to p [V] in the closed region Hk. v] is determined as the gaze point G.

これにより、区画Di内のオブジェクトを表す閉領域H1〜HKの中から、面積Skが最大の閉領域Hkを、注視点Gを含む閉領域に決定することができる。   Thereby, the closed area Hk having the largest area Sk can be determined as the closed area including the gazing point G from the closed areas H1 to HK representing the objects in the section Di.

また、上記登録/更新部608は、注視点Gを含む閉領域に決定された閉領域Hkの面積Skに基づいて、ベクトルペアテーブル900に登録済みの区画Diのベクトルペアを更新することにしてもよい。具体的には、例えば、登録/更新部608が、未登録のベクトルペアと登録済みのベクトルペアとの間で、それぞれ注視点Gを含む閉領域に決定された閉領域Hkの面積Skを比較する。   Further, the registration / update unit 608 updates the vector pair of the section Di registered in the vector pair table 900 based on the area Sk of the closed region Hk determined as the closed region including the gazing point G. Also good. Specifically, for example, the registration / update unit 608 compares the area Sk of the closed region Hk determined as the closed region including the gazing point G between the unregistered vector pair and the registered vector pair. To do.

この結果、未登録のベクトルペアの面積Skが大きい場合、ベクトルペアテーブル900に登録済みのベクトルペアを未登録のベクトルペアに更新する。これにより、注視点Gを含む閉領域Hkの面積Skが大きくなるように区間Diのベクトルペアを更新することができ、補正値の算出元としてより適切なベクトルペアをベクトルペアテーブル900に登録することができる。   As a result, when the area Sk of the unregistered vector pair is large, the vector pair registered in the vector pair table 900 is updated to an unregistered vector pair. Thereby, the vector pair of the section Di can be updated so that the area Sk of the closed region Hk including the gazing point G becomes large, and a more appropriate vector pair is registered in the vector pair table 900 as a correction value calculation source. be able to.

<決定手法3>
つぎに、閉領域Hkごとの集中度Fkに基づいて、注視点Gを含む閉領域を決定する場合について説明する。ここで、集中度Fkとは、閉領域Hk内の画素p[1]〜p[V]の特徴量C[1]〜C[V]の濃度を表す指標である。ここでは、閉領域Hkの集中度Fkが小さくなればなるほど、人間の視覚的な注意を引きつける強さが大きくなることを想定する。
<Determination method 3>
Next, a case where the closed region including the gazing point G is determined based on the concentration degree Fk for each closed region Hk will be described. Here, the concentration degree Fk is an index representing the density of the feature amounts C [1] to C [V] of the pixels p [1] to p [V] in the closed region Hk. Here, it is assumed that the strength of attracting human visual attention increases as the concentration degree Fk of the closed region Hk decreases.

注視点決定部606は、区画Di内の閉領域Hkごとに、閉領域Hkの集中度Fkを算出する。具体的には、例えば、注視点決定部606が、下記式(6)を用いて、閉領域Hkの集中度Fkを算出することができる。ただし、Fkは、閉領域Hkの集中度である。C[v]は、閉領域Hkに含まれる画素p[v]の特徴量である。Skは、閉領域Hkの面積である。   The gaze point determination unit 606 calculates the concentration Fk of the closed region Hk for each closed region Hk in the section Di. Specifically, for example, the gazing point determination unit 606 can calculate the concentration degree Fk of the closed region Hk using the following formula (6). However, Fk is the degree of concentration of the closed region Hk. C [v] is a feature amount of the pixel p [v] included in the closed region Hk. Sk is the area of the closed region Hk.

Figure 0005716345
Figure 0005716345

なお、閉領域Hkに含まれる画素p[v]の特徴量C[v]は、例えば、特徴量テーブル800から特定される。閉領域Hkの面積Skは、例えば、図13に示した閉領域データテーブル1300から特定される。また、特定された閉領域Hkごとの集中度Fkは、例えば、閉領域データテーブル1300に記憶される。   Note that the feature amount C [v] of the pixel p [v] included in the closed region Hk is specified from the feature amount table 800, for example. For example, the area Sk of the closed region Hk is specified from the closed region data table 1300 illustrated in FIG. Further, the degree of concentration Fk for each identified closed region Hk is stored in, for example, the closed region data table 1300.

図13の(13−3)において、閉領域H1の集中度『95』が集中度フィールドに設定されて、閉領域データ1300−1が更新されている。同(13−3)において、閉領域H2の集中度『50』が集中度フィールドに設定されて、閉領域データ1300−2が更新されている。同(13−3)において、閉領域H3の集中度『100』が集中度フィールドに設定されて、閉領域データ1300−3が更新されている。   In (13-3) of FIG. 13, the concentration level “95” of the closed region H1 is set in the concentration level field, and the closed region data 1300-1 is updated. In (13-3), the concentration degree “50” of the closed region H2 is set in the concentration field, and the closed region data 1300-2 is updated. In (13-3), the concentration degree “100” of the closed region H3 is set in the concentration field, and the closed region data 1300-3 is updated.

注視点決定部606は、閉領域H1〜HKの中から、集中度Fkが最小の閉領域Hkを、注視点Gを含む閉領域に決定する。具体的には、例えば、注視点決定部606が、閉領域データテーブル1300を参照して、閉領域H1〜H3の中から、集中度Fkが最小の閉領域H2を、注視点Gを含む閉領域に決定する。   The gazing point determination unit 606 determines the closed area Hk having the lowest concentration Fk from the closed areas H1 to HK as the closed area including the gazing point G. Specifically, for example, the gazing point determination unit 606 refers to the closed region data table 1300, and closes the closed region H2 with the minimum concentration Fk from the closed regions H1 to H3, including the gazing point G. Decide on an area.

ここで、閉領域H1〜HKの中に、集中度Fkが最小の閉領域Hkが複数存在する場合がある。この場合、例えば、注視点決定部606が、集中度Fkが最小の各閉領域Hkの重心と仮の視線位置VPとの距離を算出して、仮の視線位置VPとの距離が最小の閉領域Hkを、注視点Gを含む閉領域に決定することにしてもよい。   Here, there may be a plurality of closed regions Hk having the minimum degree of concentration Fk in the closed regions H1 to HK. In this case, for example, the gaze point determination unit 606 calculates the distance between the center of gravity of each closed region Hk having the minimum concentration Fk and the temporary gaze position VP, and closes the distance from the temporary gaze position VP to the minimum. The region Hk may be determined as a closed region including the gazing point G.

また、注視点決定部606は、決定された閉領域Hk内の画素p[1]〜p[V]のいずれかの画素p[v]を、被写体が注視している注視点Gに決定する。具体的には、例えば、注視点決定部606が、閉領域Hk内の画素p[1]〜p[V]のうち、特徴量C[v]が極大値Cmax(k)の画素p[v]を注視点Gに決定する。 In addition, the gaze point determination unit 606 determines any pixel p [v] of the pixels p [1] to p [V] in the determined closed region Hk as the gaze point G at which the subject is gazing. . Specifically, for example, the gazing point determination unit 606 determines that the pixel p [1] has a maximum value C max (k) among the pixels p [1] to p [V] in the closed region Hk. v] is determined as the gaze point G.

これにより、区画Di内のオブジェクトを表す閉領域H1〜HKの中から、集中度Fkが最小の閉領域Hkを、注視点Gを含む閉領域に決定することができる。   As a result, the closed region Hk with the lowest degree of concentration Fk can be determined as the closed region including the gazing point G from the closed regions H1 to HK representing the objects in the section Di.

また、上記登録/更新部608は、注視点Gを含む閉領域に決定された閉領域Hkの集中度Fkに基づいて、ベクトルペアテーブル900に登録済みの区画Diのベクトルペアを更新することにしてもよい。具体的には、例えば、登録/更新部608が、未登録のベクトルペアと登録済みのベクトルペアとの間で、それぞれ注視点Gを含む閉領域に決定された閉領域Hkの集中度Fkを比較する。   In addition, the registration / update unit 608 updates the vector pair of the section Di registered in the vector pair table 900 based on the concentration Fk of the closed region Hk determined as the closed region including the gazing point G. May be. Specifically, for example, the registration / update unit 608 determines the concentration Fk of the closed region Hk determined as the closed region including the gazing point G between the unregistered vector pair and the registered vector pair. Compare.

この結果、未登録のベクトルペアの集中度Fkが小さい場合、ベクトルペアテーブル900に登録済みのベクトルペアを未登録のベクトルペアに更新する。これにより、注視点Gを含む閉領域Hkの集中度Fkが小さくなるように区間Diのベクトルペアを更新することができ、補正値の算出元としてより適切なベクトルペアをベクトルペアテーブル900に登録することができる。   As a result, when the concentration degree Fk of the unregistered vector pair is small, the vector pair registered in the vector pair table 900 is updated to an unregistered vector pair. Thereby, the vector pair of the section Di can be updated so that the concentration degree Fk of the closed region Hk including the gazing point G can be reduced, and a more appropriate vector pair is registered in the vector pair table 900 as a correction value calculation source. can do.

<決定手法4>
つぎに、閉領域Hkごとの評価値Ekに基づいて、注視点Gを含む閉領域を決定する場合について説明する。ここで、評価値Ekとは、閉領域Hkが注視点Gを含む可能性を評価するための指標である。ここでは、閉領域Hkの評価値Ekが大きくなればなるほど、人間の視覚的な注意を引きつける強さが大きくなることを想定する。
<Determination method 4>
Next, the case where the closed region including the gazing point G is determined based on the evaluation value Ek for each closed region Hk will be described. Here, the evaluation value Ek is an index for evaluating the possibility that the closed region Hk includes the gazing point G. Here, it is assumed that the stronger the evaluation value Ek of the closed region Hk is, the greater the strength of attracting human visual attention is.

注視点決定部606は、区画Di内の閉領域Hkごとに、閉領域Hkの評価値Ekを算出する。具体的には、例えば、注視点決定部606が、下記式(7)を用いて、閉領域Hkの評価値Ekを算出することができる。ただし、Ekは、閉領域Hkの評価値である。Cmax(k)は、閉領域Hkの極大値である。Skは、閉領域Hkの面積である。Fkは、閉領域Hkの集中度である。 The gaze point determination unit 606 calculates an evaluation value Ek of the closed region Hk for each closed region Hk in the section Di. Specifically, for example, the gazing point determination unit 606 can calculate the evaluation value Ek of the closed region Hk using the following equation (7). However, Ek is an evaluation value of the closed region Hk. C max (k) is the maximum value of the closed region Hk. Sk is the area of the closed region Hk. Fk is the degree of concentration of the closed region Hk.

Ek=(Cmax(k)×Sk)/Fk ・・・(7) Ek = (C max (k) × Sk) / Fk (7)

上記式(7)によれば、閉領域Hkに含まれる画素p[1]〜p[V]の特徴量C[1]〜C[V]の総和が大きくなり、閉領域Hkの面積Skが大きくなり、閉領域Hkの集中度Fkが小さくなれば、閉領域Hkの評価値Ekは大きくなる。   According to the above equation (7), the sum of the feature values C [1] to C [V] of the pixels p [1] to p [V] included in the closed region Hk is increased, and the area Sk of the closed region Hk is increased. If the degree of concentration Fk of the closed region Hk increases and the degree of concentration Fk of the closed region Hk decreases, the evaluation value Ek of the closed region Hk increases.

なお、閉領域Hkに含まれる画素p[1]〜p[V]の特徴量C[1]〜C[V]は、例えば、特徴量テーブル800から特定される。閉領域Hkの面積Skおよび集中度Fkは、例えば、図13に示した閉領域データテーブル1300から特定される。また、特定された閉領域Hkごとの評価値Ekは、例えば、閉領域データテーブル1300に記憶される。   Note that the feature amounts C [1] to C [V] of the pixels p [1] to p [V] included in the closed region Hk are specified from the feature amount table 800, for example. For example, the area Sk and the concentration degree Fk of the closed region Hk are specified from the closed region data table 1300 illustrated in FIG. In addition, the evaluation value Ek for each identified closed region Hk is stored in, for example, the closed region data table 1300.

図13の(13−4)において、閉領域H1の評価値『55』が評価値フィールドに設定されて、閉領域データ1300−1が更新されている。同(13−4)において、閉領域H2の評価値『65』が評価値フィールドに設定されて、閉領域データ1300−2が更新されている。同(13−4)において、閉領域H3の評価値『3』が評価値フィールドに設定されて、閉領域データ1300−3が更新されている。   In (13-4) of FIG. 13, the evaluation value “55” of the closed region H1 is set in the evaluation value field, and the closed region data 1300-1 is updated. In (13-4), the evaluation value “65” of the closed region H2 is set in the evaluation value field, and the closed region data 1300-2 is updated. In (13-4), the evaluation value “3” of the closed region H3 is set in the evaluation value field, and the closed region data 1300-3 is updated.

注視点決定部606は、閉領域H1〜HKの中から、評価値Ekが最大の閉領域Hkを、注視点Gを含む閉領域に決定する。この際、ノイズ(局所的に一部の領域の特徴量が大きくなるなどの不具合)による影響を排除するために、面積Skが所定値S0未満の閉領域Hkは決定対象から除外することにしてもよい。 The gaze point determination unit 606 determines the closed region Hk having the maximum evaluation value Ek from the closed regions H1 to HK as the closed region including the gaze point G. At this time, in order to eliminate the influence of noise (a problem such as a locally large feature amount of a part of the region), the closed region Hk whose area Sk is less than the predetermined value S 0 is excluded from the determination target. May be.

例えば、所定値S0の一例として「S0=10」とする。この場合、例えば、注視点決定部606が、閉領域データテーブル1300を参照して、面積Skが所定値S0以上の閉領域H1,H2のうち、評価値Ekが最大の閉領域H2を、注視点Gを含む閉領域に決定する。 For example, “S 0 = 10” is set as an example of the predetermined value S 0 . In this case, for example, the fixation point determining unit 606 refers to the closed region data table 1300, among the area Sk of the predetermined value S 0 or more closed regions H1, H2, the evaluation value Ek is the maximum of the closed region H2, The closed region including the gazing point G is determined.

ここで、閉領域H1〜HKの中に、評価値Ekが最大の閉領域Hkが複数存在する場合がある。この場合、例えば、注視点決定部606が、評価値Ekが最大の各閉領域Hkの重心と仮の視線位置VPとの距離を算出して、仮の視線位置VPとの距離が最小の閉領域Hkを、注視点Gを含む閉領域に決定することにしてもよい。   Here, there may be a plurality of closed regions Hk having the maximum evaluation value Ek in the closed regions H1 to HK. In this case, for example, the gaze point determination unit 606 calculates the distance between the center of gravity of each closed region Hk having the maximum evaluation value Ek and the temporary gaze position VP, and closes the distance from the temporary gaze position VP to the minimum. The region Hk may be determined as a closed region including the gazing point G.

また、注視点決定部606は、決定された閉領域Hk内の画素p[1]〜p[V]のいずれかの画素p[v]を、被写体が注視している注視点Gに決定する。具体的には、例えば、注視点決定部606が、閉領域Hk内の画素p[1]〜p[V]のうち、特徴量C[v]が極大値Cmax(k)の画素p[v]を注視点Gに決定する。 In addition, the gaze point determination unit 606 determines any pixel p [v] of the pixels p [1] to p [V] in the determined closed region Hk as the gaze point G at which the subject is gazing. . Specifically, for example, the gazing point determination unit 606 determines that the pixel p [1] has a maximum value C max (k) among the pixels p [1] to p [V] in the closed region Hk. v] is determined as the gaze point G.

これにより、区画Di内のオブジェクトを表す閉領域H1〜HKの中から、評価値Ekが最大の閉領域Hkを、注視点Gを含む閉領域に決定することができる。また、面積Skが所定値S0未満の閉領域Hkは決定対象から除外することにより、ノイズによる影響を排除することができる。 Thereby, the closed region Hk having the maximum evaluation value Ek can be determined as the closed region including the gazing point G from the closed regions H1 to HK representing the objects in the section Di. Further, the influence of noise can be eliminated by excluding the closed region Hk having an area Sk less than the predetermined value S 0 from the determination target.

また、上記登録/更新部608は、注視点Gを含む閉領域に決定された閉領域Hkの評価値Ekに基づいて、ベクトルペアテーブル900に登録済みの区画Diのベクトルペアを更新することにしてもよい。具体的には、例えば、登録/更新部608が、未登録のベクトルペアと登録済みのベクトルペアとの間で、それぞれ注視点Gを含む閉領域に決定された閉領域Hkの評価値Ekを比較する。   Further, the registration / update unit 608 updates the vector pair of the section Di registered in the vector pair table 900 based on the evaluation value Ek of the closed region Hk determined as the closed region including the gazing point G. May be. Specifically, for example, the registration / update unit 608 determines the evaluation value Ek of the closed region Hk determined as the closed region including the gazing point G between the unregistered vector pair and the registered vector pair. Compare.

この結果、未登録のベクトルペアの評価値Ekが大きい場合、ベクトルペアテーブル900に登録済みのベクトルペアを未登録のベクトルペアに更新する。これにより、注視点Gを含む閉領域Hkの評価値Ekが大きくなるように区間Diのベクトルペアを更新することができ、補正値の算出元としてより適切なベクトルペアをベクトルペアテーブル900に登録することができる。   As a result, when the evaluation value Ek of the unregistered vector pair is large, the vector pair registered in the vector pair table 900 is updated to an unregistered vector pair. As a result, the vector pair of the section Di can be updated so that the evaluation value Ek of the closed region Hk including the gazing point G becomes large, and a more appropriate vector pair is registered in the vector pair table 900 as a correction value calculation source. can do.

また、上述した決定手法1〜4において、注視点Gに決定された画素p[v]の座標位置が区画Diの境界付近の場合は、上記関連付け部607は、区画Di内の仮の視線位置VPと、区画Di内の注視点Gの座標位置とを関連付けないことにしてもよい。すなわち、関連付け部607が、区画Diの第1の視線ベクトルV1と第2の視線ベクトルV2との関連付けを行わない。これにより、複数の区画が隣接する境界付近に、各区画Diの注視点Gが偏ってしまうことを防ぐことができる。なお、区画Diの境界付近とは、例えば、区画Diの境界に接する画素であってもよく、また、境界から数画素(例えば、3画素)程度の範囲でもよい。   Further, in the determination methods 1 to 4 described above, when the coordinate position of the pixel p [v] determined as the gazing point G is near the boundary of the section Di, the associating unit 607 determines the temporary line-of-sight position in the section Di. The VP may not be associated with the coordinate position of the gazing point G in the section Di. That is, the associating unit 607 does not associate the first line-of-sight vector V1 and the second line-of-sight vector V2 of the section Di. Thereby, it is possible to prevent the gazing point G of each section Di from being biased near the boundary where a plurality of sections are adjacent. Note that the vicinity of the boundary of the section Di may be, for example, a pixel in contact with the boundary of the section Di, or a range of about several pixels (for example, three pixels) from the boundary.

(区間Diの大きさの決定手法)
つぎに、分割部603によって表示画像SPを分割する際の区画Diの大きさを決定する決定手法について説明する。ここでは、区画Di内の仮の視線位置VPと、区画Di内の注視点Gの座標位置との誤差を統計的に処理して、区画Diの適切な大きさを決定する。
(Method for determining the size of the interval Di)
Next, a determination method for determining the size of the section Di when the display unit SP is divided by the dividing unit 603 will be described. Here, an error between the temporary line-of-sight position VP in the section Di and the coordinate position of the gazing point G in the section Di is statistically processed to determine an appropriate size of the section Di.

誤差算出部613は、関連付けられた区画Di内の仮の視線位置VPと、区画Di内の注視点Gの座標位置との誤差εを算出する。具体的には、例えば、誤差算出部613が、下記式(8)を用いて、仮の視線位置VPと、注視点Gの座標位置との誤差εを算出することができる。   The error calculation unit 613 calculates an error ε between the temporary line-of-sight position VP in the associated section Di and the coordinate position of the gazing point G in the section Di. Specifically, for example, the error calculation unit 613 can calculate the error ε between the temporary gaze position VP and the coordinate position of the gazing point G using the following formula (8).

ただし、εは仮の視線位置VPと注視点Gの座標位置との距離である。vxは仮の視線位置VPのXW座標であり、vyは仮の視線位置VPのYW座標である。gxは注視点GのXW座標であり、gyは注視点GのYW座標である。 Here, ε is the distance between the temporary gaze position VP and the coordinate position of the gazing point G. vx is a X W coordinates of the temporary viewpoint position VP, vy is the Y W coordinates of the temporary viewpoint position VP. gx is the X W coordinate of the gazing point G, and gy is the Y W coordinate of the gazing point G.

ε={(vx−gx)2+(vy−gy)21/2 ・・・(8) ε = {(vx−gx) 2 + (vy−gy) 2 } 1/2 (8)

算出された誤差εは、例えば、図14に示す誤差テーブル1400に記憶される。誤差テーブル1400は、例えば、RAM303、磁気ディスク305、光ディスク307などの記憶装置により実現される。ここで、誤差テーブル1400の記憶内容について説明する。   For example, the calculated error ε is stored in an error table 1400 shown in FIG. The error table 1400 is realized by a storage device such as the RAM 303, the magnetic disk 305, and the optical disk 307, for example. Here, the contents stored in the error table 1400 will be described.

図14は、誤差テーブルの記憶内容の一例を示す説明図である。図14において、誤差テーブル1400は、標本IDおよび誤差のフィールドを有し、各フィールドに情報を設定することで誤差データ(例えば、誤差データ1400−1〜1400−3)をレコードとして記憶している。   FIG. 14 is an explanatory diagram of an example of the contents stored in the error table. In FIG. 14, an error table 1400 has sample ID and error fields, and error data (for example, error data 1400-1 to 1400-3) is stored as a record by setting information in each field. .

標本IDは、誤差データの識別子である。誤差は、区画Di内の仮の視線位置VPと、区画Di内の注視点Gの座標位置との誤差εである。上記誤差算出部613によって誤差εが算出されると、その都度、標本IDがインクリメントされて新たな誤差データが誤差テーブル1400に記憶される。   The sample ID is an error data identifier. The error is an error ε between the temporary line-of-sight position VP in the section Di and the coordinate position of the gazing point G in the section Di. Each time the error ε is calculated by the error calculation unit 613, the sample ID is incremented and new error data is stored in the error table 1400.

区画決定部614は、算出された誤差εに基づいて、表示画像SPを区切って分割する区画Diの大きさを決定する。具体的には、例えば、区画決定部614が、誤差テーブル1400を参照して、仮の視線位置VPと注視点Gの座標位置との誤差に関する誤差分布を作成する。   Based on the calculated error ε, the section determination unit 614 determines the size of the section Di that divides and divides the display image SP. Specifically, for example, the section determination unit 614 refers to the error table 1400 and creates an error distribution related to the error between the temporary gaze position VP and the coordinate position of the gazing point G.

ここで、誤差分布とは、例えば、x軸とy軸とからなる2次元座標系において、誤差がx以下となる確率yを表す確率密度分布である。なお、統計的な処理の精度を向上させるため、誤差テーブル1400内の標本数が所定数M(例えば、M=100)以上となった場合に、誤差分布を作成することにしてもよい。   Here, the error distribution is, for example, a probability density distribution representing the probability y that the error is less than or equal to x in a two-dimensional coordinate system including the x-axis and the y-axis. In order to improve the accuracy of statistical processing, an error distribution may be created when the number of samples in the error table 1400 exceeds a predetermined number M (for example, M = 100).

そして、区画決定部614が、作成された誤差分布の値に基づいて、表示画像SPを区切って分割する区画Diの大きさを決定する。誤差分布の値とは、例えば、誤差分布の平均μ、分散σ2、標準偏差σなどである。ここで、誤差分布において、平均μからのずれが±3σ以下の範囲に誤差が含まれる確率は約99[%]である。 Then, the section determination unit 614 determines the size of the section Di to divide and divide the display image SP based on the generated error distribution value. The value of the error distribution is, for example, the average μ of the error distribution, the variance σ 2 , the standard deviation σ, and the like. Here, in the error distribution, the probability that an error is included in the range where the deviation from the average μ is ± 3σ or less is about 99%.

そこで、区画決定部614が、例えば、表示画像SPを区切って分割する区画Diの大きさを、1辺の長さが「6σ」の正方形に決定することにしてもよい。この場合、分割部603は、決定された区画Diの大きさにしたがって、ディスプレイ311の画面を、1辺の長さが「6σ」の正方形に区切って区画D1〜Dmに分割する。   Therefore, for example, the section determination unit 614 may determine the size of the section Di to divide and divide the display image SP into a square having a side length of “6σ”. In this case, the dividing unit 603 divides the screen of the display 311 into sections D1 to Dm by dividing the screen of the display 311 into squares each having a length of “6σ” according to the determined size of the section Di.

これにより、区画Diの大きさをできるだけ小さくしつつ、区画Di内でベクトルペアを高確率に作ることができる適切な大きさで表示画像SPを分割することができ、補正値の算出元となるベクトルペアをより多く求めることができる。   As a result, the display image SP can be divided into an appropriate size that can make a vector pair within the division Di with a high probability while reducing the size of the division Di as much as possible. More vector pairs can be obtained.

(補正値算出部609の具体的な処理内容)
ここで、被写体に固有の補正値を算出する補正値算出部609の具体的な処理内容について説明する。ここでは、まず、補正値算出部609が、2組のベクトルペアを用いて、パラメータω1〜ω4の値を求める場合について説明する。まず、補正値算出部609が、上記式(4)を展開することにより、下記式(9)および(10)の連立方程式を求める。
(Specific processing contents of the correction value calculation unit 609)
Here, a specific processing content of the correction value calculation unit 609 that calculates a correction value unique to the subject will be described. Here, a case where the correction value calculation unit 609 first determines the values of parameters ω 1 to ω 4 using two vector pairs will be described. First, the correction value calculation unit 609 obtains simultaneous equations of the following formulas (9) and (10) by expanding the above formula (4).

θ2=ω1θ1+ω2 ・・・(9)
φ2=ω3φ1+ω4 ・・・(10)
θ2 = ω 1 θ1 + ω 2 (9)
φ2 = ω 3 φ1 + ω 4 (10)

このあと、補正値算出部609が、例えば、図9に示したベクトルペアテーブル900を参照して、偏角データ900−1,900−2を上記式(9)および(10)に代入して、4つの連立方程式を求める。ただし、各偏角θ1、φ1、θ2およびφ2の値は、単位を[度]から[ラジアン]に変換して、上記式(9)および(10)に代入する。   Thereafter, the correction value calculation unit 609 refers to, for example, the vector pair table 900 shown in FIG. 9 and substitutes the declination data 900-1 and 900-2 into the above formulas (9) and (10). Find four simultaneous equations. However, the values of the respective deflection angles θ1, φ1, θ2, and φ2 are substituted into the above equations (9) and (10) by converting the unit from [degree] to [radian].

そして、補正値算出部609が、4つの連立方程式を解くことで、パラメータω1〜ω4の値を求めることができる。偏角データ900−1,900−2の例では、各パラメータω1〜ω4の値は『ω1=1.18,ω2=0.087,ω3=9,ω4=−2.98』となる。 Then, the correction value calculation unit 609, by solving the four simultaneous equations can be obtained the value of the parameter ω 14. In the example of the declination data 900-1 and 900-2, the values of the parameters ω 1 to ω 4 are “ω 1 = 1.18, ω 2 = 0.087, ω 3 = 9, ω 4 = −2. 98 ”.

つぎに、補正値算出部609が、3組以上のベクトルペアを用いて、パラメータω1〜ω4の値を求める場合について説明する。ここでは、最小二乗法を用いて、パラメータω1〜ω4の値を求める場合について説明する。 Next, a case where the correction value calculation unit 609 obtains the values of the parameters ω 1 to ω 4 using three or more vector pairs will be described. Here, the case where the values of the parameters ω 1 to ω 4 are obtained using the least square method will be described.

まず、補正値算出部609が、ベクトルペアがN組のときのパラメータω1,ω2についての下記式(11)の誤差関数を、パラメータω1,ω2それぞれについて偏微分して、下記式(12)および(13)の連立方程式を求める。ただし、E(ω1,ω2)は、ベクトルペアPjがN組のときのパラメータω1,ω2についての誤差関数である。θ1jは、ベクトルペアPjの第1の視線ベクトルV1の偏角θ1である。θ2jは、ベクトルペアPjの第2の視線ベクトルV2の偏角θ2である。 First, the correction value calculating unit 609, the error function of formula (11) for the parameters omega 1, omega 2 when vector pair of N sets, parameters omega 1, and partial differential for omega 2 respectively, the following formula The simultaneous equations of (12) and (13) are obtained. However, E (ω 1 , ω 2 ) is an error function for the parameters ω 1 and ω 2 when the vector pair Pj is N sets. θ1 j is the deflection angle θ1 of the first line-of-sight vector V1 of the vector pair Pj. θ2 j is the deflection angle θ2 of the second line-of-sight vector V2 of the vector pair Pj.

Figure 0005716345
Figure 0005716345

Figure 0005716345
Figure 0005716345

同様に、補正値算出部609が、ベクトルペアPjがN組のときのパラメータω3,ω4についての下記式(14)の誤差関数を、パラメータω3,ω4それぞれについて偏微分して、下記式(15)および(16)の連立方程式を求める。ただし、E(ω3,ω4)は、ベクトルペアPjがN組のときのパラメータω3,ω4についての誤差関数である。φ1jは、ベクトルペアPjの第1の視線ベクトルV1の偏角φ1である。φ2jは、ベクトルペアPjの第2の視線ベクトルV2の偏角φ2である。 Similarly, the correction value calculation unit 609 partially differentiates the error function of the following equation (14) for the parameters ω 3 and ω 4 when the vector pair Pj is N sets for the parameters ω 3 and ω 4 respectively. Simultaneous equations of the following formulas (15) and (16) are obtained. However, E (ω 3 , ω 4 ) is an error function for the parameters ω 3 and ω 4 when the vector pair Pj is N sets. φ1 j is the deflection angle φ1 of the first line-of-sight vector V1 of the vector pair Pj. φ2 j is the deflection angle φ2 of the second line-of-sight vector V2 of the vector pair Pj.

Figure 0005716345
Figure 0005716345

Figure 0005716345
Figure 0005716345

このあと、補正値算出部609が、例えば、ベクトルペアテーブル900を参照して、偏角データ900−1〜900−3の偏角θ1,θ2を上記式(12)および(13)に代入することにより、下記式(17)を求める。ただし、偏角θ1,θ2の値は、単位を[度]から[ラジアン]に変換して、上記式(12)および(13)に代入する。   Thereafter, the correction value calculation unit 609 refers to the vector pair table 900, for example, and substitutes the deflection angles θ1 and θ2 of the deflection angle data 900-1 to 900-3 into the above formulas (12) and (13). Thus, the following equation (17) is obtained. However, the values of the declination angles θ1 and θ2 are substituted into the above equations (12) and (13) by converting the unit from [degree] to [radian].

Figure 0005716345
Figure 0005716345

また、補正値算出部609が、ベクトルペアテーブル900を参照して、偏角データ900−1〜900−3の偏角φ1,φ2を上記式(15)および(16)に代入することにより、下記式(18)を求める。ただし、偏角φ1,φ2の値は、単位を[度]から[ラジアン]に変換して、上記式(15)および(16)に代入する。   Further, the correction value calculation unit 609 refers to the vector pair table 900 and substitutes the deflection angles φ1 and φ2 of the deflection angle data 900-1 to 900-3 into the above formulas (15) and (16), The following equation (18) is obtained. However, the values of the deflection angles φ1 and φ2 are substituted into the above formulas (15) and (16) by converting the unit from [degree] to [radian].

Figure 0005716345
Figure 0005716345

そして、補正値算出部609が、上記式(17)および(18)を解くことにより、パラメータω1〜ω4の値を求めることができる。偏角データ900−1〜900−3の例では、各パラメータω1〜ω4の値は『ω1=0.95,ω2=0.14,ω3=1.17,ω4=−0.12』となる。 Then, the correction value calculation unit 609, by solving the above formula (17) and (18) can determine the value of the parameter ω 14. In the example of the declination data 900-1 to 900-3, the values of the parameters ω 1 to ω 4 are “ω 1 = 0.95, ω 2 = 0.14, ω 3 = 1.17, ω 4 = −. 0.12 ".

このように、複数のベクトルペアを用いて統計的にパラメータω1〜ω4の値を算出することにより、被写体に固有のパラメータω1〜ω4の値を精度よく求めることができる。 As described above, by statistically calculating the values of the parameters ω 1 to ω 4 using a plurality of vector pairs, the values of the parameters ω 1 to ω 4 unique to the subject can be obtained with high accuracy.

(視線算出部602の具体的な処理内容)
つぎに、第1の視線ベクトルV1を算出する視線算出部602の具体的な処理内容について説明する。図15および図16は、第1の視線ベクトルV1を算出する具体的な処理内容の概要を示す説明図である。ここでは、図7に示した眼球700に近赤外線を照射したときの角膜表面におけるプルキニエ像703を利用して、第1の視線ベクトルV1を算出する場合について説明する。
(Specific processing contents of the line-of-sight calculation unit 602)
Next, specific processing contents of the line-of-sight calculation unit 602 that calculates the first line-of-sight vector V1 will be described. 15 and 16 are explanatory diagrams showing an outline of specific processing contents for calculating the first line-of-sight vector V1. Here, a case where the first line-of-sight vector V1 is calculated using the Purkinje image 703 on the corneal surface when the eyeball 700 shown in FIG. 7 is irradiated with near infrared rays will be described.

(i)視線算出部602は、画像座標系510における眼球画像EP上の瞳孔701の瞳孔中心1501の位置ベクトルP’Pおよびプルキニエ像703の位置ベクトルuPを算出する。そして、視線算出部602は、瞳孔中心1501の位置ベクトルP’Pおよびプルキニエ像703の位置ベクトルuPをカメラ座標系520に座標変換する。 (I) The line-of-sight calculation unit 602 calculates the position vector P ′ P of the pupil center 1501 of the pupil 701 on the eyeball image EP in the image coordinate system 510 and the position vector u P of the Purkinje image 703. Then, the line-of-sight calculation unit 602 performs coordinate conversion of the position vector P ′ P of the pupil center 1501 and the position vector u P of the Purkinje image 703 into the camera coordinate system 520.

ここで、世界座標系530におけるプルキニエ像703および瞳孔中心1501のZW座標は、ディスプレイ311と被写体の眼球700との距離として予め設定されている。このため、カメラ座標系520における瞳孔中心1501の位置ベクトルP’Cは、世界座標系530における瞳孔中心1501のZW座標と画像座標系510における瞳孔中心1501の位置ベクトルP’Pから求めることができる。また、カメラ座標系520におけるプルキニエ像703の位置ベクトルuCは、世界座標系530におけるプルキニエ像703のZW座標と画像座標系510におけるプルキニエ像703の位置ベクトルuPから求めることができる。 Here, the Z W coordinates of the Purkinje image 703 and the pupil center 1501 in the world coordinate system 530 are set in advance as the distance between the display 311 and the eyeball 700 of the subject. Therefore, the position vector P ′ C of the pupil center 1501 in the camera coordinate system 520 can be obtained from the Z W coordinate of the pupil center 1501 in the world coordinate system 530 and the position vector P ′ P of the pupil center 1501 in the image coordinate system 510. it can. Further, the position vector u C of the Purkinje image 703 in the camera coordinate system 520 can be obtained from the Z W coordinate of the Purkinje image 703 in the world coordinate system 530 and the position vector u P of the Purkinje image 703 in the image coordinate system 510.

なお、瞳孔中心1501は、例えば、眼球画像EPに写っている眼球表面のうち、周囲に比べて暗い楕円領域(瞳孔701)の中心位置である。また、プルキニエ像703は、例えば、眼球画像EPに写っている眼球表面のうち、瞳孔701の近傍に位置する輝点である。   Note that the pupil center 1501 is, for example, the center position of an elliptical area (pupil 701) that is darker than the surroundings on the surface of the eyeball shown in the eyeball image EP. The Purkinje image 703 is, for example, a bright spot located in the vicinity of the pupil 701 on the surface of the eyeball shown in the eyeball image EP.

(ii)視線算出部602は、プルキニエ像703の位置ベクトルuCから、角膜1502の角膜曲率中心1503の位置ベクトルcCを算出する。具体的には、例えば、視線算出部602が、下記式(19)を用いて、角膜曲率中心1503の位置ベクトルcCを算出することができる。 (Ii) The line-of-sight calculation unit 602 calculates the position vector c C of the corneal curvature center 1503 of the cornea 1502 from the position vector u C of the Purkinje image 703. Specifically, for example, the line-of-sight calculation unit 602 can calculate the position vector c C of the corneal curvature center 1503 using the following equation (19).

ただし、cCは、カメラ座標系520における角膜曲率中心1503の位置ベクトルである。Cは、角膜曲率半径を表す定数である。‖uC‖は、位置ベクトルuCのノルムである。なお、図15中、符号1504は「房水」である。 Here, c C is a position vector of the corneal curvature center 1503 in the camera coordinate system 520. C is a constant representing the corneal radius of curvature. ‖U Cノ ル is the norm of the position vector u C. In FIG. 15, reference numeral 1504 is “aqueous humor”.

Figure 0005716345
Figure 0005716345

一例として、C=7.6[mm]、プルキニエ像703の位置ベクトルuC(XC,YC,ZC)=(35.42,61.04,600)とする。この場合、上記式(19)から、角膜曲率中心1503の位置ベクトルcCは、『cC(XC,YC,ZC)=(35.42,61.04,607.6)』となる。なお、各座標値の単位は[mm]である。 As an example, C = 7.6 [mm], and the position vector u C (X C , Y C , Z C ) = (35.42, 61.04, 600) of the Purkinje image 703 is assumed. In this case, from the above equation (19), the position vector c C of the corneal curvature center 1503 is “c C (X C , Y C , Z C ) = (35.42, 61.04, 607.6)”. Become. The unit of each coordinate value is [mm].

(iii)視線算出部602は、眼球画像EP上での瞳孔中心1501の位置ベクトルP’Cから、角膜表面での瞳孔中心1501の位置ベクトルPCを算出する。具体的には、例えば、視線算出部602が、下記式(20)を用いて、角膜表面での瞳孔中心1501の位置ベクトルPCを算出することができる。 (Iii) line-of-sight calculating section 602, the position vector P 'C of the pupil center 1501 on the eyeball image EP, calculates the position vector P C of the pupil center 1501 at the corneal surface. Specifically, for example, the line-of-sight calculation unit 602 can calculate the position vector P C of the pupil center 1501 on the corneal surface using the following equation (20).

ただし、PCは、角膜表面での瞳孔中心1501の位置ベクトルである。P’Cは、眼球画像EP上での瞳孔中心1501の位置ベクトルである。Cは、角膜曲率半径を表す定数である。‖P’C‖は、位置ベクトルP’Cのノルムである。また、Mは下記式(21)となる。ただし、‖P’C−uC‖は、位置ベクトル(P’C−uC)のノルムである。 Where P C is the position vector of the pupil center 1501 on the corneal surface. P ′ C is a position vector of the pupil center 1501 on the eyeball image EP. C is a constant representing the corneal radius of curvature. ‖P ′ C ‖ is the norm of the position vector P ′ C. Moreover, M becomes following formula (21). However, ‖P ′ C −u C ‖ is the norm of the position vector (P ′ C −u C ).

Figure 0005716345
Figure 0005716345

Figure 0005716345
Figure 0005716345

一例として、C=7.6[mm]、眼球画像EP上での瞳孔中心1501の位置ベクトルP’C(XC,YC,ZC)=(35.14,59.22,600)とする。この場合、上記式(20)および(21)から、角膜表面での瞳孔中心1501の位置ベクトルPCは、『PC(XC,YC,ZC)=(35.15,59.44,607.6)』となる。 As an example, C = 7.6 [mm], the position vector P ′ C (X C , Y C , Z C ) = (35.14, 59.22, 600) of the pupil center 1501 on the eyeball image EP To do. In this case, from the above equations (20) and (21), the position vector P C of the pupil center 1501 on the cornea surface is “P C (X C , Y C , Z C ) = (35.15, 59.44). , 607.6) ”.

ただし、角膜1502に照射した光は、角膜表面で屈折する。したがって、観察された瞳孔701も実際の位置からは屈折して見えることになるため、位置ベクトルPCの補正が必要となる。そこで、視線算出部602が、角膜表面での瞳孔中心1501の位置ベクトルPCを補正する。 However, the light irradiated to the cornea 1502 is refracted on the cornea surface. Therefore, since the observed pupil 701 also appears to be refracted from the actual position, the position vector P C needs to be corrected. Therefore, the line-of-sight calculation unit 602 corrects the position vector P C of the pupil center 1501 on the cornea surface.

(iv)視線算出部602は、角膜表面での瞳孔中心1501に入射した光の屈折ベクトルtCと、角膜曲率中心1503から瞳孔中心1501までの距離Lとに基づいて、角膜表面での瞳孔中心1501の位置ベクトルPCを補正する。具体的には、例えば、視線算出部602が、下記式(22)を用いて、補正後の瞳孔中心1501の位置ベクトルpCを求めることができる。 (Iv) The line-of-sight calculation unit 602 determines the pupil center on the corneal surface based on the refraction vector t C of light incident on the pupil center 1501 on the corneal surface and the distance L from the corneal curvature center 1503 to the pupil center 1501. The position vector P C of 1501 is corrected. Specifically, for example, the line-of-sight calculation unit 602 can obtain the corrected position vector p C of the pupil center 1501 using the following formula (22).

ただし、pCは、補正後の瞳孔中心1501の位置ベクトルである。Lは、角膜曲率中心1503から瞳孔中心1501までの距離を表す定数である。Cは、角膜曲率半径を表す定数である。PCは、角膜表面での瞳孔中心1501の位置ベクトルである。また、tCは下記式(23)となる。ただし、n1は空気の屈折率、n2は房水1504の屈折率である。rCは、眼球画像EP上での瞳孔中心1501の位置ベクトルP’Cの単位ベクトルである。(rC,n)は、rCとnとの内積を表す。また、nは下記式(24)となる。 Here, p C is the position vector of the pupil center 1501 after correction. L is a constant representing the distance from the corneal curvature center 1503 to the pupil center 1501. C is a constant representing the corneal radius of curvature. P C is a position vector of the pupil center 1501 on the corneal surface. Also, t C is the following formula (23). However, n 1 is the refractive index of air, and n 2 is the refractive index of the aqueous humor 1504. r C is a unit vector of the position vector P ′ C of the pupil center 1501 on the eyeball image EP. (R C , n) represents the inner product of r C and n. Moreover, n becomes following formula (24).

Figure 0005716345
Figure 0005716345

Figure 0005716345
Figure 0005716345

Figure 0005716345
Figure 0005716345

一例として、C=7.6[mm]、L=4.5[mm]、屈折ベクトルtC(XC,YC,ZC)=(0.057,0.13,1)とし、単位ベクトルn(XC,YC,ZC)=(−0.036,−0.21,−1)とする。この場合、上記式(22)〜(24)から、補正後の瞳孔中心1501の位置ベクトルpCは、『pC(XC,YC,ZC)=(35.3,59.83,603.07)』となる。 As an example, C = 7.6 [mm], L = 4.5 [mm], refraction vector t C (X C , Y C , Z C ) = (0.057, 0.13, 1), unit Assume that the vector n (X C , Y C , Z C ) = (− 0.036, −0.21, −1). In this case, from the above equations (22) to (24), the corrected position vector p C of the pupil center 1501 is “p C (X C , Y C , Z C ) = (35.3, 59.83, 603.07) ”.

(v)視線算出部602は、補正後の瞳孔中心1501の位置ベクトルpCおよび角膜曲率中心1503の位置ベクトルcCを、カメラ座標系520から世界座標系530に座標変換する。そして、視線算出部602は、世界座標系530における補正後の瞳孔中心1501の位置ベクトルpWと、角膜曲率中心1503の位置ベクトルcWとに基づいて、第1の視線ベクトルV1Wを算出する。 (V) The line-of-sight calculation unit 602 performs coordinate conversion of the corrected position vector p C of the pupil center 1501 and the position vector c C of the corneal curvature center 1503 from the camera coordinate system 520 to the world coordinate system 530. The line-of-sight calculation unit 602 calculates the first line-of-sight vector V1 W based on the corrected position vector p W of the pupil center 1501 in the world coordinate system 530 and the position vector c W of the corneal curvature center 1503. .

具体的には、例えば、視線算出部602が、下記式(25)を用いて、第1の視線ベクトルV1Wを求めることができる。ただし、V1Wは、世界座標系530における第1の視線ベクトルV1である。 Specifically, for example, the line-of-sight calculation unit 602 can obtain the first line-of-sight vector V1 W using the following equation (25). However, V1 W is the first line-of-sight vector V1 in the world coordinate system 530.

V1W=pW−cW ・・・(25) V1 W = p W -c W ··· (25)

一例として、瞳孔中心1501の位置ベクトルpW(XW,YW,ZW)=(35.3,59.83,603.07)とし、角膜曲率中心1503の位置ベクトルcW(XW,YW,ZW)=(35.42,61.04,607.6)とする。この場合、上記式(25)から、第1の視線ベクトルV1Wは、『V1W(XW,YW,ZW)=(−0.12,−1.21,−4.53)』となる。 As an example, the position vector p W (X W , Y W , Z W ) = (35.3, 59.83, 603.07) of the pupil center 1501 is set, and the position vector c W (X W , X Y W , Z W ) = (35.42, 61.04, 607.6). In this case, from the above equation (25), the first line-of-sight vector V1 W is “V1 W (X W , Y W , Z W ) = (− 0.12, −1.21, −4.53)”. It becomes.

また、視線算出部602が、世界座標系530における第1の視線ベクトルV1Wを極座標変換することにより、上記式(1)に含まれる動径r1、偏角θ1およびφ1を求めることができる。一例として、第1の視線ベクトルV1W(XW,YW,ZW)=(1,1,−7)とすると、極座標系における第1の視線ベクトルV1は『r1=1.74,θ1=168.58,φ1=45』となる。 Further, the line-of-sight calculation unit 602 can obtain the radius r1, the deflection angle θ1, and φ1 included in the above equation (1) by performing the polar coordinate conversion on the first line-of-sight vector V1 W in the world coordinate system 530. As an example, if the first line-of-sight vector V1 W (X W , Y W , Z W ) = (1, 1, −7), the first line-of-sight vector V1 in the polar coordinate system is “r1 = 1.74, θ1. = 168.58, φ1 = 45 ”.

なお、上述した説明では、人の左眼または右眼のいずれか一方の眼球に着目して、第1の視線ベクトルV1Wを求めることにしたが、これに限らない。例えば、視線算出部602が、左眼および右眼の眼球画像EPから左眼および右眼の第1の視線ベクトルV1Wを求めて、左眼および右眼の第1の視線ベクトルV1Wの平均値をとることにしてもよい。 In the above description, the first line-of-sight vector V1 W is obtained by paying attention to either the left eye or the right eye of the person. However, the present invention is not limited to this. For example, the line-of-sight calculation unit 602 obtains the first line-of-sight vector V1 W for the left and right eyes from the eyeball images EP of the left and right eyes, and averages the first line-of-sight vectors V1 W for the left and right eyes. You may decide to take a value.

(視線算出部602の具体的な処理内容)
第1の視線ベクトルV1に基づく表示画像SP上の仮の視線位置VPを算出する視線算出部602の具体的な処理内容について説明する。
(Specific processing contents of the line-of-sight calculation unit 602)
A specific processing content of the line-of-sight calculation unit 602 that calculates the temporary line-of-sight position VP on the display image SP based on the first line-of-sight vector V1 will be described.

図17は、視線ベクトルと視線位置との関係を表す説明図である。図17において、点Oは、世界座標系530における角膜曲率中心1503(図15参照)の位置ベクトルcWの先端の点である。点Aは、世界座標系530における第1の視線ベクトルV1Wの先端の点である。点A’は、第1の視線ベクトルV1Wの方向に伸びる直線と表示画像SPとが交わる点、すなわち、仮の視線位置VPである。 FIG. 17 is an explanatory diagram illustrating the relationship between the line-of-sight vector and the line-of-sight position. In FIG. 17, a point O is a point at the tip of the position vector c W of the corneal curvature center 1503 (see FIG. 15) in the world coordinate system 530. The point A is a point at the tip of the first line-of-sight vector V1 W in the world coordinate system 530. Point A ′ is a point where a straight line extending in the direction of the first line-of-sight vector V1 W and the display image SP intersect, that is, a temporary line-of-sight position VP.

ここで、三角形OABと三角形OA’B’は相似関係にある。このため、角膜曲率中心1503の位置ベクトルcWのZW座標と第1の視線ベクトルV1WのZW座標との比率を利用して、仮の視線位置VPを求めることができる。具体的には、例えば、視線算出部602が、下記式(26)および(27)を用いて、仮の視線位置VPを求めることができる。 Here, the triangle OAB and the triangle OA′B ′ are in a similar relationship. Therefore, the provisional gaze position VP can be obtained by using the ratio between the Z W coordinate of the position vector c W of the corneal curvature center 1503 and the Z W coordinate of the first gaze vector V1 W. Specifically, for example, the line-of-sight calculation unit 602 can obtain the temporary line-of-sight position VP using the following formulas (26) and (27).

ただし、vx,vyは、仮の視線位置VPのXW座標およびYW座標である。また、仮の視線位置VPのZW座標は「0」である。xV1,yV1は、第1の視線ベクトルV1WのXW座標およびYW座標である。Gは、角膜曲率中心1503の位置ベクトルcWのZW座標の絶対値である。gは、第1の視線ベクトルV1WのZW座標の絶対値である。 However, vx and vy are the X W coordinate and Y W coordinate of the temporary line-of-sight position VP. Further, the Z W coordinate of the temporary line-of-sight position VP is “0”. x V1 and y V1 are the X W coordinate and the Y W coordinate of the first line-of-sight vector V1 W , respectively. G is the absolute value of the Z W coordinate of the position vector c W of the corneal curvature center 1503. g is the absolute value of the Z W coordinate of the first line-of-sight vector V1 W.

vx=(G/g)×xV1 ・・・(26)
vy=(G/g)×yV1 ・・・(27)
vx = (G / g) × x V1 (26)
vy = (G / g) × y V1 (27)

一例として、世界座標系530における第1の視線ベクトルV1WをV1W(XW,YW,ZW)=(1.15,1.15,−7.00)とし、角膜曲率中心1503の位置ベクトルcWをcW(XW,YW,ZW)=(30,30,607)とする。この場合、上記Gは「G=607」となり、上記gは「g=7」となる。 As an example, the first line-of-sight vector V1 W in the world coordinate system 530 is V1 W (X W , Y W , Z W ) = (1.15, 1.15, −7.00), and the corneal curvature center 1503 is Assume that the position vector c W is c W (X W , Y W , Z W ) = (30, 30, 607). In this case, G is “G = 607”, and g is “g = 7”.

したがって、仮の視線位置VPのXW座標は、上記式(26)から「vx=99.72=(607/7)×1.15」となる。また、仮の視線位置VPのYW座標は、上記式(27)から「vy=99.72=(607/7)×1.15」となる。 Therefore, X W coordinates of the temporary viewpoint position VP is "vx = 99.72 = (607/7) × 1.15 " from the equation (26). Further, the Y W coordinate of the temporary line-of-sight position VP is “vy = 99.72 = (607/7) × 1.15” from the above equation (27).

つぎに、図17を用いて、被写体の眼球から注視点Gに向かう第2の視線ベクトルV2を算出する視線算出部602の具体的な処理内容について説明する。図17において、点Cは、世界座標系530における第2の視線ベクトルV2Wの先端の点である。点C’は、第2の視線ベクトルV2Wの方向に伸びる直線と表示画像SPとが交わる点、すなわち、注視点Gである。 Next, the specific processing contents of the line-of-sight calculation unit 602 that calculates the second line-of-sight vector V2 from the eyeball of the subject toward the gazing point G will be described with reference to FIG. In FIG. 17, a point C is a point at the tip of the second line-of-sight vector V2 W in the world coordinate system 530. The point C ′ is a point where the straight line extending in the direction of the second line-of-sight vector V2 W and the display image SP intersect, that is, the gazing point G.

ここで、三角形OCBと三角形OC’B’は相似関係にある。このため、角膜曲率中心1503の位置ベクトルcWのZW座標と第1の視線ベクトルV1WのZW座標との比率を利用して、第2の視線ベクトルV2Wを求めることができる。具体的には、例えば、視線算出部602が、下記式(28)〜(30)を用いて、第2の視線ベクトルV2Wを求めることができる。 Here, the triangle OCB and the triangle OC′B ′ are in a similar relationship. Therefore, the second line-of-sight vector V2 W can be obtained using the ratio between the Z W coordinate of the position vector c W of the corneal curvature center 1503 and the Z W coordinate of the first line-of-sight vector V1 W. Specifically, for example, the line-of-sight calculation unit 602 can obtain the second line-of-sight vector V2 W using the following equations (28) to (30).

ただし、wx,wyは、注視点GのXW座標およびYW座標である。また、注視点GのZW座標は「0」である。xV2,yV2,zV2は、第2の視線ベクトルV2WのXW座標、YW座標およびZW座標である。zV1は、第1の視線ベクトルV1WのZW座標である。Gは、角膜曲率中心1503の位置ベクトルcWのZW座標の絶対値である。gは、第1の視線ベクトルV1WのZW座標の絶対値である。 Here, wx and wy are the X W coordinate and Y W coordinate of the gazing point G. Further, the Z W coordinate of the gazing point G is “0”. x V2 , y V2 , and z V2 are the X W coordinate, Y W coordinate, and Z W coordinate of the second line-of-sight vector V2 W. z V1 is the Z W coordinate of the first line-of-sight vector V1 W. G is the absolute value of the Z W coordinate of the position vector c W of the corneal curvature center 1503. g is the absolute value of the Z W coordinate of the first line-of-sight vector V1 W.

V2=(g/G)×wx ・・・(28)
V2=(g/G)×wy ・・・(29)
V2=zV1 ・・・(30)
x V2 = (g / G) × wx (28)
y V2 = (g / G) × wy (29)
z V2 = z V1 (30)

一例として、世界座標系530における注視点Gを「G(XW,YW,ZW)=(100,100,0)」とし、角膜曲率中心1503の位置ベクトルcWを「cW(XW,YW,ZW)=(30,30,607)」とする。第1の視線ベクトルV1WのZW座標を「ZW=−7」とする。この場合、上記Gは「G=607」となり、上記gは「g=7」となる。 As an example, the gazing point G in the world coordinate system 530 is “G (X W , Y W , Z W ) = (100, 100, 0)”, and the position vector c W of the corneal curvature center 1503 is “c W (X W , Y W , Z W ) = (30, 30, 607) ”. The Z W coordinate of the first line-of-sight vector V1 W is set to “Z W = −7”. In this case, G is “G = 607”, and g is “g = 7”.

したがって、第2の視線ベクトルV2WのXW座標は、上記式(28)から「xV2=1.15」となる。また、第2の視線ベクトルV2WのYW座標は、上記式(29)から「yV2=1.15」となる。また、第2の視線ベクトルV2WのZW座標は、上記式(30)から「zV2=−7」となる。 Therefore, the X W coordinate of the second line-of-sight vector V2 W is “x V2 = 1.15” from the above equation (28). Further, the Y W coordinate of the second line-of-sight vector V2 W is “y V2 = 1.15” from the above equation (29). Further, the Z W coordinate of the second line-of-sight vector V2 W is “z V2 = −7” from the above equation (30).

そして、視線算出部602が、第2の視線ベクトルV2Wを極座標変換することにより、第2の視線ベクトルV2を求めることができる。一例として、第2の視線ベクトルV2Wを「V2W(XW,YW,ZW)=(1.15,1.15,−7)」とすると、第2の視線ベクトルV2は「r2=7.18,θ2=166.92,φ2=45」となる。 The sight calculating portion 602, a second viewing vector V2 W by polar coordinate transformation, it is possible to obtain the second of the line-of-sight vector V2. As an example, if the second line-of-sight vector V2 W is “V2 W (X W , Y W , Z W ) = (1.15, 1.15−7)”, the second line-of-sight vector V2 is “r2 = 7.18, θ2 = 166.92, φ2 = 45 ”.

(特徴量算出部605の具体的な処理内容)
つぎに、表示画像SP内の領域ごとの特徴量(上述した区画Di内の画素p1〜〜pnごとの特徴量C1〜Cnに相当する)を算出する特徴量算出部605の具体的な処理内容について説明する。以下、表示画像SP内の複数の領域を「領域A1〜An」とし、領域A1〜Anごとの特徴量を「特徴量C1〜Cn」と表記する。ここでは、まず、表示画像SPに対して2値化処理を施すことにより、領域A1〜Anごとの特徴量C1〜Cnを算出する場合について説明する。
(Specific processing contents of the feature amount calculation unit 605)
Next, specific processing contents of the feature amount calculation unit 605 that calculates feature amounts for each region in the display image SP (corresponding to the feature amounts C1 to Cn for the pixels p1 to pn in the section Di described above). Will be described. Hereinafter, a plurality of regions in the display image SP are referred to as “regions A1 to An”, and feature amounts for the regions A1 to An are referred to as “feature amounts C1 to Cn”. Here, first, a case will be described in which feature values C1 to Cn are calculated for each of the regions A1 to An by performing a binarization process on the display image SP.

<2値化処理>
図18は、2値化処理の概要を示す説明図である。図18において、表示画像輝度テーブル1810は、領域ID、座標位置および輝度のフィールドを有し、領域A1〜Anごとの輝度情報1810−1〜1810−nを記憶している。
<Binarization processing>
FIG. 18 is an explanatory diagram showing an outline of binarization processing. In FIG. 18, a display image luminance table 1810 has fields of region ID, coordinate position, and luminance, and stores luminance information 1810-1 to 1810-n for each of the regions A1 to An.

領域IDは、各領域A1〜Anの識別子である。座標位置は、世界座標系530における各領域A1〜Anの中心点のXW座標およびYW座標である。輝度は、各領域A1〜Anの赤(R)、緑(G)、青(B)ごとの輝度である。ここでは、各色の輝度が「0〜255」の256階調で表現されている。 The area ID is an identifier of each of the areas A1 to An. The coordinate position is the X W coordinate and the Y W coordinate of the center point of each of the areas A1 to An in the world coordinate system 530. The luminance is the luminance for each of the red (R), green (G), and blue (B) areas A1 to An. Here, the luminance of each color is expressed by 256 gradations of “0 to 255”.

まず、特徴量算出部605は、表示画像SPをグレースケール画像LPに変換する。ここで、グレースケール画像LPとは、画像を灰色の濃淡(白から黒までの明暗)だけで表現したものである。具体的には、例えば、特徴量算出部605が、表示画像SPの各領域A1〜Anの色ごとの輝度に基づいて、グレースケール画像LPにおける各領域A1〜Anの灰色の輝度を算出する。   First, the feature amount calculation unit 605 converts the display image SP into a grayscale image LP. Here, the gray scale image LP represents an image only in gray shades (brightness from white to black). Specifically, for example, the feature amount calculation unit 605 calculates the gray luminance of each region A1 to An in the grayscale image LP based on the luminance for each color of each region A1 to An of the display image SP.

より具体的には、例えば、特徴量算出部605が、下記式(31)を用いて、グレースケール画像LPにおける領域A1〜Anごとの灰色の輝度を算出することができる。ただし、L(i)は、グレースケール画像LPにおける領域Aiの灰色の輝度である。R(i)は、表示画像SPにおける領域Aiの赤色の輝度である。G(i)は、表示画像SPにおける領域Aiの緑色の輝度である。B(i)は、表示画像SPにおける領域Aiの青色の輝度である。   More specifically, for example, the feature amount calculation unit 605 can calculate the gray luminance for each of the regions A1 to An in the grayscale image LP using the following equation (31). However, L (i) is the gray luminance of the area Ai in the gray scale image LP. R (i) is the red brightness of the area Ai in the display image SP. G (i) is the green luminance of the area Ai in the display image SP. B (i) is the blue luminance of the area Ai in the display image SP.

L(i)={R(i)+G(i)+B(i)}/3 ・・・(31)     L (i) = {R (i) + G (i) + B (i)} / 3 (31)

すなわち、特徴量算出部605は、表示画像輝度テーブル1810を参照して、領域Aiの輝度R(i)、G(i)、B(i)を上記式(31)に代入することにより、領域Aiの輝度L(i)を算出することができる。例えば、領域A4の輝度L(4)は、『L(4)=200』となる。   That is, the feature amount calculation unit 605 refers to the display image luminance table 1810 and substitutes the luminances R (i), G (i), and B (i) of the region Ai into the above equation (31), thereby The luminance L (i) of Ai can be calculated. For example, the luminance L (4) of the area A4 is “L (4) = 200”.

なお、算出された領域A1〜Anごとの灰色の輝度L(1)〜L(n)は、例えば、グレースケール画像輝度テーブル1820に記憶される。グレースケール画像輝度テーブル1820は、領域ID、座標位置および輝度のフィールドを有し、領域A1〜Anごとの輝度情報1820−1〜1820−nを記憶している。ここで、輝度は、各領域A1〜Anの灰色(L)の輝度である。   Note that the calculated gray luminances L (1) to L (n) for each of the regions A1 to An are stored in the grayscale image luminance table 1820, for example. The grayscale image luminance table 1820 has fields of region ID, coordinate position, and luminance, and stores luminance information 1820-1 to 1820-n for each of the regions A1 to An. Here, the luminance is the gray (L) luminance of each of the areas A1 to An.

つぎに、特徴量算出部605は、変換後のグレースケール画像LPに対して、2値化処理を実行する。ここで、2値化処理とは、濃淡のある画像を白と黒の2階調に変換する処理である。具体的には、例えば、特徴量算出部605は、各領域A1〜Anの灰色の輝度が、所定の閾値L以上となる場合は「白」、閾値L未満となる場合は「黒」に置き換える。なお、閾値Lは、任意に設定されて、ROM302、RAM303、磁気ディスク305、光ディスク307などの記憶装置に記憶されている。   Next, the feature amount calculation unit 605 executes binarization processing on the converted grayscale image LP. Here, the binarization process is a process for converting an image with shading into two gradations of white and black. Specifically, for example, the feature amount calculation unit 605 replaces each region A1 to An with “white” when the gray luminance of the regions A1 to An is equal to or higher than a predetermined threshold L, and with “black” when the luminance is lower than the threshold L. . The threshold L is arbitrarily set and stored in a storage device such as the ROM 302, the RAM 303, the magnetic disk 305, and the optical disk 307.

より具体的には、例えば、特徴量算出部605は、グレースケール画像輝度テーブル1820を参照して、領域Aiの灰色の輝度L(i)が、閾値L以上となる場合は、輝度L(i)を「255」に置き換える。一方、特徴量算出部605は、領域Aiの灰色の輝度L(i)が、閾値L未満となる場合は、輝度L(i)を「0」に置き換える。   More specifically, for example, the feature amount calculation unit 605 refers to the grayscale image luminance table 1820, and when the gray luminance L (i) of the area Ai is equal to or higher than the threshold L, the luminance L (i ) Is replaced with “255”. On the other hand, when the gray luminance L (i) of the area Ai is less than the threshold L, the feature amount calculation unit 605 replaces the luminance L (i) with “0”.

ここで、上記閾値Lを『L=200』とする。この場合、例えば、領域A1の輝度L(1)は、閾値L未満のため「0」に置き換えられる。また、領域A4の輝度L(4)は、閾値L以上のため「255」に置き換えられる。   Here, the threshold value L is “L = 200”. In this case, for example, the luminance L (1) of the area A1 is replaced with “0” because it is less than the threshold value L. Also, the luminance L (4) of the area A4 is replaced with “255” because it is equal to or greater than the threshold value L.

なお、2値化された領域A1〜Anごとの輝度L(1)〜L(n)は、例えば、図8に示した特徴量テーブル800の領域A1〜Anごとの「特徴量」フィールドに記憶される。すなわち、各領域A1〜Anの2値化後の輝度L(1)〜L(n)を、人の視覚的な注意を引きつける強さを表す特徴量C1〜Cnとする。   Note that the luminances L (1) to L (n) for each of the binarized areas A1 to An are stored in, for example, the “feature amount” field for each of the areas A1 to An of the feature amount table 800 illustrated in FIG. Is done. That is, the luminance L (1) to L (n) after binarization of each of the areas A1 to An is set as feature amounts C1 to Cn representing the strength that attracts human visual attention.

このように、各領域A1〜Anの輝度L(1)〜L(n)を2値化して表すことにより、領域A1〜Anの中から輝度・色・形が周囲と異なる領域Aiを特定することができる。ここで、輝度・色・形が周囲と異なる領域の一例について説明する。   In this way, by binarizing and representing the luminance L (1) to L (n) of each of the regions A1 to An, the region Ai having a luminance, color, and shape different from the surroundings is specified from the regions A1 to An. be able to. Here, an example of a region where brightness, color, and shape are different from the surroundings will be described.

図19は、輝度・色・形が周囲と異なる領域の一例を示す説明図である。なお、図面では、表示画像SPの一部を抜粋して表示している。図19において、表示画像SPaでは、領域Aaが周囲と比べて明るくなっている。表示画像SPbでは、領域Abが周囲と比べて色が異なっている。表示画像SPcでは、領域Acのみに文字が表示されている(形が周囲と異なる)。   FIG. 19 is an explanatory diagram illustrating an example of a region where brightness, color, and shape are different from the surrounding. In the drawing, a part of the display image SP is extracted and displayed. In FIG. 19, in the display image SPa, the area Aa is brighter than the surrounding area. In the display image SPb, the color of the area Ab is different from the surrounding area. In the display image SPc, characters are displayed only in the area Ac (the shape is different from the surroundings).

表示画像SPにおいて、輝度・色・形が周囲と異なる領域Aiは、他の領域に比べて人の視線が向きやすい領域といえる。このため、各領域A1〜Anの輝度を2値化して表すことにより、領域Aa,Ab,Acのような輝度・色・形が周囲と異なる領域Aiを注視点Gに決定することができる。   In the display image SP, an area Ai whose brightness, color, and shape are different from the surrounding area can be said to be an area in which a person's line of sight is easier to face than other areas. Therefore, by binarizing and expressing the brightness of each of the areas A1 to An, the area Ai having different brightness, color, and shape, such as the areas Aa, Ab, and Ac, can be determined as the gazing point G.

なお、視線検出装置300は、領域Aa,Ab,Acのような輝度・色・形が周囲と異なる領域Aiを含む表示画像SPを、視線検出中の任意のタイミングでディスプレイ311に表示することにしてもよい。これにより、表示画像SPの中から注視点Gを精度よく決定して、被写体に固有の補正値(パラメータω1〜ω4の値)を高精度に算出することができる。 Note that the line-of-sight detection apparatus 300 displays the display image SP including the area Ai, such as the areas Aa, Ab, and Ac, having different luminance, color, and shape from the surroundings on the display 311 at an arbitrary timing during the line-of-sight detection. May be. Thereby, the gazing point G can be accurately determined from the display image SP, and correction values (values of parameters ω 1 to ω 4 ) specific to the subject can be calculated with high accuracy.

<顕著度マップ作成処理>
つぎに、表示画像SPに関する顕著度マップを作成することにより、領域A1〜Anごとの特徴量C1〜Cnを算出する場合について説明する。ここで、顕著度マップとは、表示画像SP上の領域A1〜Anごとの人の視覚的な注意を引きつける強さを顕著度として表すマップである。
<Saliency map creation process>
Next, a case where the feature amounts C1 to Cn for the regions A1 to An are calculated by creating a saliency map related to the display image SP will be described. Here, the saliency map is a map that represents, as the saliency, the strength that attracts the visual attention of a person for each of the areas A1 to An on the display image SP.

具体的には、特徴量算出部605が、表示画像SPを輝度成分、色成分、方向成分に分離して、各成分に関する顕著度マップM1〜M3を作成する。そして、特徴量算出部605が、顕著度マップM1〜M3の線形和をとることにより、表示画像SPの顕著度マップMを作成する。   Specifically, the feature amount calculation unit 605 separates the display image SP into a luminance component, a color component, and a direction component, and creates saliency maps M1 to M3 for each component. And the feature-value calculation part 605 produces the saliency map M of display image SP by taking the linear sum of saliency map M1-M3.

以下、図20〜図28を用いて、顕著度マップ作成処理の具体的な処理内容について説明する。ここでは、まず、図20および図21を用いて、輝度成分に関する表示画像SPの顕著度マップM1を作成する場合について説明する。   Hereinafter, specific processing contents of the saliency map creation processing will be described with reference to FIGS. Here, first, the case where the saliency map M1 of the display image SP related to the luminance component is created will be described using FIG. 20 and FIG.

図20および図21は、輝度成分に関する顕著度マップ作成処理の概要を示す説明図である。図20において、(i)特徴量算出部605は、表示画像SPをグレースケール画像LPに変換する。ここで、表示画像輝度テーブル2010は、表示画像SP上の各領域A1〜Anの色(RGB)ごとの輝度を記憶するテーブルである。   20 and 21 are explanatory diagrams showing an overview of the saliency map creation process regarding the luminance component. In FIG. 20, (i) the feature amount calculation unit 605 converts the display image SP into a grayscale image LP. Here, the display image luminance table 2010 is a table for storing the luminance for each color (RGB) of each of the areas A1 to An on the display image SP.

具体的には、例えば、特徴量算出部605が、表示画像輝度テーブル2010を参照して、表示画像SP上の領域Aiの輝度R(i)、G(i)、B(i)を上記式(31)に代入する。これにより、グレースケール画像LP上の領域Aiの灰色(L)の輝度L(i)を算出することができる。   Specifically, for example, the feature amount calculation unit 605 refers to the display image luminance table 2010 to calculate the luminances R (i), G (i), and B (i) of the area Ai on the display image SP using the above formula. Substitute into (31). Thereby, the luminance L (i) of gray (L) of the region Ai on the gray scale image LP can be calculated.

グレースケール画像LP上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、グレースケール画像輝度テーブル2020に記憶される。グレースケール画像輝度テーブル2020は、グレースケール画像LP上の各領域A1〜Anの輝度L(1)〜L(n)を記憶するテーブルである。   The luminances L (1) to L (n) of the regions A1 to An on the grayscale image LP are stored in the grayscale image luminance table 2020, for example. The gray scale image brightness table 2020 is a table that stores the brightness L (1) to L (n) of each of the areas A1 to An on the gray scale image LP.

図20において、(ii)特徴量算出部605は、グレースケール画像LPにガウシアンフィルタをかけて平滑化したあと、ダウンサンプリングを実施してダウンサンプリング画像DPを作成する。ここで、ガウシアンフィルタとは、画像を滑らかにして輪郭のボケを少なくすることを目的とした平滑化フィルタである。ダウンサンプリングとは、サンプリング周波数を下げて再サンプリングすることである。   In FIG. 20, (ii) the feature quantity calculation unit 605 smoothes the grayscale image LP by applying a Gaussian filter, and then performs downsampling to create a downsampled image DP. Here, the Gaussian filter is a smoothing filter for the purpose of smoothing an image and reducing blurring of an outline. Down-sampling is re-sampling with a lower sampling frequency.

ダウンサンプリング画像DP上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、ダウンサンプリング画像輝度テーブル2030に記憶される。ダウンサンプリング画像輝度テーブル2030は、ダウンサンプリング画像DP上の各領域A1〜Anの輝度L(1)〜L(n)を記憶するテーブルである。   The luminances L (1) to L (n) of the regions A1 to An on the downsampled image DP are stored in the downsampled image luminance table 2030, for example. The downsampling image luminance table 2030 is a table that stores the luminances L (1) to L (n) of the regions A1 to An on the downsampling image DP.

図20において、(iii)特徴量算出部605は、ダウンサンプリング画像DPにアップサンプリング(バイリニア補間)を実施して、ピラミッド画像PPを作成する。ここで、アップサンプリングとは、サンプリング周波数を上げて再サンプリングすることである。ピラミッド画像PPとは、解像度の異なる画像の集合である。   In FIG. 20, (iii) the feature amount calculation unit 605 performs upsampling (bilinear interpolation) on the downsampled image DP to create a pyramid image PP. Here, up-sampling means resampling by increasing the sampling frequency. The pyramid image PP is a set of images having different resolutions.

ピラミッド画像PP上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、ピラミッド画像輝度テーブル2040に記憶される。ピラミッド画像輝度テーブル2040は、ピラミッド画像PP上の各領域A1〜Anの輝度L(1)〜L(n)を記憶するテーブルである。ただし、ピラミッド画像輝度テーブル2040は、ピラミッド画像PPの低解像度画像の各領域A1〜Anの輝度L(1)〜L(n)を記憶している。   The luminances L (1) to L (n) of the areas A1 to An on the pyramid image PP are stored in, for example, the pyramid image luminance table 2040. The pyramid image luminance table 2040 is a table that stores the luminances L (1) to L (n) of the regions A1 to An on the pyramid image PP. However, the pyramid image luminance table 2040 stores the luminances L (1) to L (n) of the regions A1 to An of the low resolution image of the pyramid image PP.

図21において、(iv)特徴量算出部605は、ピラミッド画像PPに関する中心周辺差分処理を実施して、輝度成分に関する顕著度マップM1を作成する。ここで、中心周辺差分処理とは、ピラミッド画像PPの高解像度画像と低解像度画像との差分を取ることである。ここでは、ピラミッド画像PPの高解像度画像の各領域A1〜Anの輝度L(1)〜L(n)として、グレースケール画像輝度テーブル2020内の各領域A1〜Anの輝度L(1)〜L(n)を用いる。   In FIG. 21, (iv) the feature amount calculation unit 605 performs a center periphery difference process for the pyramid image PP, and creates a saliency map M1 for the luminance component. Here, the center periphery difference process is to take a difference between the high resolution image and the low resolution image of the pyramid image PP. Here, the luminances L (1) to L (n) of the regions A1 to An of the high-resolution image of the pyramid image PP are used as the luminances L (1) to L (1) of the regions A1 to An in the grayscale image luminance table 2020. (N) is used.

具体的には、特徴量算出部605が、ピラミッド画像輝度テーブル2040内の領域Aiの輝度L(i)と、グレースケール画像輝度テーブル2020内の領域Aiの輝度L(i)との差分を求めることにより、領域Aiの輝度成分に関する顕著度を算出する。例えば、領域A2の輝度成分に関する顕著度は、『47=|33−80|』となる。   Specifically, the feature amount calculation unit 605 obtains a difference between the luminance L (i) of the region Ai in the pyramid image luminance table 2040 and the luminance L (i) of the region Ai in the grayscale image luminance table 2020. Thus, the saliency related to the luminance component of the area Ai is calculated. For example, the saliency related to the luminance component of the area A2 is “47 = | 33−80 |”.

表示画像SP上の各領域A1〜Anの輝度成分に関する顕著度は、例えば、輝度顕著度テーブル2100に記憶される。輝度顕著度テーブル2100は、表示画像SP上の各領域A1〜Anの輝度成分に関する顕著度を記憶するテーブルである。これにより、輝度成分に関する表示画像SPの顕著度マップM1を作成することができる。   The saliency related to the luminance components of the areas A1 to An on the display image SP is stored in, for example, the luminance saliency table 2100. The brightness saliency table 2100 is a table that stores saliency related to the brightness components of the areas A1 to An on the display image SP. Thereby, the saliency map M1 of the display image SP regarding the luminance component can be created.

なお、上述した各種テーブル2010,2020,2030,2040,2100は、例えば、RAM303、磁気ディスク305、光ディスク307などの記憶装置により実現される。   The various tables 2010, 2020, 2030, 2040, and 2100 described above are realized by storage devices such as the RAM 303, the magnetic disk 305, and the optical disk 307, for example.

つぎに、図22〜図24を用いて、色成分に関する表示画像SPの顕著度マップM2を作成する場合について説明する。図22〜図24は、色成分に関する顕著度マップ作成処理の概要を示す説明図である。   Next, a case where the saliency map M2 of the display image SP related to the color component is created will be described with reference to FIGS. 22 to 24 are explanatory diagrams illustrating an outline of the saliency map creation processing regarding the color components.

図22および図23において、(i)特徴量算出部605は、表示画像輝度テーブル2010(図20参照)を参照して、表示画像SPをR成分、G成分、B成分およびY(黄)成分に分離する。ここで、表示画像SP上の各領域A1〜Anの黄色の輝度Y(1)〜Y(n)は、例えば、特徴量算出部605が、下記式(32)を用いて求めることができる。ただし、Y(i)は、領域Aiの黄色の輝度である。R(i)は、領域Aiの赤色の輝度である。G(i)は、領域Aiの緑色の輝度である。B(i)は、領域Aiの青色の輝度である。なお、Y(i)が負の値の場合は「Y(i)=0」とする。   22 and FIG. 23, (i) the feature quantity calculation unit 605 refers to the display image luminance table 2010 (see FIG. 20), and converts the display image SP into an R component, a G component, a B component, and a Y (yellow) component. To separate. Here, the yellow quantity Y (1) to Y (n) of each of the areas A1 to An on the display image SP can be obtained by the feature amount calculation unit 605 using the following equation (32), for example. However, Y (i) is the yellow luminance of the area Ai. R (i) is the red brightness of the area Ai. G (i) is the green luminance of the area Ai. B (i) is the blue luminance of the area Ai. When Y (i) is a negative value, “Y (i) = 0” is set.

Figure 0005716345
Figure 0005716345

分離された表示画像SP上の各領域A1〜Anの赤色の輝度R(1)〜R(n)は、例えば、R成分輝度テーブル2210に記憶される。R成分輝度テーブル2210は、表示画像SP上の各領域A1〜Anの赤色の輝度R(1)〜R(n)を記憶するテーブルである。   The red luminances R (1) to R (n) of the regions A1 to An on the separated display image SP are stored in the R component luminance table 2210, for example. The R component luminance table 2210 is a table that stores red luminances R (1) to R (n) of the respective regions A1 to An on the display image SP.

また、分離された表示画像SP上の各領域A1〜Anの緑色の輝度G(1)〜G(n)は、例えば、G成分輝度テーブル2220に記憶される。G成分輝度テーブル2220は、表示画像SP上の各領域A1〜Anの緑色の輝度G(1)〜G(n)を記憶するテーブルである。   Further, the green luminances G (1) to G (n) of the regions A1 to An on the separated display image SP are stored in the G component luminance table 2220, for example. The G component luminance table 2220 is a table that stores the green luminances G (1) to G (n) of the areas A1 to An on the display image SP.

また、分離された表示画像SP上の各領域A1〜Anの青色の輝度B(1)〜B(n)は、例えば、B成分輝度テーブル2310に記憶される。B成分輝度テーブル2310は、表示画像SP上の各領域A1〜Anの青色の輝度B(1)〜B(n)を記憶するテーブルである。   Further, the blue luminances B (1) to B (n) of the regions A1 to An on the separated display image SP are stored in, for example, the B component luminance table 2310. The B component luminance table 2310 is a table for storing the blue luminances B (1) to B (n) of the respective regions A1 to An on the display image SP.

また、分離された表示画像SP上の各領域A1〜Anの黄色の輝度Y(1)〜Y(n)は、例えば、Y成分輝度テーブル2320に記憶される。Y成分輝度テーブル2320は、表示画像SP上の各領域A1〜Anの黄色の輝度Y(1)〜Y(n)を記憶するテーブルである。   Further, the yellow luminances Y (1) to Y (n) of the areas A1 to An on the separated display image SP are stored in, for example, the Y component luminance table 2320. The Y component luminance table 2320 is a table that stores the yellow luminances Y (1) to Y (n) of the areas A1 to An on the display image SP.

図22において、(ii)特徴量算出部605は、R成分に分離した表示画像SPにガウシアンフィルタをかけて平滑化したあと、ダウンサンプリングを実施してR成分のダウンサンプリング画像DPを作成する。   In FIG. 22, (ii) the feature amount calculation unit 605 smoothes the display image SP separated into R components by applying a Gaussian filter, and then performs downsampling to create an R component downsampled image DP.

R成分のダウンサンプリング画像DP上の各領域A1〜Anの輝度R(1)〜R(n)は、例えば、R成分ダウンサンプリング画像輝度テーブル2211に記憶される。R成分ダウンサンプリング画像輝度テーブル2211は、R成分のダウンサンプリング画像DP上の各領域A1〜Anの輝度R(1)〜R(n)を記憶するテーブルである。   The luminances R (1) to R (n) of the regions A1 to An on the R component down-sampled image DP are stored in the R component down-sampled image luminance table 2211, for example. The R component down-sampled image luminance table 2211 is a table that stores the luminances R (1) to R (n) of the regions A1 to An on the R-component down-sampled image DP.

図22において、(iii)特徴量算出部605は、R成分のダウンサンプリング画像DPにアップサンプリングを実施して、R成分のピラミッド画像PPを作成する。R成分のピラミッド画像PP上の各領域A1〜Anの輝度R(1)〜R(n)は、例えば、R成分ピラミッド画像輝度テーブル2212に記憶される。R成分ピラミッド画像輝度テーブル2212は、R成分のピラミッド画像PP上の各領域A1〜Anの輝度R(1)〜R(n)を記憶するテーブルである。   In FIG. 22, (iii) a feature amount calculation unit 605 performs upsampling on an R component downsampled image DP to create an R component pyramid image PP. The luminances R (1) to R (n) of the regions A1 to An on the R component pyramid image PP are stored in, for example, the R component pyramid image luminance table 2212. The R component pyramid image luminance table 2212 is a table that stores the luminances R (1) to R (n) of the regions A1 to An on the R component pyramid image PP.

図22において、(ii)特徴量算出部605は、G成分に分離した表示画像SPにガウシアンフィルタをかけて平滑化したあと、ダウンサンプリングを実施してG成分のダウンサンプリング画像DPを作成する。G成分のダウンサンプリング画像DP上の各領域A1〜Anの輝度G(1)〜G(n)は、例えば、G成分ダウンサンプリング画像輝度テーブル2221に記憶される。G成分ダウンサンプリング画像輝度テーブル2221は、G成分のダウンサンプリング画像DP上の各領域A1〜Anの輝度G(1)〜G(n)を記憶するテーブルである。   In FIG. 22, (ii) a feature amount calculation unit 605 smoothes the display image SP separated into G components by applying a Gaussian filter, and then performs downsampling to create a downsampled image DP of G components. The luminances G (1) to G (n) of the regions A1 to An on the G component down-sampled image DP are stored in the G component down-sampled image luminance table 2221, for example. The G component down-sampled image luminance table 2221 is a table that stores the luminances G (1) to G (n) of the regions A1 to An on the G component down-sampled image DP.

図22において、(iii)特徴量算出部605は、G成分のダウンサンプリング画像DPにアップサンプリングを実施して、G成分のピラミッド画像PPを作成する。G成分のピラミッド画像PP上の各領域A1〜Anの輝度G(1)〜G(n)は、例えば、G成分ピラミッド画像輝度テーブル2222に記憶される。G成分ピラミッド画像輝度テーブル2222は、G成分のピラミッド画像PP上の各領域A1〜Anの輝度G(1)〜G(n)を記憶するテーブルである。   In FIG. 22, (iii) a feature amount calculation unit 605 performs upsampling on a G component downsampled image DP to create a G component pyramid image PP. The luminances G (1) to G (n) of the regions A1 to An on the G component pyramid image PP are stored in the G component pyramid image luminance table 2222, for example. The G component pyramid image luminance table 2222 is a table that stores the luminances G (1) to G (n) of the regions A1 to An on the G component pyramid image PP.

図23において、(ii)特徴量算出部605は、B成分に分離した表示画像SPにガウシアンフィルタをかけて平滑化したあと、ダウンサンプリングを実施してB成分のダウンサンプリング画像DPを作成する。B成分のダウンサンプリング画像DP上の各領域A1〜Anの輝度B(1)〜B(n)は、例えば、B成分ダウンサンプリング画像輝度テーブル2311に記憶される。B成分ダウンサンプリング画像輝度テーブル2311は、B成分のダウンサンプリング画像DP上の各領域A1〜Anの輝度B(1)〜B(n)を記憶するテーブルである。   In FIG. 23, (ii) the feature amount calculation unit 605 smoothes the display image SP separated into B components by applying a Gaussian filter, and then performs downsampling to create a downsampled image DP of B components. The luminances B (1) to B (n) of the regions A1 to An on the B component downsampled image DP are stored in, for example, the B component downsampled image luminance table 2311. The B component down-sampled image luminance table 2311 is a table that stores the luminances B (1) to B (n) of the regions A1 to An on the B component down-sampled image DP.

図23において、(iii)特徴量算出部605は、B成分のダウンサンプリング画像DPにアップサンプリングを実施して、B成分のピラミッド画像PPを作成する。B成分のピラミッド画像PP上の各領域A1〜Anの輝度B(1)〜B(n)は、例えば、B成分ピラミッド画像輝度テーブル2312に記憶される。B成分ピラミッド画像輝度テーブル2312は、B成分のピラミッド画像PP上の各領域A1〜Anの輝度B(1)〜B(n)を記憶するテーブルである。   In FIG. 23, (iii) a feature amount calculation unit 605 performs upsampling on a B component downsampled image DP to create a B component pyramid image PP. The luminances B (1) to B (n) of the regions A1 to An on the B component pyramid image PP are stored in, for example, the B component pyramid image luminance table 2312. The B component pyramid image luminance table 2312 is a table for storing the luminances B (1) to B (n) of the regions A1 to An on the B component pyramid image PP.

図23において、(ii)特徴量算出部605は、Y成分に分離した表示画像SPにガウシアンフィルタをかけて平滑化したあと、ダウンサンプリングを実施してY成分のダウンサンプリング画像DPを作成する。Y成分のダウンサンプリング画像DP上の各領域A1〜Anの輝度Y(1)〜Y(n)は、例えば、Y成分ダウンサンプリング画像輝度テーブル2321に記憶される。Y成分ダウンサンプリング画像輝度テーブル2321は、Y成分のダウンサンプリング画像DP上の各領域A1〜Anの輝度Y(1)〜Y(n)を記憶するテーブルである。   In FIG. 23, (ii) the feature amount calculation unit 605 smoothes the display image SP separated into Y components by applying a Gaussian filter, and then performs downsampling to create a Y-component downsampled image DP. The luminances Y (1) to Y (n) of the regions A1 to An on the Y-sampled downsampled image DP are stored in, for example, the Y-component downsampled image luminance table 2321. The Y component down-sampled image luminance table 2321 is a table that stores the luminances Y (1) to Y (n) of the areas A1 to An on the Y-component down-sampled image DP.

図23において、(iii)特徴量算出部605は、Y成分のダウンサンプリング画像DPにアップサンプリングを実施して、Y成分のピラミッド画像PPを作成する。Y成分のピラミッド画像PP上の各領域A1〜Anの輝度Y(1)〜Y(n)は、例えば、Y成分ピラミッド画像輝度テーブル2322に記憶される。Y成分ピラミッド画像輝度テーブル2322は、Y成分のピラミッド画像PP上の各領域A1〜Anの輝度Y(1)〜Y(n)を記憶するテーブルである。   In FIG. 23, (iii) the feature amount calculation unit 605 performs upsampling on the Y-component downsampled image DP to create a Y-component pyramid image PP. The luminances Y (1) to Y (n) of the regions A1 to An on the Y component pyramid image PP are stored in the Y component pyramid image luminance table 2322, for example. The Y component pyramid image luminance table 2322 is a table that stores the luminances Y (1) to Y (n) of the regions A1 to An on the Y component pyramid image PP.

図24において、(iv)特徴量算出部605は、R成分の表示画像SPとG成分の表示画像SPに関する中心周辺差分処理を実施する。具体的には、例えば、特徴量算出部605が、下記式(33)を用いて、表示画像SP上の各領域A1〜Anの赤色および緑色(RG)の輝度RG(1)〜RG(n)を算出する。ただし、RG(i)は、表示画像SP上の領域Aiの赤色および緑色の輝度である。R(i)は、表示画像SP上の領域Aiの赤色の輝度である。G(i)は、表示画像SP上の領域Aiの緑色の輝度である。RP(i)は、R成分のピラミッド画像PP上の領域Aiの赤色の輝度である。GP(i)は、G成分のピラミッド画像PP上の領域Aiの緑色の輝度である。 In FIG. 24, (iv) a feature amount calculation unit 605 performs center-peripheral difference processing on the R component display image SP and the G component display image SP. Specifically, for example, the feature amount calculation unit 605 uses the following formula (33) to calculate the red and green (RG) luminances RG (1) to RG (n) of the regions A1 to An on the display image SP. ) Is calculated. Here, RG (i) is the red and green luminances of the area Ai on the display image SP. R (i) is the red brightness of the area Ai on the display image SP. G (i) is the green luminance of the area Ai on the display image SP. R P (i) is the red luminance of the region Ai on the R component pyramid image PP. G P (i) is the green brightness of the area Ai on the G component pyramid image PP.

RG(i)=|{R(i)−G(i)}−{GP(i)−RP(i)}|
・・・(33)
RG (i) = | {R (i) -G (i)} - {G P (i) -R P (i)} |
... (33)

なお、輝度R(i)は、R成分輝度テーブル2210に記憶されている。輝度G(i)は、G成分輝度テーブル2220に記憶されている。輝度RP(i)は、R成分ピラミッド画像輝度テーブル2212に記憶されている。輝度GP(i)は、G成分ピラミッド画像輝度テーブル2222に記憶されている。また、算出された表示画像SP上の各領域A1〜Anの赤色および緑色の輝度RG(1)〜RG(n)は、例えば、RG成分輝度テーブル2410に記憶される。RG成分輝度テーブル2410は、表示画像SP上の各領域A1〜Anの赤色および緑色の輝度RG(1)〜RG(n)を記憶するテーブルである。 Note that the luminance R (i) is stored in the R component luminance table 2210. The luminance G (i) is stored in the G component luminance table 2220. The luminance R P (i) is stored in the R component pyramid image luminance table 2212. The luminance G P (i) is stored in the G component pyramid image luminance table 2222. Further, the calculated red and green luminances RG (1) to RG (n) of the regions A1 to An on the display image SP are stored in, for example, the RG component luminance table 2410. The RG component luminance table 2410 is a table that stores red and green luminances RG (1) to RG (n) of the respective regions A1 to An on the display image SP.

図24において、(iv)特徴量算出部605は、B成分の表示画像SPとY成分の表示画像SPに関する中心周辺差分処理を実施する。具体的には、例えば、特徴量算出部605が、下記式(34)を用いて、表示画像SP上の各領域A1〜Anの青色および黄色(BY)の輝度BY(1)〜BY(n)を算出する。ただし、BY(i)は、表示画像SP上の領域Aiの青色および黄色の輝度である。B(i)は、表示画像SP上の領域Aiの青色の輝度である。Y(i)は、表示画像SP上の領域Aiの黄色の輝度である。BP(i)は、B成分のピラミッド画像PP上の領域Aiの青の輝度である。YP(i)は、Y成分のピラミッド画像PP上の領域Aiの黄色の輝度である。 In FIG. 24, (iv) a feature amount calculation unit 605 performs center-peripheral difference processing on the B component display image SP and the Y component display image SP. Specifically, for example, the feature amount calculation unit 605 uses the following formula (34) to calculate the luminances BY (1) to BY (n) of blue and yellow (BY) in each region A1 to An on the display image SP. ) Is calculated. However, BY (i) is the blue and yellow luminances of the area Ai on the display image SP. B (i) is the blue luminance of the area Ai on the display image SP. Y (i) is the yellow luminance of the area Ai on the display image SP. B P (i) is the blue brightness of the area Ai on the B component pyramid image PP. Y P (i) is the yellow luminance of the area Ai on the Y-component pyramid image PP.

BY(i)={B(i)−Y(i)}−{YP(i)−BP(i)}・・・(34) BY (i) = {B (i) −Y (i)} − {Y P (i) −B P (i)} (34)

なお、輝度B(i)は、B成分輝度テーブル2310に記憶されている。輝度Y(i)は、Y成分輝度テーブル2320に記憶されている。輝度BP(i)は、B成分ピラミッド画像輝度テーブル2312に記憶されている。輝度YP(i)は、Y成分ピラミッド画像輝度テーブル2322に記憶されている。また、算出された表示画像SP上の各領域A1〜Anの青色および黄色の輝度BY(1)〜BY(n)は、例えば、BY成分輝度テーブル2420に記憶される。BY成分輝度テーブル2420は、表示画像SP上の各領域A1〜Anの青色および黄色の輝度BY(1)〜BY(n)を記憶するテーブルである。 The luminance B (i) is stored in the B component luminance table 2310. The luminance Y (i) is stored in the Y component luminance table 2320. The luminance B P (i) is stored in the B component pyramid image luminance table 2312. The luminance Y P (i) is stored in the Y component pyramid image luminance table 2322. Further, the calculated blue and yellow luminances BY (1) to BY (n) of the respective regions A1 to An on the display image SP are stored in the BY component luminance table 2420, for example. The BY component luminance table 2420 is a table for storing the blue and yellow luminances BY (1) to BY (n) of the regions A1 to An on the display image SP.

図24において、(v)特徴量算出部605は、領域A1〜Anの輝度RG(1)〜RG(n)と、領域A1〜Anの輝度BY(1)〜BY(n)との線形和をとることにより、色成分に関する顕著度マップM2を作成する。具体的には、特徴量算出部605が、RG成分輝度テーブル2410内の領域Aiの輝度RG(i)と、BY成分輝度テーブル2420内の領域Aiの輝度BY(i)とを足し合わせて、領域Aiの色成分に関する顕著度を算出する。例えば、領域A2の色成分に関する顕著度は、『340=20+320』となる。   In FIG. 24, (v) the feature amount calculation unit 605 includes a linear sum of the luminances RG (1) to RG (n) of the regions A1 to An and the luminances BY (1) to BY (n) of the regions A1 to An. By taking the above, the saliency map M2 regarding the color component is created. Specifically, the feature amount calculation unit 605 adds the luminance RG (i) of the region Ai in the RG component luminance table 2410 and the luminance BY (i) of the region Ai in the BY component luminance table 2420, The degree of saliency related to the color component of the area Ai is calculated. For example, the saliency related to the color component in the area A2 is “340 = 20 + 320”.

表示画像SP上の各領域A1〜Anの色成分に関する顕著度は、例えば、色顕著度テーブル2430に記憶される。色顕著度テーブル2430は、表示画像SP上の各領域A1〜Anの色成分に関する顕著度を記憶するテーブルである。これにより、色成分に関する表示画像SPの顕著度マップM2を作成することができる。   The saliency related to the color components of the areas A1 to An on the display image SP is stored in, for example, the color saliency table 2430. The color saliency table 2430 is a table that stores saliency related to the color components of the areas A1 to An on the display image SP. Thereby, the saliency map M2 of the display image SP regarding the color component can be created.

なお、上述した各種テーブル2210〜2212,2220〜2222,2310〜2312,2320〜2322,2410,2420,2430は、例えば、RAM303、磁気ディスク305、光ディスク307などの記憶装置により実現される。   Note that the various tables 2210 to 2212, 2220 to 2222, 2310 to 2312, 2320 to 2322, 2410, 2420, and 2430 are realized by storage devices such as the RAM 303, the magnetic disk 305, and the optical disk 307, for example.

つぎに、図25〜図27を用いて、方向成分に関する表示画像SPの顕著度マップM3を作成する場合について説明する。なお、以下に示す各角度(0度、45度、90度、135度)は、ガボール関数の縞模様の方向である。図25〜図27は、方向成分に関する顕著度マップ作成処理の概要を示す説明図である。   Next, the case of creating the saliency map M3 of the display image SP related to the direction component will be described with reference to FIGS. In addition, each angle (0 degree, 45 degree, 90 degree, 135 degree) shown below is a direction of the striped pattern of a Gabor function. FIG. 25 to FIG. 27 are explanatory diagrams showing an outline of the saliency map creation process regarding the direction component.

図25において、(i)特徴量算出部605は、グレースケール画像輝度テーブル2020を参照して、グレースケール画像LPに対して0度のガボールフィルタによりフィルタリングする。ガボールフィルタとは、画像の局所的な濃淡情報を取り出すものである。0度のガボールフィルタを通したグレースケール画像LP上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、0度ガボールフィルタ輝度テーブル2510に記憶される。0度ガボールフィルタ輝度テーブル2510は、0度のガボールフィルタを通したグレースケール画像LP上の各領域A1〜Anの輝度L(1)〜L(n)を記憶するテーブルである。   In FIG. 25, (i) the feature quantity calculation unit 605 refers to the grayscale image luminance table 2020 and filters the grayscale image LP with a 0 degree Gabor filter. The Gabor filter is for extracting local grayscale information of an image. The luminances L (1) to L (n) of the regions A1 to An on the grayscale image LP that have passed through the 0 degree Gabor filter are stored in the 0 degree Gabor filter luminance table 2510, for example. The 0 degree Gabor filter luminance table 2510 is a table that stores the luminances L (1) to L (n) of the areas A1 to An on the grayscale image LP that have passed through the 0 degree Gabor filter.

図25において、(i)特徴量算出部605は、グレースケール画像輝度テーブル2020を参照して、グレースケール画像LPに対して45度のガボールフィルタによりフィルタリングする。45度のガボールフィルタを通したグレースケール画像LP上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、45度ガボールフィルタ輝度テーブル2520に記憶される。45度ガボールフィルタ輝度テーブル2520は、45度のガボールフィルタを通したグレースケール画像LP上の各領域A1〜Anの輝度L(1)〜L(n)を記憶するテーブルである。   In FIG. 25, (i) the feature amount calculation unit 605 refers to the grayscale image luminance table 2020 and filters the grayscale image LP with a 45 degree Gabor filter. The luminances L (1) to L (n) of the regions A1 to An on the grayscale image LP that have passed through the 45 degree Gabor filter are stored in the 45 degree Gabor filter luminance table 2520, for example. The 45 degree Gabor filter luminance table 2520 is a table that stores the luminances L (1) to L (n) of the areas A1 to An on the grayscale image LP that have passed through the 45 degree Gabor filter.

図26において、(i)特徴量算出部605は、グレースケール画像輝度テーブル2020を参照して、グレースケール画像LPに対して90度のガボールフィルタによりフィルタリングする。90度のガボールフィルタを通したグレースケール画像LP上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、90度ガボールフィルタ輝度テーブル2610に記憶される。90度ガボールフィルタ輝度テーブル2610は、90度のガボールフィルタを通したグレースケール画像LP上の各領域A1〜Anの輝度L(1)〜L(n)を記憶するテーブルである。   In FIG. 26, (i) the feature amount calculation unit 605 refers to the gray scale image luminance table 2020 and filters the gray scale image LP with a 90 degree Gabor filter. The luminances L (1) to L (n) of the regions A1 to An on the grayscale image LP that have passed through the 90 degree Gabor filter are stored in the 90 degree Gabor filter luminance table 2610, for example. The 90 degree Gabor filter luminance table 2610 is a table that stores the luminances L (1) to L (n) of the areas A1 to An on the grayscale image LP that have passed through the 90 degree Gabor filter.

図26において、(i)特徴量算出部605は、グレースケール画像輝度テーブル2020を参照して、グレースケール画像LPに対して135度のガボールフィルタによりフィルタリングする。135度のガボールフィルタを通したグレースケール画像LP上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、135度ガボールフィルタ輝度テーブル2620に記憶される。135度ガボールフィルタ輝度テーブル2620は、135度のガボールフィルタを通したグレースケール画像LP上の各領域A1〜Anの輝度L(1)〜L(n)を記憶するテーブルである。   In FIG. 26, (i) the feature quantity calculation unit 605 refers to the grayscale image luminance table 2020 and filters the grayscale image LP with a 135 degree Gabor filter. The luminances L (1) to L (n) of the regions A1 to An on the grayscale image LP that have passed through the 135 degree Gabor filter are stored in, for example, the 135 degree Gabor filter luminance table 2620. The 135 degree Gabor filter luminance table 2620 is a table that stores the luminances L (1) to L (n) of the areas A1 to An on the grayscale image LP that have passed through the 135 degree Gabor filter.

図25において、(ii)特徴量算出部605は、0度のガボールフィルタを通したグレースケール画像LPにガウシアンフィルタをかけて平滑化したあと、ダウンサンプリングを実施してダウンサンプリング画像DP(0度)を作成する。ダウンサンプリング画像DP(0度)上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、ダウンサンプリング画像輝度テーブル2511に記憶される。   In FIG. 25, (ii) the feature quantity calculation unit 605 smoothes the grayscale image LP that has passed through the 0 degree Gabor filter by applying a Gaussian filter, and then performs downsampling to perform the downsampling image DP (0 degree). ). The luminances L (1) to L (n) of the regions A1 to An on the downsampled image DP (0 degree) are stored in, for example, the downsampled image luminance table 2511.

図25において、(ii)特徴量算出部605は、45度のガボールフィルタを通したグレースケール画像LPにガウシアンフィルタをかけて平滑化したあと、ダウンサンプリングを実施してダウンサンプリング画像DP(45度)を作成する。ダウンサンプリング画像DP(45度)上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、ダウンサンプリング画像輝度テーブル2521に記憶される。   In FIG. 25, (ii) the feature amount calculation unit 605 smoothes the grayscale image LP that has passed through the 45 degree Gabor filter by applying a Gaussian filter, and then performs downsampling to obtain a downsampled image DP (45 degree). ). The luminances L (1) to L (n) of the regions A1 to An on the downsampled image DP (45 degrees) are stored in the downsampled image luminance table 2521, for example.

図26において、(ii)特徴量算出部605は、90度のガボールフィルタを通したグレースケール画像LPにガウシアンフィルタをかけて平滑化したあと、ダウンサンプリングを実施してダウンサンプリング画像DP(90度)を作成する。ダウンサンプリング画像DP(90度)上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、ダウンサンプリング画像輝度テーブル2611に記憶される。   In FIG. 26, (ii) the feature amount calculation unit 605 smoothes the grayscale image LP that has passed through the 90 degree Gabor filter by applying a Gaussian filter, and then performs downsampling to perform a downsampled image DP (90 degrees). ). The luminances L (1) to L (n) of the regions A1 to An on the downsampled image DP (90 degrees) are stored in the downsampled image luminance table 2611, for example.

図26において、(ii)特徴量算出部605は、135度のガボールフィルタを通したグレースケール画像LPにガウシアンフィルタをかけて平滑化したあと、ダウンサンプリングを実施してダウンサンプリング画像DP(135度)を作成する。ダウンサンプリング画像DP(135度)上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、ダウンサンプリング画像輝度テーブル2621に記憶される。   In FIG. 26, (ii) the feature amount calculation unit 605 smoothes the grayscale image LP that has passed through the 135 degree Gabor filter by applying a Gaussian filter, and then performs downsampling to obtain a downsampled image DP (135 degree). ). The luminances L (1) to L (n) of the regions A1 to An on the downsampled image DP (135 degrees) are stored in, for example, the downsampled image luminance table 2621.

図25において、(iii)特徴量算出部605は、ダウンサンプリング画像DP(0度)にアップサンプリングを実施して、ピラミッド画像PP(0度)を作成する。ピラミッド画像PP(0度)上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、ピラミッド画像輝度テーブル2512に記憶される。   In FIG. 25, (iii) the feature amount calculation unit 605 performs upsampling on the downsampled image DP (0 degree) to create a pyramid image PP (0 degree). The luminances L (1) to L (n) of the regions A1 to An on the pyramid image PP (0 degree) are stored in, for example, the pyramid image luminance table 2512.

図25において、(iii)特徴量算出部605は、ダウンサンプリング画像DP(45度)にアップサンプリングを実施して、ピラミッド画像PP(45度)を作成する。ピラミッド画像PP(45度)上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、ピラミッド画像輝度テーブル2522に記憶される。   In FIG. 25, (iii) the feature amount calculation unit 605 performs upsampling on the downsampled image DP (45 degrees) to create a pyramid image PP (45 degrees). The luminances L (1) to L (n) of the regions A1 to An on the pyramid image PP (45 degrees) are stored in the pyramid image luminance table 2522, for example.

図26において、(iii)特徴量算出部605は、ダウンサンプリング画像DP(90度)にアップサンプリングを実施して、ピラミッド画像PP(90度)を作成する。ピラミッド画像PP(90度)上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、ピラミッド画像輝度テーブル2612に記憶される。   In FIG. 26, (iii) the feature quantity calculation unit 605 performs upsampling on the downsampled image DP (90 degrees) to create a pyramid image PP (90 degrees). The luminances L (1) to L (n) of the regions A1 to An on the pyramid image PP (90 degrees) are stored in, for example, the pyramid image luminance table 2612.

図26において、(iii)特徴量算出部605は、ダウンサンプリング画像DP(135度)にアップサンプリングを実施して、ピラミッド画像PP(135度)を作成する。ピラミッド画像PP(135度)上の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、ピラミッド画像輝度テーブル2622に記憶される。   In FIG. 26, (iii) a feature amount calculation unit 605 performs upsampling on the downsampled image DP (135 degrees) to create a pyramid image PP (135 degrees). The luminances L (1) to L (n) of the regions A1 to An on the pyramid image PP (135 degrees) are stored in the pyramid image luminance table 2622, for example.

図27において、(iv)特徴量算出部605は、ピラミッド画像PP(0度)に関する中心周辺差分処理を実施する。具体的には、特徴量算出部605が、0度ガボールフィルタ輝度テーブル2510内の領域Aiの輝度L(i)とピラミッド画像輝度テーブル2512内の領域Aiの輝度L(i)との差分を求めることにより、領域Aiの輝度L(i)を算出する。ピラミッド画像PP(0度)に関する中心周辺差分処理後の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、0度差分輝度テーブル2711に記憶される。   In FIG. 27, (iv) a feature amount calculation unit 605 performs center periphery difference processing regarding the pyramid image PP (0 degree). Specifically, the feature amount calculation unit 605 obtains a difference between the brightness L (i) of the area Ai in the 0 degree Gabor filter brightness table 2510 and the brightness L (i) of the area Ai in the pyramid image brightness table 2512. Thus, the luminance L (i) of the area Ai is calculated. For example, the luminances L (1) to L (n) of the regions A1 to An after the center peripheral difference processing relating to the pyramid image PP (0 degree) are stored in the 0 degree difference luminance table 2711, for example.

図27において、(iv)特徴量算出部605は、ピラミッド画像PP(45度)に関する中心周辺差分処理を実施する。具体的には、特徴量算出部605が、45度ガボールフィルタ輝度テーブル2520内の領域Aiの輝度L(i)とピラミッド画像輝度テーブル2522内の領域Aiの輝度L(i)との差分を求めることにより、領域Aiの輝度L(i)を算出する。ピラミッド画像PP(45度)に関する中心周辺差分処理後の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、45度差分輝度テーブル2712に記憶される。   In FIG. 27, (iv) a feature amount calculation unit 605 performs center periphery difference processing regarding the pyramid image PP (45 degrees). Specifically, the feature amount calculation unit 605 obtains a difference between the luminance L (i) of the region Ai in the 45 degree Gabor filter luminance table 2520 and the luminance L (i) of the region Ai in the pyramid image luminance table 2522. Thus, the luminance L (i) of the area Ai is calculated. For example, the luminances L (1) to L (n) of the regions A1 to An after the central peripheral difference processing relating to the pyramid image PP (45 degrees) are stored in the 45 degree difference luminance table 2712, for example.

図27において、(iv)特徴量算出部605は、ピラミッド画像PP(90度)に関する中心周辺差分処理を実施する。具体的には、特徴量算出部605が、90度ガボールフィルタ輝度テーブル2610内の領域Aiの輝度L(i)とピラミッド画像輝度テーブル2612内の領域Aiの輝度L(i)との差分を求めることにより、領域Aiの輝度L(i)を算出する。ピラミッド画像PP(90度)に関する中心周辺差分処理後の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、90度差分輝度テーブル2713に記憶される。   In FIG. 27, (iv) a feature amount calculation unit 605 performs center periphery difference processing on the pyramid image PP (90 degrees). Specifically, the feature amount calculation unit 605 obtains a difference between the luminance L (i) of the region Ai in the 90 degree Gabor filter luminance table 2610 and the luminance L (i) of the region Ai in the pyramid image luminance table 2612. Thus, the luminance L (i) of the area Ai is calculated. For example, the luminances L (1) to L (n) of the regions A1 to An after the center peripheral difference processing regarding the pyramid image PP (90 degrees) are stored in the 90 degree difference luminance table 2713, for example.

図27において、(iv)特徴量算出部605は、ピラミッド画像PP(135度)に関する中心周辺差分処理を実施する。具体的には、特徴量算出部605が、135度ガボールフィルタ輝度テーブル2620内の領域Aiの輝度L(i)とピラミッド画像輝度テーブル2622内の領域Aiの輝度L(i)との差分を求めることにより、領域Aiの輝度L(i)を算出する。ピラミッド画像PP(135度)に関する中心周辺差分処理後の各領域A1〜Anの輝度L(1)〜L(n)は、例えば、135度差分輝度テーブル2714に記憶される。   In FIG. 27, (iv) a feature amount calculation unit 605 performs center periphery difference processing regarding the pyramid image PP (135 degrees). Specifically, the feature amount calculation unit 605 obtains a difference between the luminance L (i) of the region Ai in the 135 degree Gabor filter luminance table 2620 and the luminance L (i) of the region Ai in the pyramid image luminance table 2622. Thus, the luminance L (i) of the area Ai is calculated. For example, the luminances L (1) to L (n) of the regions A1 to An after the center peripheral difference processing relating to the pyramid image PP (135 degrees) are stored in the 135 degree difference luminance table 2714, for example.

図27において、(v)特徴量算出部605は、0度、45度、90度、135度のガボールフィルタに通したグレースケール画像LPに基づく領域A1〜Anの輝度L(1)〜L(n)の線形和をとることにより、方向成分に関する顕著度マップM3を作成する。具体的には、特徴量算出部605が、差分輝度テーブル2711〜2714内の領域Aiの輝度L(i)を足し合わせて、領域Aiの方向成分に関する顕著度を算出する。例えば、領域A3の方向成分に関する顕著度は、『170=0+0+0+170』となる。   In FIG. 27, (v) the feature amount calculation unit 605 includes luminances L (1) to L (L (1) to L (1) of regions A1 to An based on grayscale images LP that have been passed through Gabor filters of 0 degrees, 45 degrees, 90 degrees, and 135 degrees. By taking the linear sum of n), the saliency map M3 regarding the direction component is created. Specifically, the feature amount calculation unit 605 adds the luminance L (i) of the area Ai in the difference luminance tables 2711 to 2714 to calculate the saliency related to the direction component of the area Ai. For example, the saliency related to the direction component of the region A3 is “170 = 0 + 0 + 0 + 170”.

表示画像SP上の各領域A1〜Anの方向成分に関する顕著度は、例えば、方向顕著度テーブル2720に記憶される。方向顕著度テーブル2720は、表示画像SP上の各領域A1〜Anの方向成分に関する顕著度を記憶するテーブルである。これにより、方向成分に関する表示画像SPの顕著度マップM3を作成することができる。   The saliency related to the direction component of each of the areas A1 to An on the display image SP is stored in, for example, the direction saliency table 2720. The direction saliency table 2720 is a table that stores saliency related to the direction components of the areas A1 to An on the display image SP. Thereby, the saliency map M3 of the display image SP regarding the direction component can be created.

なお、上述した各種テーブル2510〜2512,2520〜2522,2610〜2612,2620〜2622,2711〜2714,2720は、例えば、RAM303、磁気ディスク305、光ディスク307などの記憶装置により実現される。   The various tables 2510 to 2512, 2520 to 2522, 2610 to 2612, 2620 to 2622, 2711 to 2714, and 2720 described above are realized by a storage device such as the RAM 303, the magnetic disk 305, and the optical disk 307, for example.

つぎに、図28を用いて、輝度成分、色成分および方向成分に関する表示画像SPの顕著度マップM1〜M3の線形和をとることにより、表示画像SPの顕著度マップMを作成する場合について説明する。   Next, the case where the saliency map M of the display image SP is created by taking the linear sum of the saliency maps M1 to M3 of the display image SP regarding the luminance component, the color component, and the direction component will be described with reference to FIG. To do.

図28は、表示画像の顕著度マップ作成処理の概要を示す説明図である。図28において、(i)特徴量算出部605は、輝度顕著度テーブル2100(図21参照)の領域A1〜Anごとの顕著度を、最小値が「0」かつ最大値が「255」となるように正規化する。ここでは、例えば、領域A2の顕著度が「47」から「120」に変換されている。   FIG. 28 is an explanatory diagram showing an overview of a display image saliency map creation process. In FIG. 28, (i) the feature amount calculation unit 605 sets the saliency for each of the areas A1 to An in the brightness saliency table 2100 (see FIG. 21) to a minimum value of “0” and a maximum value of “255”. Normalize as follows. Here, for example, the saliency of the area A2 is converted from “47” to “120”.

図28において、(i)特徴量算出部605は、色顕著度テーブル2430の領域A1〜Anごとの顕著度を、最小値が「0」かつ最大値が「255」となるように正規化する。ここでは、例えば、領域A3の顕著度が「780」から「255」に変換されている。   In FIG. 28, (i) the feature amount calculation unit 605 normalizes the saliency for each of the regions A1 to An in the color saliency table 2430 so that the minimum value is “0” and the maximum value is “255”. . Here, for example, the saliency of the area A3 is converted from “780” to “255”.

図28において、(i)特徴量算出部605は、方向顕著度テーブル2720の領域A1〜Anごとの顕著度を、最小値が「0」かつ最大値が「255」となるように正規化する。ここでは、例えば、領域A2の顕著度が「170」から「255」に変換されている。   In FIG. 28, (i) the feature amount calculation unit 605 normalizes the saliency for each of the areas A1 to An in the direction saliency table 2720 so that the minimum value is “0” and the maximum value is “255”. . Here, for example, the saliency of the area A2 is converted from “170” to “255”.

図28において、(ii)特徴量算出部605は、輝度、色、方向顕著度テーブル2100,2430,2720の領域A1〜Anごとの顕著度の線形合成を行うことにより、領域A1〜Anごとの顕著度を算出する。これにより、表示画像SPに関する顕著度マップMを作成することができる。   In FIG. 28, (ii) the feature amount calculation unit 605 performs linear composition of the saliency for each of the areas A1 to An in the luminance, color, and direction saliency tables 2100, 2430, and 2720, so that each area A1 to An is obtained. Calculate the saliency. Thereby, the saliency map M regarding the display image SP can be created.

具体的には、特徴量算出部605が、輝度、色、方向顕著度テーブル2100,2430,2720の領域A1〜Anごとの顕著度の線形和をとる。そして、特徴量算出部605が、線形和をとった領域A1〜Anごとの顕著度を最小値が「0」かつ最大値が「255」となるように正規化する。算出された領域A1〜Anごとの顕著度は、例えば、図8に示した特徴量テーブル800内の領域A1〜Anごとの「特徴量」フィールドに記憶される。すなわち、ここでは、各領域A1〜Anの顕著度を、人の視覚的な注意を引きつける強さを表す特徴量C1〜Cnとしている。   Specifically, the feature amount calculation unit 605 takes a linear sum of the saliency for each of the areas A1 to An of the luminance, color, and direction saliency tables 2100, 2430, and 2720. Then, the feature amount calculation unit 605 normalizes the saliency for each of the regions A1 to An obtained as a linear sum so that the minimum value is “0” and the maximum value is “255”. The calculated saliency for each of the areas A1 to An is stored in, for example, a “feature” field for each of the areas A1 to An in the feature table 800 shown in FIG. That is, here, the saliency of each of the areas A1 to An is set as the feature amounts C1 to Cn representing the strength that attracts human visual attention.

ここで、領域A1〜Anのうち領域A1〜A4に着目する。この場合、例えば、上記注視点決定部606は、特徴量テーブル800を参照して、領域A1〜A4のうち、特徴量が最大の領域A3を注視点Gに決定する。ここで、表示画像SPに関する顕著度マップMの具体例について説明する。   Here, attention is paid to the regions A1 to A4 among the regions A1 to An. In this case, for example, the gaze point determination unit 606 refers to the feature amount table 800 and determines the region A3 having the maximum feature amount as the gaze point G among the regions A1 to A4. Here, a specific example of the saliency map M regarding the display image SP will be described.

図29は、顕著度マップの具体例を示す説明図である。図29において、表示画像2901は、ディスプレイ311に表示された表示画像SPである。また、顕著度マップ2902は、表示画像2901の顕著度マップMである。顕著度マップ2902では、輝度や色などの特徴が周囲に比べて顕著な部分を強調して表している。   FIG. 29 is an explanatory diagram of a specific example of the saliency map. In FIG. 29, a display image 2901 is a display image SP displayed on the display 311. The saliency map 2902 is a saliency map M of the display image 2901. In the saliency map 2902, features such as brightness and color are emphasized in comparison with the surroundings.

具体的には、顕著度マップ2902において、白い部分は黒い部分に比べて人の視覚的な注意を引きつける強さが大きいことを表している。顕著度マップ2902によれば、表示画像2901の中から人が注視しやすい注視点Gを高精度に決定することができる。   Specifically, in the saliency map 2902, the white portion indicates that the strength that attracts the human visual attention is greater than the black portion. According to the saliency map 2902, it is possible to determine a gaze point G that is easy for a person to gaze from the display image 2901 with high accuracy.

(視線検出装置300の補正値算出処理手順)
つぎに、視線検出装置300の補正値算出処理手順について説明する。ここでは、ベクトルペアテーブル900に登録する区画Diのベクトルペアの数が「1」の場合を例に挙げて説明する(すなわち、上記所定数A=1)。
(Correction value calculation processing procedure of the line-of-sight detection device 300)
Next, the correction value calculation processing procedure of the visual line detection device 300 will be described. Here, the case where the number of vector pairs of the section Di registered in the vector pair table 900 is “1” will be described as an example (that is, the predetermined number A = 1).

図30は、視線検出装置の補正値算出処理手順の一例を示すフローチャート(その1)である。図30のフローチャートにおいて、まず、取得部601により、表示画像SPおよび眼球画像EPを取得したか否かを判断する(ステップS3001)。表示画像SPは、眼球画像EPの撮影時にディスプレイ311に表示中のものである。   FIG. 30 is a flowchart (part 1) illustrating an example of a correction value calculation processing procedure of the visual line detection device. In the flowchart of FIG. 30, first, the acquisition unit 601 determines whether the display image SP and the eyeball image EP have been acquired (step S3001). The display image SP is being displayed on the display 311 when the eyeball image EP is captured.

ここで、取得部601により、表示画像SPおよび眼球画像EPを取得するのを待つ(ステップS3001:No)。そして、取得部601により、表示画像SPおよび眼球画像EPを取得した場合(ステップS3001:Yes)、視線算出部602により、取得された眼球画像EPに基づいて、第1の視線ベクトルV1を算出する(ステップS3002)。第1の視線ベクトルV1は、被写体の眼球からディスプレイ311に向かうベクトルである。   Here, the acquisition unit 601 waits for the display image SP and the eyeball image EP to be acquired (step S3001: No). When the display image SP and the eyeball image EP are acquired by the acquisition unit 601 (step S3001: Yes), the line-of-sight calculation unit 602 calculates the first line-of-sight vector V1 based on the acquired eyeball image EP. (Step S3002). The first line-of-sight vector V1 is a vector from the subject's eyeball toward the display 311.

つぎに、視線算出部602により、算出された第1の視線ベクトルV1に基づいて、表示画像SP上の仮の視線位置VPを算出する(ステップS3003)。そして、分割部603により、ディスプレイ311の画面に表示された表示画像SPを区切って区画D1〜Dmに分割する(ステップS3004)。   Next, the visual line calculation unit 602 calculates a temporary visual line position VP on the display image SP based on the calculated first visual line vector V1 (step S3003). Then, the dividing unit 603 divides the display image SP displayed on the screen of the display 311 and divides it into sections D1 to Dm (step S3004).

このあと、検索部604により、分割された区画D1〜Dmの中から、仮の視線位置VPを含む区画Diを検索する(ステップS3005)。そして、特徴量算出部605により、区画Diのベクトルペアがベクトルペアテーブル900に登録済みか否かを判断する(ステップS3006)。   Thereafter, the search unit 604 searches the divided sections D1 to Dm for a section Di including the temporary line-of-sight position VP (step S3005). Then, the feature amount calculation unit 605 determines whether or not the vector pair of the section Di has been registered in the vector pair table 900 (step S3006).

ここで、区画Diのベクトルペアが登録済みの場合(ステップS3006:Yes)、ステップS3001に戻る。一方、区画Diのベクトルペアが未登録の場合(ステップS3006:No)、注視点決定部606により、区画Di内の被写体が注視している注視点Gを決定する注視点決定処理を実行する(ステップS3007)。   If the vector pair of the section Di has been registered (step S3006: Yes), the process returns to step S3001. On the other hand, when the vector pair of the section Di is not registered (step S3006: No), the gazing point determination unit 606 executes the gazing point determination process for determining the gazing point G that the subject in the section Di is gazing at ( Step S3007).

このあと、視線算出部602により、被写体の眼球から、決定された注視点Gに向かう第2の視線ベクトルV2を算出する(ステップS3008)。つぎに、関連付け部607により、ステップS3002において算出された第1の視線ベクトルV1と、ステップS3008において算出された第2の視線ベクトルV2とを区画Diのベクトルペアとして関連付ける(ステップS3009)。   Thereafter, the line-of-sight calculation unit 602 calculates a second line-of-sight vector V2 toward the determined gazing point G from the eyeball of the subject (step S3008). Next, the associating unit 607 associates the first line-of-sight vector V1 calculated in step S3002 and the second line-of-sight vector V2 calculated in step S3008 as a vector pair of the section Di (step S3009).

そして、更新部により、区画Diのベクトルペアをベクトルペアテーブル900に登録する(ステップS3010)。つぎに、補正値算出部609により、ベクトルペアテーブル900に登録されているベクトルペアの数cが所定の区画数N以上となったか否かを判断する(ステップS3011)。ここで、区画数N未満の場合(ステップS3011:No)、ステップS3001に戻る。   Then, the update unit registers the vector pair of the section Di in the vector pair table 900 (step S3010). Next, the correction value calculation unit 609 determines whether the number c of vector pairs registered in the vector pair table 900 is equal to or greater than a predetermined number of sections N (step S3011). If the number is less than N (step S3011: No), the process returns to step S3001.

一方、区画数N以上の場合(ステップS3011:Yes)、補正値算出部609により、ベクトルペアテーブル900を参照して、キャリブレーション行列Wに含まれるパラメータω1〜ω4の値を算出する(ステップS3012)。そして、補正値算出部609により、算出されたパラメータω1〜ω4の値をパラメータテーブル1000に登録して(ステップS3013)、本フローチャートによる一連の処理を終了する。 On the other hand, when the number of sections is N or more (step S3011: Yes), the correction value calculation unit 609 refers to the vector pair table 900 and calculates the values of the parameters ω 1 to ω 4 included in the calibration matrix W ( Step S3012). Then, the correction value calculation unit 609 registers the calculated values of the parameters ω 1 to ω 4 in the parameter table 1000 (step S3013), and the series of processes according to this flowchart ends.

これにより、区画D1〜Dmのうち、N個の区画のベクトルペアに基づいて、被写体に固有の補正値を算出することができる。この結果、被写体に固有の補正値の算出元となるベクトルペアが特定の区画Diに偏ることを防ぐことができ、被写体に固有の補正値を正確に求めることができる。   Thereby, a correction value specific to the subject can be calculated based on the vector pairs of N sections among the sections D1 to Dm. As a result, it is possible to prevent the vector pair that is the calculation source of the correction value specific to the subject from being biased to the specific section Di, and to accurately obtain the correction value specific to the subject.

なお、上記区画決定部614によって区画Diの大きさが決定されている場合は、ステップS3004において、決定された区画Diの大きさにしたがって、ディスプレイ311の画面を区画D1〜Dmに分割することにしてもよい。   When the size of the section Di is determined by the section determination unit 614, the screen of the display 311 is divided into sections D1 to Dm according to the determined size of the section Di in step S3004. May be.

<注視点決定処理の具体的な処理手順>
つぎに、図30に示したステップS3007の注視点決定処理の具体的な処理手順について説明する。まず、区画Di内の閉領域Hkごとの極大値Cmax(k)を用いて、区画Di内の注視点Gを含む閉領域を決定する場合について説明する。
<Specific processing procedure for gazing point determination processing>
Next, a specific processing procedure of the gazing point determination process in step S3007 shown in FIG. 30 will be described. First, the case where the closed region including the gazing point G in the partition Di is determined using the maximum value C max (k) for each closed region Hk in the partition Di will be described.

図31は、注視点決定処理の具体的な処理手順の一例を示すフローチャート(その1)である。図31のフローチャートにおいて、まず、特徴量算出部605により、図30に示したステップS3005において検索された区画Di内の画素p1〜pnの画素値に基づいて、区画Di内の画素p1〜pnごとの特徴量C1〜Cnを算出する(ステップS3101)。算出された画素p1〜pnごとの特徴量C1〜Cnは、特徴量テーブル800に記憶される。   FIG. 31 is a flowchart (part 1) illustrating an example of a specific processing procedure of the gazing point determination processing. In the flowchart of FIG. 31, first, for each of the pixels p1 to pn in the section Di, based on the pixel values of the pixels p1 to pn in the section Di searched by the feature amount calculation unit 605 in step S3005 shown in FIG. Feature amounts C1 to Cn are calculated (step S3101). The calculated feature amounts C1 to Cn for the pixels p1 to pn are stored in the feature amount table 800.

つぎに、注視点決定部606により、区画Diにラベリング処理を施すことにより、区画Diの中から閉領域Hkを抽出する(ステップS3102)。このあと、注視点決定部606により、複数の閉領域Hkが抽出されたか否かを判断し(ステップS3103)、複数の閉領域Hkが抽出されなかった場合(ステップS3103:No)、ステップS3109に移行する。   Next, the gazing point determination unit 606 performs a labeling process on the section Di to extract a closed region Hk from the section Di (step S3102). Thereafter, the gaze point determination unit 606 determines whether or not a plurality of closed regions Hk are extracted (step S3103). If a plurality of closed regions Hk are not extracted (step S3103: No), the process proceeds to step S3109. Transition.

一方、複数の閉領域Hkが抽出された場合(ステップS3103:Yes)、注視点決定部606により、閉領域Hkのkを「k=1」とする(ステップS3104)。そして、注視点決定部606により、特徴量テーブル800を参照して、閉領域Hkの極大値Cmax(k)を特定する(ステップS3105)。特定された閉領域Hkの極大値Cmax(k)は、閉領域データテーブル1300に記憶される。 On the other hand, when a plurality of closed regions Hk are extracted (step S3103: Yes), the gaze point determination unit 606 sets k of the closed region Hk to “k = 1” (step S3104). Then, the gaze point determination unit 606 specifies the maximum value C max (k) of the closed region Hk with reference to the feature amount table 800 (step S3105). The maximum value C max (k) of the specified closed region Hk is stored in the closed region data table 1300.

このあと、注視点決定部606により、閉領域Hkのkをインクリメントして(ステップS3106)、「k>K」となったか否かを判断する(ステップS3107)。ここで、「k≦K」の場合(ステップS3107:No)、ステップS3105に戻る。   Thereafter, the gaze point determination unit 606 increments k of the closed region Hk (step S3106), and determines whether or not “k> K” is satisfied (step S3107). If “k ≦ K” is satisfied (step S3107: NO), the process returns to step S3105.

一方、「k>K」の場合(ステップS3107:Yes)、注視点決定部606により、閉領域データテーブル1300を参照して、閉領域H1〜HKの中から極大値Cmax(k)が最大の閉領域Hkを特定する(ステップS3108)。 On the other hand, in the case of “k> K” (step S3107: Yes), the gaze point determination unit 606 refers to the closed region data table 1300, and the maximum value C max (k) is maximum from the closed regions H1 to HK. The closed region Hk is identified (step S3108).

つぎに、注視点決定部606により、特定された閉領域Hk内の特徴量C[v]が極大値Cmax(k)の画素p[v]を特定する(ステップS3109)。そして、注視点決定部606により、特定された画素p[v]を注視点Gに決定して(ステップS3110)、図30に示したステップS3008に移行する。 Next, the gaze point determination unit 606 specifies a pixel p [v] having a maximum value C max (k) in the specified closed area Hk (step S3109). Then, the gazing point determination unit 606 determines the specified pixel p [v] as the gazing point G (step S3110), and proceeds to step S3008 shown in FIG.

これにより、区画Di内のオブジェクトを表す閉領域H1〜HKの中から、極大値Cmax(k)が最大の閉領域Hkを、注視点Gを含む閉領域に決定することができる。 Thereby, the closed region Hk having the maximum local maximum C max (k) can be determined as the closed region including the gazing point G from the closed regions H1 to HK representing the objects in the section Di.

つぎに、区画Di内の閉領域Hkごとの面積Skを用いて、区画Di内の注視点Gを含む閉領域を決定する場合について説明する。   Next, a case where the closed region including the gazing point G in the partition Di is determined using the area Sk for each closed region Hk in the partition Di will be described.

図32は、注視点決定処理の具体的な処理手順の一例を示すフローチャート(その2)である。図32のフローチャートにおいて、まず、特徴量算出部605により、図30に示したステップS3005において検索された区画Di内の画素p1〜pnの画素値に基づいて、区画Di内の画素p1〜pnごとの特徴量C1〜Cnを算出する(ステップS3201)。算出された画素p1〜pnごとの特徴量C1〜Cnは、特徴量テーブル800に記憶される。   FIG. 32 is a flowchart (part 2) illustrating an example of a specific processing procedure of the gazing point determination processing. In the flowchart of FIG. 32, first, for each pixel p1 to pn in the section Di, based on the pixel values of the pixels p1 to pn in the section Di searched in step S3005 shown in FIG. Feature amounts C1 to Cn are calculated (step S3201). The calculated feature amounts C1 to Cn for the pixels p1 to pn are stored in the feature amount table 800.

つぎに、注視点決定部606により、区画Diにラベリング処理を施すことにより、区画Diの中から閉領域Hkを抽出する(ステップS3202)。このあと、注視点決定部606により、複数の閉領域Hkが抽出されたか否かを判断し(ステップS3203)、複数の閉領域Hkが抽出されなかった場合(ステップS3203:No)、ステップS3209に移行する。   Next, the gazing point determination unit 606 performs a labeling process on the section Di to extract a closed region Hk from the section Di (step S3202). Thereafter, the gaze point determination unit 606 determines whether or not a plurality of closed regions Hk are extracted (step S3203). If a plurality of closed regions Hk are not extracted (step S3203: No), the process proceeds to step S3209. Transition.

一方、複数の閉領域Hkが抽出された場合(ステップS3203:Yes)、注視点決定部606により、閉領域Hkのkを「k=1」とする(ステップS3204)。そして、注視点決定部606により、閉領域Hkの面積Skを算出する(ステップS3205)。算出された閉領域Hkの面積Skは、閉領域データテーブル1300に記憶される。   On the other hand, when a plurality of closed regions Hk are extracted (step S3203: YES), the gaze point determination unit 606 sets k of the closed region Hk to “k = 1” (step S3204). Then, the gazing point determination unit 606 calculates the area Sk of the closed region Hk (step S3205). The calculated area Sk of the closed region Hk is stored in the closed region data table 1300.

このあと、注視点決定部606により、閉領域Hkのkをインクリメントして(ステップS3206)、「k>K」となったか否かを判断する(ステップS3207)。ここで、「k≦K」の場合(ステップS3207:No)、ステップS3205に戻る。   Thereafter, the gaze point determination unit 606 increments k of the closed region Hk (step S3206), and determines whether or not “k> K” is satisfied (step S3207). If “k ≦ K” is satisfied (step S3207: NO), the process returns to step S3205.

一方、「k>K」の場合(ステップS3207:Yes)、注視点決定部606により、閉領域データテーブル1300を参照して、閉領域H1〜HKの中から面積Skが最大の閉領域Hkを特定する(ステップS3208)。   On the other hand, in the case of “k> K” (step S3207: Yes), the gaze point determination unit 606 refers to the closed region data table 1300 and selects the closed region Hk having the largest area Sk from the closed regions H1 to HK. It is specified (step S3208).

つぎに、注視点決定部606により、特定された閉領域Hk内の特徴量C[v]が最大の画素p[v]を特定する(ステップS3209)。そして、注視点決定部606により、特定された画素p[v]を注視点Gに決定して(ステップS3210)、図30に示したステップS3008に移行する。   Next, the gaze point determination unit 606 identifies the pixel p [v] having the maximum feature amount C [v] in the identified closed region Hk (step S3209). Then, the gazing point determination unit 606 determines the specified pixel p [v] as the gazing point G (step S3210), and proceeds to step S3008 shown in FIG.

これにより、区画Di内のオブジェクトを表す閉領域H1〜HKの中から、面積Skが最大の閉領域Hkを、注視点Gを含む閉領域に決定することができる。   Thereby, the closed area Hk having the largest area Sk can be determined as the closed area including the gazing point G from the closed areas H1 to HK representing the objects in the section Di.

つぎに、区画Di内の閉領域Hkごとの集中度Fkを用いて、区画Di内の注視点Gを含む閉領域を決定する場合について説明する。   Next, a case where the closed region including the gazing point G in the partition Di is determined using the concentration degree Fk for each closed region Hk in the partition Di will be described.

図33は、注視点決定処理の具体的な処理手順の一例を示すフローチャート(その3)である。図33のフローチャートにおいて、まず、特徴量算出部605により、図30に示したステップS3005において検索された区画Di内の画素p1〜pnの画素値に基づいて、区画Di内の画素p1〜pnごとの特徴量C1〜Cnを算出する(ステップS3301)。算出された画素p1〜pnごとの特徴量C1〜Cnは、特徴量テーブル800に記憶される。   FIG. 33 is a flowchart (part 3) illustrating an example of a specific processing procedure of the gazing point determination processing. In the flowchart of FIG. 33, first, the feature amount calculation unit 605 determines the pixels p1 to pn in the section Di based on the pixel values of the pixels p1 to pn in the section Di searched in step S3005 shown in FIG. Feature amounts C1 to Cn are calculated (step S3301). The calculated feature amounts C1 to Cn for the pixels p1 to pn are stored in the feature amount table 800.

つぎに、注視点決定部606により、区画Diにラベリング処理を施すことにより、区画Diの中から閉領域Hkを抽出する(ステップS3302)。このあと、注視点決定部606により、複数の閉領域Hkが抽出されたか否かを判断し(ステップS3303)、複数の閉領域Hkが抽出されなかった場合(ステップS3303:No)、ステップS3310に移行する。   Next, the gazing point determination unit 606 performs a labeling process on the section Di, thereby extracting the closed region Hk from the section Di (step S3302). Thereafter, the gaze point determination unit 606 determines whether or not a plurality of closed regions Hk are extracted (step S3303). If a plurality of closed regions Hk are not extracted (step S3303: No), the process proceeds to step S3310. Transition.

一方、複数の閉領域Hkが抽出された場合(ステップS3303:Yes)、注視点決定部606により、閉領域Hkのkを「k=1」とする(ステップS3304)。そして、注視点決定部606により、閉領域Hkの面積Skを算出する(ステップS3305)。算出された閉領域Hkの面積Skは、閉領域データテーブル1300に記憶される。   On the other hand, when a plurality of closed regions Hk are extracted (step S3303: YES), the gaze point determination unit 606 sets k of the closed region Hk to “k = 1” (step S3304). Then, the gazing point determination unit 606 calculates the area Sk of the closed region Hk (step S3305). The calculated area Sk of the closed region Hk is stored in the closed region data table 1300.

つぎに、注視点決定部606により、閉領域Hkの集中度Fkを算出する(ステップS3306)。算出された閉領域Hkの集中度Fkは、閉領域データテーブル1300に記憶される。このあと、注視点決定部606により、閉領域Hkのkをインクリメントして(ステップS3307)、「k>K」となったか否かを判断する(ステップS3308)。   Next, the focus point determination unit 606 calculates the concentration degree Fk of the closed region Hk (step S3306). The calculated concentration Fk of the closed region Hk is stored in the closed region data table 1300. Thereafter, the gaze point determination unit 606 increments k of the closed region Hk (step S3307), and determines whether or not “k> K” is satisfied (step S3308).

ここで、「k≦K」の場合(ステップS3308:No)、ステップS3305に戻る。一方、「k>K」の場合(ステップS3308:Yes)、注視点決定部606により、閉領域データテーブル1300を参照して、閉領域H1〜HKの中から集中度Fkが最小の閉領域Hkを特定する(ステップS3309)。   Here, if “k ≦ K” (step S3308: No), the process returns to step S3305. On the other hand, in the case of “k> K” (step S3308: Yes), the gazing point determination unit 606 refers to the closed region data table 1300 and closes the closed region Hk having the smallest concentration Fk from the closed regions H1 to HK. Is identified (step S3309).

つぎに、注視点決定部606により、特定された閉領域Hk内の特徴量C[v]が最大の画素p[v]を特定する(ステップS3310)。そして、注視点決定部606により、特定された画素p[v]を注視点Gに決定して(ステップS3311)、図30に示したステップS3008に移行する。   Next, the gaze point determination unit 606 identifies the pixel p [v] having the maximum feature amount C [v] in the identified closed region Hk (step S3310). Then, the gaze point determination unit 606 determines the identified pixel p [v] as the gaze point G (step S3311), and the process proceeds to step S3008 shown in FIG.

これにより、区画Di内のオブジェクトを表す閉領域H1〜HKの中から、集中度Fkが最小の閉領域Hkを、注視点Gを含む閉領域に決定することができる。   As a result, the closed region Hk with the lowest degree of concentration Fk can be determined as the closed region including the gazing point G from the closed regions H1 to HK representing the objects in the section Di.

つぎに、区画Di内の閉領域Hkごとの評価値Ekを用いて、区画Di内の注視点Gを含む閉領域を決定する場合について説明する。   Next, a case where the closed region including the gazing point G in the partition Di is determined using the evaluation value Ek for each closed region Hk in the partition Di will be described.

図34は、注視点決定処理の具体的な処理手順の一例を示すフローチャート(その4)である。図34のフローチャートにおいて、まず、特徴量算出部605により、図30に示したステップS3005において検索された区画Di内の画素p1〜pnの画素値に基づいて、区画Di内の画素p1〜pnごとの特徴量C1〜Cnを算出する(ステップS3401)。算出された画素p1〜pnごとの特徴量C1〜Cnは、特徴量テーブル800に記憶される。   FIG. 34 is a flowchart (No. 4) illustrating an example of a specific processing procedure of the gazing point determination processing. In the flowchart of FIG. 34, first, for each pixel p1 to pn in the section Di, based on the pixel values of the pixels p1 to pn in the section Di searched in step S3005 shown in FIG. Feature amounts C1 to Cn are calculated (step S3401). The calculated feature amounts C1 to Cn for the pixels p1 to pn are stored in the feature amount table 800.

つぎに、注視点決定部606により、区画Diにラベリング処理を施すことにより、区画Diの中から閉領域Hkを抽出する(ステップS3402)。このあと、注視点決定部606により、複数の閉領域Hkが抽出されたか否かを判断し(ステップS3403)、複数の閉領域Hkが抽出されなかった場合(ステップS3403:No)、ステップS3412に移行する。   Next, the gazing point determination unit 606 performs a labeling process on the section Di to extract a closed region Hk from the section Di (step S3402). Thereafter, the gaze point determination unit 606 determines whether or not a plurality of closed regions Hk are extracted (step S3403). If a plurality of closed regions Hk are not extracted (step S3403: No), the process proceeds to step S3412. Transition.

一方、複数の閉領域Hkが抽出された場合(ステップS3403:Yes)、注視点決定部606により、閉領域Hkのkを「k=1」とする(ステップS3404)。そして、注視点決定部606により、特徴量テーブル800を参照して、閉領域Hkの極大値Cmax(k)を特定する(ステップS3405)。特定された閉領域Hkの極大値Cmax(k)は、閉領域データテーブル1300に記憶される。 On the other hand, when a plurality of closed regions Hk are extracted (step S3403: YES), the gaze point determination unit 606 sets k of the closed region Hk to “k = 1” (step S3404). Then, the gaze point determination unit 606 specifies the maximum value C max (k) of the closed region Hk with reference to the feature amount table 800 (step S3405). The maximum value C max (k) of the specified closed region Hk is stored in the closed region data table 1300.

このあと、注視点決定部606により、閉領域Hkの面積Skを算出する(ステップS3406)。算出された閉領域Hkの面積Skは、閉領域データテーブル1300に記憶される。つぎに、注視点決定部606により、閉領域Hkの集中度Fkを算出する(ステップS3407)。算出された閉領域Hkの集中度Fkは、閉領域データテーブル1300に記憶される。   Thereafter, the gaze point determination unit 606 calculates the area Sk of the closed region Hk (step S3406). The calculated area Sk of the closed region Hk is stored in the closed region data table 1300. Next, the focus point determination unit 606 calculates the concentration degree Fk of the closed region Hk (step S3407). The calculated concentration Fk of the closed region Hk is stored in the closed region data table 1300.

そして、注視点決定部606により、閉領域Hkの評価値Ekを算出する(ステップS3408)。算出された閉領域Hkの評価値Ekは、閉領域データテーブル1300に記憶される。このあと、注視点決定部606により、閉領域Hkのkをインクリメントして(ステップS3409)、「k>K」となったか否かを判断する(ステップS3410)。   Then, the gaze point determination unit 606 calculates the evaluation value Ek of the closed region Hk (step S3408). The calculated evaluation value Ek of the closed region Hk is stored in the closed region data table 1300. Thereafter, the gaze point determination unit 606 increments k of the closed region Hk (step S3409), and determines whether or not “k> K” is satisfied (step S3410).

ここで、「k≦K」の場合(ステップS3410:No)、ステップS3405に戻る。一方、「k>K」の場合(ステップS3410:Yes)、注視点決定部606により、閉領域データテーブル1300を参照して、閉領域H1〜HKの中から評価値Ekが最大の閉領域Hkを特定する(ステップS3411)。   If “k ≦ K” is satisfied (step S3410: NO), the process returns to step S3405. On the other hand, when “k> K” (step S3410: Yes), the gazing point determination unit 606 refers to the closed region data table 1300, and the closed region Hk having the maximum evaluation value Ek from the closed regions H1 to HK. Is specified (step S3411).

つぎに、注視点決定部606により、特定された閉領域Hk内の特徴量C[v]が極大値Cmax(k)の画素p[v]を特定する(ステップS3412)。そして、注視点決定部606により、特定された画素p[v]を注視点Gに決定して(ステップS3413)、図30に示したステップS3008に移行する。 Next, the gaze point determination unit 606 identifies the pixel p [v] having the maximum value C max (k) in the identified closed area Hk (step S3412). Then, the gazing point determination unit 606 determines the identified pixel p [v] as the gazing point G (step S3413), and proceeds to step S3008 shown in FIG.

これにより、区画Di内のオブジェクトを表す閉領域H1〜HKの中から、評価値Ekが最大の閉領域Hkを、注視点Gを含む閉領域に決定することができる。   Thereby, the closed region Hk having the maximum evaluation value Ek can be determined as the closed region including the gazing point G from the closed regions H1 to HK representing the objects in the section Di.

(視線検出装置300の補正値算出処理手順の他の一例)
つぎに、視線検出装置300の補正値算出処理手順の他の一例について説明する。ここでは、表示画像SP上の仮の視線位置VPが停留点であると判断された場合に、関連付け部607が、第1の視線ベクトルV1と第2の視線ベクトルV2とをベクトルペアとして関連付ける場合を例に挙げて説明する。
(Another example of correction value calculation processing procedure of the line-of-sight detection device 300)
Next, another example of the correction value calculation processing procedure of the visual line detection device 300 will be described. Here, when it is determined that the temporary line-of-sight position VP on the display image SP is a stop point, the associating unit 607 associates the first line-of-sight vector V1 and the second line-of-sight vector V2 as a vector pair. Will be described as an example.

図35および図36は、視線検出装置の補正値算出処理手順の他の一例を示すフローチャート(その2)である。図35のフローチャートにおいて、まず、取得部601により、表示画像SPおよび眼球画像EPを取得したか否かを判断する(ステップS3501)。表示画像SPは、眼球画像EPの撮影時にディスプレイ311に表示中のものである。   FIG. 35 and FIG. 36 are flowcharts (part 2) showing another example of the correction value calculation processing procedure of the visual line detection device. In the flowchart of FIG. 35, first, the acquisition unit 601 determines whether the display image SP and the eyeball image EP have been acquired (step S3501). The display image SP is being displayed on the display 311 when the eyeball image EP is captured.

ここで、取得部601により、表示画像SPおよび眼球画像EPを取得するのを待つ(ステップS3501:No)。そして、取得部601により、表示画像SPおよび眼球画像EPを取得した場合(ステップS3501:Yes)、視線算出部602により、取得された眼球画像EPに基づいて、第1の視線ベクトルV1を算出する(ステップS3502)。   Here, the acquisition unit 601 waits for the display image SP and the eyeball image EP to be acquired (step S3501: No). When the display image SP and the eyeball image EP are acquired by the acquisition unit 601 (step S3501: Yes), the first line-of-sight vector V1 is calculated by the line-of-sight calculation unit 602 based on the acquired eyeball image EP. (Step S3502).

つぎに、視線算出部602により、算出された第1の視線ベクトルV1に基づいて、表示画像SP上の仮の視線位置VPを算出する(ステップS3503)。そして、判断部612により、ステップS3501において取得された表示画像SPにおいて、算出された仮の視線位置VPを中心とする所定領域Qを設定する(ステップS3504)。   Next, the visual line calculation unit 602 calculates a temporary visual line position VP on the display image SP based on the calculated first visual line vector V1 (step S3503). Then, the determination unit 612 sets a predetermined area Q centered on the calculated temporary line-of-sight position VP in the display image SP acquired in step S3501 (step S3504).

このあと、判断部612により、ステップS3501において取得された眼球画像EPの撮影時刻からの経過時間tを「t=0」として(ステップS3505)、一定時間t0経過したか否かを判断する(ステップS3506)。ここで、一定時間t0経過するのを待って(ステップS3506:No)、一定時間t0経過した場合(ステップS3506:Yes)、取得部601により、眼球画像EPを取得する(ステップS3507)。 Thereafter, the determination unit 612 sets an elapsed time t from the photographing time of the eyeball image EP acquired in step S3501 to “t = 0” (step S3505), and determines whether or not a certain time t 0 has elapsed (step S3505). Step S3506). Here, after waiting for a certain time t 0 (step S3506: No), when the certain time t 0 has passed (step S3506: Yes), the obtaining unit 601 obtains an eyeball image EP (step S3507).

このあと、視線算出部602により、取得された眼球画像EPに基づいて、第1の視線ベクトルV1を算出する(ステップS3508)。つぎに、視線算出部602により、算出された第1の視線ベクトルV1に基づいて、表示画像SP上の仮の視線位置VPを算出する(ステップS3509)。   Thereafter, the line-of-sight calculation unit 602 calculates a first line-of-sight vector V1 based on the acquired eyeball image EP (step S3508). Next, the visual line calculation unit 602 calculates a temporary visual line position VP on the display image SP based on the calculated first visual line vector V1 (step S3509).

そして、判断部612により、ステップS3501において取得された表示画像SPにおいて、ステップS3509において算出された仮の視線位置VPが所定領域Q内に存在するか否かを判断する(ステップS3510)。ここで、所定領域Q内に存在しない場合(ステップS3510:No)、ステップS3501に戻る。   Then, the determination unit 612 determines whether or not the temporary line-of-sight position VP calculated in step S3509 exists in the predetermined region Q in the display image SP acquired in step S3501 (step S3510). Here, when it does not exist in the predetermined area Q (step S3510: No), the process returns to step S3501.

一方、所定領域Q内に存在する場合(ステップS3510:Yes)、判断部612により、経過時間tを「t=t+t0」として(ステップS3511)、経過時間tが所定時間Tより大きくなったか否かを判断する(ステップS3512)。ここで、経過時間tが所定時間T以内の場合(ステップS3512:No)、ステップS3506に戻る。 On the other hand, if it exists in the predetermined region Q (step S3510: Yes), the determining unit 612 sets the elapsed time t to “t = t + t 0 ” (step S3511), and whether or not the elapsed time t is greater than the predetermined time T. Is determined (step S3512). If the elapsed time t is within the predetermined time T (step S3512: NO), the process returns to step S3506.

一方、経過時間tが所定時間Tより大きい場合(ステップS3512:Yes)、判断部612により、ステップS3503において算出された仮の視線位置VPが停留点であると判断して(ステップS3513)、図36に示すステップS3601に移行する。   On the other hand, when the elapsed time t is greater than the predetermined time T (step S3512: Yes), the determination unit 612 determines that the temporary line-of-sight position VP calculated in step S3503 is a stop point (step S3513). The process proceeds to step S3601 shown in FIG.

図36のフローチャートにおいて、まず、分割部603により、ディスプレイ311の画面に表示された表示画像SPを区切って区画D1〜Dmに分割する(ステップS3601)。このあと、検索部604により、分割された区画D1〜Dmの中から、仮の視線位置VPを含む区画Diを検索する(ステップS3602)。   In the flowchart of FIG. 36, first, the dividing unit 603 divides the display image SP displayed on the screen of the display 311 into divisions D1 to Dm (step S3601). Thereafter, the search unit 604 searches the divided sections D1 to Dm for a section Di including the temporary line-of-sight position VP (step S3602).

そして、特徴量算出部605により、区画Diのベクトルペアがベクトルペアテーブル900に登録済みか否かを判断する(ステップS3603)。ここで、区画Diのベクトルペアが登録済みの場合(ステップS3603:Yes)、図35に示すステップS3501に戻る。   Then, the feature quantity calculation unit 605 determines whether or not the vector pair of the section Di has been registered in the vector pair table 900 (step S3603). Here, when the vector pair of the section Di has been registered (step S3603: Yes), the process returns to step S3501 shown in FIG.

一方、区画Diのベクトルペアが未登録の場合(ステップS3603:No)、注視点決定部606により、区画Di内の被写体が注視している注視点Gを決定する注視点決定処理を実行する(ステップS3604)。なお、ステップS3604の注視点決定処理は、図30に示したステップS3007の注視点決定処理と同様のため詳細な説明を省略する。   On the other hand, when the vector pair of the section Di is not registered (step S3603: No), the gazing point determination unit 606 executes the gazing point determination process for determining the gazing point G that the subject in the section Di is gazing at ( Step S3604). Note that the gazing point determination process in step S3604 is the same as the gazing point determination process in step S3007 shown in FIG.

このあと、視線算出部602により、被写体の眼球から、決定された注視点Gに向かう第2の視線ベクトルV2を算出する(ステップS3605)。つぎに、関連付け部607により、図35に示したステップS3502において算出された第1の視線ベクトルV1と、ステップS3605において算出された第2の視線ベクトルV2とを区画Diのベクトルペアとして関連付ける(ステップS3606)。   Thereafter, the line-of-sight calculation unit 602 calculates a second line-of-sight vector V2 toward the determined gazing point G from the eyeball of the subject (step S3605). Next, the associating unit 607 associates the first line-of-sight vector V1 calculated in step S3502 shown in FIG. 35 and the second line-of-sight vector V2 calculated in step S3605 as a vector pair of the section Di (step) S3606).

そして、更新部により、区画Diのベクトルペアをベクトルペアテーブル900に登録する(ステップS3607)。つぎに、補正値算出部609により、ベクトルペアテーブル900に登録されているベクトルペアの数cが所定の区画数N以上となったか否かを判断する(ステップS3608)。ここで、区画数N未満の場合(ステップS3608:No)、図35に示したステップS3501に戻る。   Then, the update unit registers the vector pair of the section Di in the vector pair table 900 (step S3607). Next, the correction value calculation unit 609 determines whether or not the number c of vector pairs registered in the vector pair table 900 is equal to or greater than a predetermined number of sections N (step S3608). If the number is less than N (step S3608: NO), the process returns to step S3501 shown in FIG.

一方、区画数N以上の場合(ステップS3608:Yes)、補正値算出部609により、ベクトルペアテーブル900を参照して、キャリブレーション行列Wに含まれるパラメータω1〜ω4の値を算出する(ステップS3609)。そして、補正値算出部609により、算出されたパラメータω1〜ω4の値をパラメータテーブル1000に登録して(ステップS3610)、本フローチャートによる一連の処理を終了する。 On the other hand, when the number of sections is N or more (step S3608: Yes), the correction value calculation unit 609 refers to the vector pair table 900 to calculate the values of the parameters ω 1 to ω 4 included in the calibration matrix W ( Step S3609). Then, the correction value calculation unit 609 registers the calculated values of the parameters ω 1 to ω 4 in the parameter table 1000 (step S3610), and the series of processes according to this flowchart ends.

これにより、被写体が意識的に見た視線位置をもとに、被写体に固有の補正値を算出することができる。換言すれば、被写体の視線移動中の通過点を、補正値の算出元から排除することができる。この結果、被写体の視線の誤差を補正する際の補正精度を向上させることができる。なお、ステップS3513において、仮の視線位置VPが停留点であると判断される前に、表示画像SPが切り替わった場合は、本フローチャートによる一連の処理を最初からやり直すことにしてもよい。   Accordingly, a correction value unique to the subject can be calculated based on the line-of-sight position that the subject has consciously viewed. In other words, a passing point during the movement of the line of sight of the subject can be excluded from the correction value calculation source. As a result, it is possible to improve the correction accuracy when correcting the line-of-sight error of the subject. In step S3513, when the display image SP is switched before it is determined that the temporary line-of-sight position VP is the stop point, the series of processes according to this flowchart may be performed again from the beginning.

(視線検出装置300の視線検出処理手順)
つぎに、視線検出装置300の視線検出処理手順について説明する。
(Gaze Detection Processing Procedure of Gaze Detection Device 300)
Next, the gaze detection processing procedure of the gaze detection apparatus 300 will be described.

図37は、視線検出装置の視線検出処理手順の一例を示すフローチャートである。図37のフローチャートにおいて、まず、取得部601により、表示画像SPおよび眼球画像EPを取得したか否かを判断する(ステップS3701)。表示画像SPは、眼球画像EPの撮影時にディスプレイ311に表示中のものである。   FIG. 37 is a flowchart illustrating an example of a gaze detection processing procedure of the gaze detection apparatus. In the flowchart of FIG. 37, first, the acquisition unit 601 determines whether the display image SP and the eyeball image EP have been acquired (step S3701). The display image SP is being displayed on the display 311 when the eyeball image EP is captured.

ここで、取得部601により、表示画像SPおよび眼球画像EPを取得するのを待つ(ステップS3701:No)。そして、取得部601により、表示画像SPおよび眼球画像EPを取得した場合(ステップS3701:Yes)、視線算出部602により、取得された眼球画像EPに基づいて、第1の視線ベクトルV1を算出する(ステップS3702)。   Here, the acquisition unit 601 waits for acquiring the display image SP and the eyeball image EP (step S3701: No). When the display image SP and the eyeball image EP are acquired by the acquisition unit 601 (step S3701: Yes), the first line-of-sight vector V1 is calculated by the line-of-sight calculation unit 602 based on the acquired eyeball image EP. (Step S3702).

つぎに、補正部610により、パラメータテーブル1000内のパラメータω1〜ω4の値を用いて、算出された第1の視線ベクトルV1を補正する(ステップS3703)。このあと、補正部610により、補正された補正後の第1の視線ベクトルV1’に基づいて、表示画像SP上の被写体の視線位置RPを算出する(ステップS3704)。 Next, the correction unit 610 corrects the calculated first line-of-sight vector V1 using the values of the parameters ω 1 to ω 4 in the parameter table 1000 (step S3703). Thereafter, the correcting unit 610 calculates the line-of-sight position RP of the subject on the display image SP based on the corrected first line-of-sight vector V1 ′ (step S3704).

そして、出力部611により、ステップS3701において取得された表示画像SPと、ステップS3704において算出された表示画像SP上の被写体の視線位置RPとを関連付けて示す視線検出結果Rを出力して(ステップS3705)、本フローチャートによる一連の処理を終了する。   Then, the output unit 611 outputs a line-of-sight detection result R indicating the display image SP acquired in step S3701 and the line-of-sight position RP of the subject on the display image SP calculated in step S3704 (step S3705). ), A series of processes according to this flowchart is terminated.

これにより、被写体の個人差にともなう誤差を補正した視線位置RPを精度よく検出することができる。   Thereby, it is possible to accurately detect the line-of-sight position RP in which the error due to the individual difference of the subject is corrected.

以上説明したように、実施の形態2にかかる視線検出装置300によれば、ディスプレイ311の表示画像SPを区切って分割された区画D1〜Dmのうち、仮の視線位置VPを含む区画Di内の画素p1〜pnごとの特徴量C1〜Cnを算出することができる。これにより、眼球画像EPの撮影時にディスプレイ311に表示中の表示画像SP上の仮の視線位置VPを含む区画Diの中から、被写体の注視点Gを決定することができる。   As described above, according to the line-of-sight detection apparatus 300 according to the second embodiment, among the sections D1 to Dm divided by dividing the display image SP of the display 311, the sections in the section Di including the temporary line-of-sight position VP are included. The feature amounts C1 to Cn for each of the pixels p1 to pn can be calculated. Thereby, the gazing point G of the subject can be determined from the section Di including the temporary line-of-sight position VP on the display image SP being displayed on the display 311 when the eyeball image EP is captured.

また、視線検出装置300によれば、区画Diごとに、眼球画像EPに基づく第1の視線ベクトルV1と、被写体の眼球から注視点Gに向かう第2の視線ベクトルV2とをベクトルペアとして関連付けることができる。これにより、ディスプレイ311の画面上の区画D1〜Dmのうち、複数の区画のベクトルペアを求めることができる。   Further, according to the line-of-sight detection device 300, for each section Di, the first line-of-sight vector V1 based on the eyeball image EP and the second line-of-sight vector V2 heading from the eyeball of the subject toward the gazing point G are associated as a vector pair. Can do. Thereby, the vector pair of a some division can be calculated | required among the divisions D1-Dm on the screen of the display 311. FIG.

また、視線検出装置300によれば、区画D1〜Dmのうち少なくとも2以上の区画のベクトルペアに基づいて、被写体に固有の補正値(パラメータω1〜ω4の値)を算出することができる。これにより、被写体に固有の補正値の算出元となるベクトルペアが特定の区画Diに偏ることを防ぐことができる。また、複数のベクトルペアを用いて被写体に固有の補正値を統計的に求めることができる。 Further, according to the line-of-sight detection apparatus 300, correction values (values of parameters ω 1 to ω 4 ) specific to the subject can be calculated based on vector pairs of at least two of the sections D1 to Dm. . Thereby, it is possible to prevent the vector pair that is the calculation source of the correction value unique to the subject from being biased toward the specific section Di. In addition, a correction value unique to the subject can be statistically obtained using a plurality of vector pairs.

また、視線検出装置300によれば、被写体に固有の補正値を用いて、第1の視線ベクトルV1(仮の視線位置VP)を補正(キャリブレーション)することにより、被写体の個人差にともなう誤差を補正した視線位置RPを精度よく検出することができる。   In addition, according to the line-of-sight detection device 300, by correcting (calibrating) the first line-of-sight vector V1 (provisional line-of-sight position VP) using a correction value unique to the subject, an error due to individual differences of the subject. It is possible to accurately detect the line-of-sight position RP corrected for the above.

また、視線検出装置300によれば、ベクトルペアテーブル900に登録される区画Diのベクトルペアの最大登録数(上記所定数A)を設定することにより、区画Diのベクトルペアが所定数Aより多く登録されることを防ぐことができる。これにより、区画Diごとのベクトルペアの数を平準化して、被写体に固有の補正値の算出元となるベクトルペアが特定の区画Diに偏ることを防ぐことができる。   Further, according to the line-of-sight detection device 300, by setting the maximum registered number (the predetermined number A) of vector pairs of the division Di registered in the vector pair table 900, the vector pairs of the division Di are larger than the predetermined number A. It can be prevented from being registered. As a result, the number of vector pairs for each section Di can be leveled to prevent the vector pair that is the calculation source of the correction value specific to the subject from being biased to a specific section Di.

また、視線検出装置300によれば、ベクトルペアテーブル900に未登録の区画Diのベクトルペアと登録済みの区画Diのベクトルペアとを比較して、補正値の算出元としてより適切なベクトルペアをベクトルペアテーブル900に登録することができる。   Further, according to the line-of-sight detection apparatus 300, the vector pair of the unregistered section Di and the registered pair Di of the vector pair in the vector pair table 900 are compared, and a more appropriate vector pair is calculated as a correction value calculation source. It can be registered in the vector pair table 900.

また、視線検出装置300によれば、表示画像SP上の仮の視線位置VPが停留点であると判断された場合に、区画Diのベクトルペアをベクトルペアテーブル900に登録することができる。これにより、被写体が意識的に見た視線位置をもとに、被写体に固有の補正値を算出することができる。換言すれば、被写体の視線移動中の通過点を、補正値の算出元から排除することができる。この結果、被写体の視線の誤差を補正する際の補正精度を向上させることができる。   Further, according to the line-of-sight detection device 300, when it is determined that the temporary line-of-sight position VP on the display image SP is a stop point, the vector pair of the section Di can be registered in the vector pair table 900. Accordingly, a correction value unique to the subject can be calculated based on the line-of-sight position that the subject has consciously viewed. In other words, a passing point during the movement of the line of sight of the subject can be excluded from the correction value calculation source. As a result, it is possible to improve the correction accuracy when correcting the line-of-sight error of the subject.

また、視線検出装置300によれば、被写体の仮の視線位置VPと注視点Gの座標位置との誤差を統計的に処理して、ディスプレイ311の表示画像SPを区切って分割する区画Diの大きさを決定することができる。これにより、区画Diの大きさをできるだけ小さくしつつ、区画Di内でベクトルペアを高確率に作ることができる適切な大きさで表示画像SPを分割することができ、補正値の算出元となるベクトルペアをより多く求めることができる。   In addition, according to the line-of-sight detection device 300, the error between the provisional line-of-sight position VP of the subject and the coordinate position of the gazing point G is statistically processed, and the size of the section Di that divides and divides the display image SP of the display 311. Can be determined. As a result, the display image SP can be divided into an appropriate size that can make a vector pair within the division Di with a high probability while reducing the size of the division Di as much as possible. More vector pairs can be obtained.

また、視線検出装置300によれば、区画Diの中から複数の閉領域Hkを抽出し、閉領域Hkごとの面積Skに基づいて、注視点Gを含む閉領域を決定することができる。これにより、面積Skが大きく、他の閉領域に比べて人間の視覚的な注意を引きつける強さが大きくなる閉領域Hkの中から注視点Gを決定することができる。   Further, according to the line-of-sight detection device 300, a plurality of closed regions Hk can be extracted from the section Di, and the closed region including the gazing point G can be determined based on the area Sk for each closed region Hk. As a result, the gazing point G can be determined from the closed region Hk that has a large area Sk and has a greater strength for attracting human visual attention than other closed regions.

また、視線検出装置300によれば、区画Diの中から複数の閉領域Hkを抽出し、閉領域Hkごとの極大値Cmax(k)に基づいて、注視点Gを含む閉領域を決定することができる。これにより、極大値Cmax(k)が大きく、他の閉領域に比べて人間の視覚的な注意を引きつける強さが大きくなる閉領域Hkの中から注視点Gを決定することができる。 Further, according to the line-of-sight detection device 300, a plurality of closed regions Hk are extracted from the section Di, and the closed region including the gazing point G is determined based on the local maximum value C max (k) for each closed region Hk. be able to. As a result, the gazing point G can be determined from the closed region Hk in which the maximum value C max (k) is large and the strength of attracting human visual attention is greater than in other closed regions.

これらのことから、実施の形態2にかかる視線検出装置300によれば、被写体に固有の補正値を精度よく求めて、キャリブレーションでの補正精度を向上させることができる。この結果、視線検出装置300によれば、対象者の視線検出中に、対象者に意識させることなく適切なキャリブレーションを行うことが可能となり、対象者の個人差にともなう誤差を補正した視線を検出することができる。   For these reasons, according to the line-of-sight detection apparatus 300 according to the second embodiment, it is possible to accurately obtain a correction value specific to a subject and improve the correction accuracy in calibration. As a result, according to the line-of-sight detection apparatus 300, it is possible to perform appropriate calibration without making the target person aware of the line of sight of the target person, and the line-of-sight corrected for errors due to individual differences among the target persons. Can be detected.

また、視線検出装置300を、例えば、デジタルサイネージを利用した広告システムに適用することにより、対象者が見ている広告の内容を正確に特定することができる。この結果、対象者が見ている内容に関連する詳細情報をさらに表示するなどして、より効果的な宣伝広告を行うことができる。   Further, by applying the line-of-sight detection device 300 to, for example, an advertising system using digital signage, it is possible to accurately specify the content of the advertisement that the target person is viewing. As a result, more effective advertising can be performed by further displaying detailed information related to the content viewed by the target person.

また、視線検出装置300を、例えば、eラーニングを利用した学習システムに適用することにより、対象者が読み飛ばした部分を顕著に表示するなどして、リアルタイムに対象者の学習をサポートすることができる。   In addition, by applying the gaze detection device 300 to a learning system that uses e-learning, for example, the portion skipped by the subject can be markedly displayed, thereby supporting the subject's learning in real time. it can.

また、視線検出装置300を、例えば、パーソナル・コンピュータに適用することにより、ユーザが見たウェブサイト上のバナー広告などを特定することができる。これにより、ユーザに意識させることなく、ウェブサイト上のバナー広告などの閲覧回数を調査することが可能となる。   Further, by applying the line-of-sight detection device 300 to, for example, a personal computer, it is possible to specify a banner advertisement or the like on a website viewed by the user. Thereby, it is possible to investigate the number of times of browsing such as banner advertisements on the website without making the user aware of it.

また、視線検出装置300を、例えば、飛行機のフライトシミュレータに適用することにより、熟練パイロットや訓練生の視線を正確に検出することができる。これにより、例えば、パイロット養成において、熟練パイロットの視線と訓練生の視線とを比較して、訓練生に的確なアドバイスを行うことができる。   Further, by applying the line-of-sight detection device 300 to, for example, an airplane flight simulator, it is possible to accurately detect the lines of sight of a skilled pilot or a trainee. Thereby, for example, in pilot training, it is possible to compare the line of sight of the skilled pilot and the line of sight of the trainee to give accurate advice to the trainee.

なお、本実施の形態で説明した視線算出方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本視線算出プログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、本視線算出プログラムは、インターネット等のネットワークを介して配布してもよい。   The line-of-sight calculation method described in this embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. The line-of-sight calculation program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. Further, the line-of-sight calculation program may be distributed through a network such as the Internet.

上述した実施の形態に関し、さらに以下の付記を開示する。   The following additional notes are disclosed with respect to the embodiment described above.

(付記1)被写体の眼の撮影画像に基づく、表示装置の画面に表示された表示画像上の前記被写体の視線位置を取得する取得部と、
前記表示画像を区切って分割された区画群の中から、前記取得部によって取得された前記被写体の視線位置を含む区画を検索する検索部と、
前記検索部によって検索された区画に含まれる画素の画素値に基づいて、前記区画内の領域ごとの特徴を抽出した特徴量を算出する特徴量算出部と、
前記特徴量算出部によって算出された領域ごとの特徴量に基づいて、前記区画内の複数の領域のいずれかの領域を、前記被写体が注視している注視点に決定する決定部と、
前記区画ごとに、前記取得部によって取得された前記被写体の視線位置と、前記決定部によって決定された注視点の座標位置とを関連付ける関連付け部と、
前記関連付け部によって関連付けられた前記区画ごとの関連付け結果のうち、複数の区画の関連付け結果に基づいて、前記被写体に固有の補正値を算出する補正値算出部と、
を備えることを特徴とする補正値算出装置。
(Additional remark 1) The acquisition part which acquires the eyes | visual_axis position of the said subject on the display image displayed on the screen of a display apparatus based on the picked-up image of the eyes of a subject,
A search unit for searching for a section including the line-of-sight position of the subject acquired by the acquisition unit from among a group of sections divided by dividing the display image;
A feature amount calculation unit that calculates a feature amount obtained by extracting features for each region in the section based on a pixel value of a pixel included in the section searched by the search unit;
A determination unit that determines, based on the feature amount for each region calculated by the feature amount calculation unit, any one of the plurality of regions in the section as a gazing point at which the subject is gazing;
An associating unit that associates the line-of-sight position of the subject acquired by the acquiring unit with the coordinate position of the gazing point determined by the determining unit for each of the sections;
A correction value calculation unit that calculates a correction value specific to the subject based on an association result of a plurality of sections among the association results associated with the sections associated by the association unit;
A correction value calculation device comprising:

(付記2)前記補正値算出部によって算出された前記被写体に固有の補正値に基づいて、前記被写体の視線位置を補正する補正部を備えることを特徴とする付記1に記載の補正値算出装置。 (Supplementary note 2) The correction value calculation device according to supplementary note 1, further comprising a correction unit that corrects the line-of-sight position of the subject based on a correction value unique to the subject calculated by the correction value calculation unit. .

(付記3)前記補正値算出部は、前記関連付け部によって関連付けられた前記区画ごとの関連付け結果のうち、所定の区画数以上の区画の関連付け結果に基づいて、前記被写体に固有の補正値を算出することを特徴とする付記1または2に記載の補正値算出装置。 (Additional remark 3) The said correction value calculation part calculates the correction value peculiar to the said subject based on the correlation result of the division more than the predetermined | prescribed number of divisions among the correlation results for every said block linked | related by the said correlation part. The correction value calculation apparatus according to Supplementary Note 1 or 2, wherein:

(付記4)前記関連付け部によって関連付けられた前記区画ごとの関連付け結果を記憶部に登録する登録部を備え、
前記関連付け部は、前記区画ごとに、前記登録部によって登録された当該区画の関連付け結果が所定数未満の場合、前記取得部によって取得された前記被写体の視線位置と、前記決定部によって決定された注視点の座標位置とを関連付けることを特徴とする付記1〜3のいずれか一つに記載の補正値算出装置。
(Supplementary Note 4) A registration unit that registers an association result for each section associated by the association unit in a storage unit,
The association unit is determined by the determination unit and the line-of-sight position of the subject acquired by the acquisition unit when the association result of the division registered by the registration unit is less than a predetermined number for each of the sections. The correction value calculation apparatus according to any one of appendices 1 to 3, wherein the coordinate position of the gazing point is associated.

(付記5)前記関連付け部によって関連付けられた前記区画の関連付け結果に基づいて、前記記憶部に登録されている当該区画の関連付け結果を更新する更新部を備えることを特徴とする付記4に記載の補正値算出装置。 (Additional remark 5) The update part which updates the association result of the said division registered into the said memory | storage part based on the correlation result of the said division linked | related by the said correlation part is provided, The additional note 4 characterized by the above-mentioned. Correction value calculation device.

(付記6)前記取得部によって取得された時系列の前記被写体の第1の視線位置および前記被写体の第2の視線位置に基づいて、前記被写体の第1の視線位置が停留点か否かを判断する判断部を備え、
前記関連付け部は、前記判断部によって前記被写体の第1の視線位置が停留点と判断された場合、前記被写体の第1の視線位置と、当該被写体の第1の視線位置を含む区画内の注視点の座標位置とを関連付けることを特徴とする付記1〜5のいずれか一つに記載の補正値算出装置。
(Appendix 6) Whether or not the first line-of-sight position of the subject is a stop point is determined based on the first line-of-sight position of the subject and the second line-of-sight position of the subject acquired by the acquisition unit. A judgment unit for judging,
When the determination unit determines that the first line-of-sight position of the subject is a stop point, the associating unit includes a note in a section including the first line-of-sight position of the subject and the first line-of-sight position of the subject. 6. The correction value calculation apparatus according to any one of Supplementary notes 1 to 5, wherein the correction value is associated with a coordinate position of a viewpoint.

(付記7)前記取得部によって取得された前記被写体の視線位置と、前記決定部によって決定された注視点の座標位置との誤差を算出する誤差算出部と、
前記誤差算出部によって算出された算出結果に基づいて、前記表示画像を区切って分割する区画の大きさを決定する区画決定部と、
前記区画決定部によって決定された区画の大きさにしたがって、前記表示画像を区切って区画群に分割する分割部と、を備え、
前記検索部は、前記分割部によって分割された区画群の中から、前記被写体の視線位置を含む区画を検索することを特徴とする付記1〜6のいずれか一つに記載の補正値算出装置。
(Supplementary Note 7) An error calculation unit that calculates an error between the line-of-sight position of the subject acquired by the acquisition unit and the coordinate position of the gazing point determined by the determination unit;
Based on the calculation result calculated by the error calculation unit, a partition determination unit that determines the size of a partition to divide and divide the display image;
A division unit that divides the display image into division groups according to the division size determined by the division determination unit;
The correction value calculation apparatus according to any one of appendices 1 to 6, wherein the search unit searches for a block including the line-of-sight position of the subject from the block group divided by the dividing unit. .

(付記8)前記検索部によって検索された区画の中から複数の閉領域を抽出する抽出部を備え、
前記決定部は、前記抽出部によって抽出された閉領域ごとの面積に基づいて、前記複数の閉領域のいずれかの閉領域を、前記被写体が注視している注視点に決定することを特徴とする付記1〜7のいずれか一つに記載の補正値算出装置。
(Supplementary Note 8) An extraction unit that extracts a plurality of closed regions from the sections searched by the search unit,
The determining unit determines any one of the plurality of closed regions as a gazing point at which the subject is gazing based on the area of each closed region extracted by the extracting unit. The correction value calculation apparatus according to any one of Supplementary notes 1 to 7.

(付記9)前記決定部は、前記各閉領域に含まれる領域ごとの特徴量に基づいて、前記複数の閉領域のいずれかの閉領域を、前記被写体が注視している注視点に決定することを特徴とする付記8に記載の補正値算出装置。 (Supplementary Note 9) The determination unit determines any one of the plurality of closed regions as a gazing point at which the subject is gazing based on a feature amount of each region included in each closed region. The correction value calculation apparatus according to Supplementary Note 8, wherein

(付記10)被写体の眼の撮影画像に基づく、表示装置の画面に表示された表示画像上の前記被写体の視線位置を取得する取得工程と、
前記表示画像を区切って分割された区画群の中から、前記取得工程によって取得された前記被写体の視線位置を含む区画を検索する検索工程と、
前記検索工程によって検索された区画に含まれる画素の画素値に基づいて、前記区画内の領域ごとの特徴を抽出した特徴量を算出する特徴量算出工程と、
前記特徴量算出工程によって算出された領域ごとの特徴量に基づいて、前記区画内の複数の領域のいずれかの領域を、前記被写体が注視している注視点に決定する決定工程と、
前記取得工程によって取得された前記被写体の視線位置と、前記決定工程によって決定された前記区画内の注視点の座標位置とを関連付ける関連付け工程と、
前記取得工程、前記検索工程、前記特徴量算出工程、前記決定工程および前記関連付け工程が繰り返し実行された結果、前記区画ごとの関連付け結果のうち複数の区画の関連付け結果に基づいて、前記被写体に固有の補正値を算出する補正値算出工程と、
をコンピュータが実行することを特徴とする補正値算出方法。
(Additional remark 10) The acquisition process which acquires the gaze position of the said subject on the display image displayed on the screen of a display apparatus based on the picked-up image of the eye of a subject,
A search step for searching for a section including the line-of-sight position of the subject acquired by the acquisition step from among the group of sections divided by dividing the display image;
A feature amount calculating step of calculating a feature amount by extracting a feature for each region in the section based on a pixel value of a pixel included in the section searched by the search step;
A determination step of determining any one of the plurality of regions in the section as a gazing point at which the subject is gazing based on the feature amount for each region calculated by the feature amount calculation step;
An associating step of associating the line-of-sight position of the subject acquired by the acquiring step with the coordinate position of the gazing point in the section determined by the determining step;
As a result of repeatedly executing the acquisition step, the search step, the feature amount calculation step, the determination step, and the association step, it is specific to the subject based on an association result of a plurality of sections among the association results for each section. A correction value calculating step for calculating a correction value of
A correction value calculation method characterized in that the computer executes the above.

(付記11)被写体の眼の撮影画像に基づく、表示装置の画面に表示された表示画像上の前記被写体の視線位置を取得する取得工程と、
前記表示画像を区切って分割された区画群の中から、前記取得工程によって取得された前記被写体の視線位置を含む区画を検索する検索工程と、
前記検索工程によって検索された区画に含まれる画素の画素値に基づいて、前記区画内の領域ごとの特徴を抽出した特徴量を算出する特徴量算出工程と、
前記特徴量算出工程によって算出された領域ごとの特徴量に基づいて、前記区画内の複数の領域のいずれかの領域を、前記被写体が注視している注視点に決定する決定工程と、
前記取得工程によって取得された前記被写体の視線位置と、前記決定工程によって決定された注視点の座標位置とを関連付ける関連付け工程と、
前記取得工程、前記検索工程、前記特徴量算出工程、前記決定工程および前記関連付け工程が繰り返し実行された結果、前記区画ごとの関連付け結果のうち複数の区画の関連付け結果に基づいて、前記被写体に固有の補正値を算出する補正値算出工程と、
をコンピュータに実行させることを特徴とする補正値算出プログラム。
(Additional remark 11) The acquisition process which acquires the gaze position of the said subject on the display image displayed on the screen of a display apparatus based on the picked-up image of the eye of a subject,
A search step for searching for a section including the line-of-sight position of the subject acquired by the acquisition step from among the group of sections divided by dividing the display image;
A feature amount calculating step of calculating a feature amount by extracting a feature for each region in the section based on a pixel value of a pixel included in the section searched by the search step;
A determination step of determining any one of the plurality of regions in the section as a gazing point at which the subject is gazing based on the feature amount for each region calculated by the feature amount calculation step;
An associating step of associating the line-of-sight position of the subject acquired by the acquiring step with the coordinate position of the gazing point determined by the determining step;
As a result of repeatedly executing the acquisition step, the search step, the feature amount calculation step, the determination step, and the association step, it is specific to the subject based on an association result of a plurality of sections among the association results for each section. A correction value calculating step for calculating a correction value of
A correction value calculation program for causing a computer to execute.

100 システム
101 補正値算出装置
102,300 視線検出装置
103 表示装置
104 撮影装置
601 取得部
602 視線算出部
603 分割部
604 検索部
605 特徴量算出部
606 注視点決定部
607 関連付け部
608 登録/更新部
609 補正値算出部
610 補正部
611 出力部
612 判断部
613 誤差算出部
614 区画決定部
800 特徴量テーブル
900 ベクトルペアテーブル
1000 パラメータテーブル
DESCRIPTION OF SYMBOLS 100 System 101 Correction value calculation apparatus 102,300 Gaze detection apparatus 103 Display apparatus 104 Imaging apparatus 601 Acquisition part 602 Gaze calculation part 603 Division part 604 Search part 605 Feature-value calculation part 606 Gaze point determination part 607 Association part 608 Registration / update part 609 correction value calculation unit 610 correction unit 611 output unit 612 determination unit 613 error calculation unit 614 partition determination unit 800 feature quantity table 900 vector pair table 1000 parameter table

Claims (7)

被写体の眼の撮影画像に基づく、表示装置の画面に表示された表示画像上の前記被写体の視線位置を取得する取得部と、
前記表示画像を区切って分割された区画群の中から、前記取得部によって取得された前記被写体の視線位置を含む区画を検索する検索部と、
前記検索部によって検索された区画に含まれる画素の画素値に基づいて、前記区画内の領域ごとの特徴を抽出した特徴量を算出する特徴量算出部と、
前記特徴量算出部によって算出された領域ごとの特徴量に基づいて、前記区画内の複数の領域のいずれかの領域を、前記被写体が注視している注視点に決定する決定部と、
前記区画ごとに、前記取得部によって取得された前記被写体の視線位置と、前記決定部によって決定された注視点の座標位置とを関連付ける関連付け部と、
前記関連付け部によって関連付けられた前記区画ごとの関連付け結果のうち、複数の区画の関連付け結果に基づいて、前記被写体の視線位置の補正に用いる前記被写体に固有の補正値を算出する補正値算出部と、
を備えることを特徴とする補正値算出装置。
An acquisition unit that acquires a line-of-sight position of the subject on a display image displayed on a screen of a display device based on a captured image of the eye of the subject;
A search unit for searching for a section including the line-of-sight position of the subject acquired by the acquisition unit from among a group of sections divided by dividing the display image;
A feature amount calculation unit that calculates a feature amount obtained by extracting features for each region in the section based on a pixel value of a pixel included in the section searched by the search unit;
A determination unit that determines, based on the feature amount for each region calculated by the feature amount calculation unit, any one of the plurality of regions in the section as a gazing point at which the subject is gazing;
An associating unit that associates the line-of-sight position of the subject acquired by the acquiring unit with the coordinate position of the gazing point determined by the determining unit for each of the sections;
A correction value calculation unit that calculates a correction value specific to the subject used for correcting the line-of-sight position of the subject based on the result of association of a plurality of sections among the association results associated with the sections associated by the association unit; ,
A correction value calculation device comprising:
前記補正値算出部によって算出された前記被写体に固有の補正値に基づいて、前記被写体の視線位置を補正する補正部を備えることを特徴とする請求項1に記載の補正値算出装置。   The correction value calculation apparatus according to claim 1, further comprising a correction unit that corrects the line-of-sight position of the subject based on a correction value unique to the subject calculated by the correction value calculation unit. 前記補正値算出部は、
前記関連付け部によって関連付けられた前記区画ごとの関連付け結果のうち、所定の区画数以上の区画の関連付け結果に基づいて、前記被写体に固有の補正値を算出することを特徴とする請求項1または2に記載の補正値算出装置。
The correction value calculation unit
3. The correction value unique to the subject is calculated based on an association result of sections equal to or greater than a predetermined number of sections among the association results associated with the sections associated by the association unit. The correction value calculation apparatus described in 1.
前記関連付け部によって関連付けられた前記区画ごとの関連付け結果を記憶部に登録する登録部を備え、
前記関連付け部は、
前記区画ごとに、前記登録部によって登録された当該区画の関連付け結果が所定数未満の場合、前記取得部によって取得された前記被写体の視線位置と、前記決定部によって決定された注視点の座標位置とを関連付けることを特徴とする請求項1〜3のいずれか一つに記載の補正値算出装置。
A registration unit that registers an association result for each of the sections associated by the association unit in a storage unit;
The association unit includes
For each section, when the association result of the section registered by the registration unit is less than a predetermined number, the gaze position of the subject acquired by the acquisition unit and the coordinate position of the gazing point determined by the determination unit The correction value calculation device according to claim 1, wherein the correction value calculation device is associated with each other.
前記関連付け部によって関連付けられた前記区画の関連付け結果に基づいて、前記記憶部に登録されている当該区画の関連付け結果を更新する更新部を備えることを特徴とする請求項4に記載の補正値算出装置。   5. The correction value calculation according to claim 4, further comprising an update unit that updates an association result of the section registered in the storage unit based on the association result of the section associated by the association unit. apparatus. 被写体の眼の撮影画像に基づく、表示装置の画面に表示された表示画像上の前記被写体の視線位置を取得する取得工程と、
前記表示画像を区切って分割された区画群の中から、前記取得工程によって取得された前記被写体の視線位置を含む区画を検索する検索工程と、
前記検索工程によって検索された区画に含まれる画素の画素値に基づいて、前記区画内の領域ごとの特徴を抽出した特徴量を算出する特徴量算出工程と、
前記特徴量算出工程によって算出された領域ごとの特徴量に基づいて、前記区画内の複数の領域のいずれかの領域を、前記被写体が注視している注視点に決定する決定工程と、
前記取得工程によって取得された前記被写体の視線位置と、前記決定工程によって決定された前記区画内の注視点の座標位置とを関連付ける関連付け工程と、
前記取得工程、前記検索工程、前記特徴量算出工程、前記決定工程および前記関連付け工程が繰り返し実行された結果、前記区画ごとの関連付け結果のうち複数の区画の関連付け結果に基づいて、前記被写体の視線位置の補正に用いる前記被写体に固有の補正値を算出する補正値算出工程と、
をコンピュータが実行することを特徴とする補正値算出方法。
An acquisition step of acquiring a line-of-sight position of the subject on a display image displayed on the screen of the display device based on a captured image of the eye of the subject;
A search step for searching for a section including the line-of-sight position of the subject acquired by the acquisition step from among the group of sections divided by dividing the display image;
A feature amount calculating step of calculating a feature amount by extracting a feature for each region in the section based on a pixel value of a pixel included in the section searched by the search step;
A determination step of determining any one of the plurality of regions in the section as a gazing point at which the subject is gazing based on the feature amount for each region calculated by the feature amount calculation step;
An associating step of associating the line-of-sight position of the subject acquired by the acquiring step with the coordinate position of the gazing point in the section determined by the determining step;
As a result of the execution of the acquisition step, the search step, the feature amount calculation step, the determination step, and the association step repeatedly, the line of sight of the subject based on the association result of a plurality of sections among the association results for each section A correction value calculating step for calculating a correction value specific to the subject used for position correction ;
A correction value calculation method characterized in that the computer executes the above.
被写体の眼の撮影画像に基づく、表示装置の画面に表示された表示画像上の前記被写体の視線位置を取得する取得工程と、
前記表示画像を区切って分割された区画群の中から、前記取得工程によって取得された前記被写体の視線位置を含む区画を検索する検索工程と、
前記検索工程によって検索された区画に含まれる画素の画素値に基づいて、前記区画内の領域ごとの特徴を抽出した特徴量を算出する特徴量算出工程と、
前記特徴量算出工程によって算出された領域ごとの特徴量に基づいて、前記区画内の複数の領域のいずれかの領域を、前記被写体が注視している注視点に決定する決定工程と、
前記取得工程によって取得された前記被写体の視線位置と、前記決定工程によって決定された注視点の座標位置とを関連付ける関連付け工程と、
前記取得工程、前記検索工程、前記特徴量算出工程、前記決定工程および前記関連付け工程が繰り返し実行された結果、前記区画ごとの関連付け結果のうち複数の区画の関連付け結果に基づいて、前記被写体の視線位置の補正に用いる前記被写体に固有の補正値を算出する補正値算出工程と、
をコンピュータに実行させることを特徴とする補正値算出プログラム。
An acquisition step of acquiring a line-of-sight position of the subject on a display image displayed on the screen of the display device based on a captured image of the eye of the subject;
A search step for searching for a section including the line-of-sight position of the subject acquired by the acquisition step from among the group of sections divided by dividing the display image;
A feature amount calculating step of calculating a feature amount by extracting a feature for each region in the section based on a pixel value of a pixel included in the section searched by the search step;
A determination step of determining any one of the plurality of regions in the section as a gazing point at which the subject is gazing based on the feature amount for each region calculated by the feature amount calculation step;
An associating step of associating the line-of-sight position of the subject acquired by the acquiring step with the coordinate position of the gazing point determined by the determining step;
As a result of the execution of the acquisition step, the search step, the feature amount calculation step, the determination step, and the association step repeatedly, the line of sight of the subject based on the association result of a plurality of sections among the association results for each section A correction value calculating step for calculating a correction value specific to the subject used for position correction ;
A correction value calculation program for causing a computer to execute.
JP2010226904A 2010-10-06 2010-10-06 Correction value calculation apparatus, correction value calculation method, and correction value calculation program Expired - Fee Related JP5716345B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010226904A JP5716345B2 (en) 2010-10-06 2010-10-06 Correction value calculation apparatus, correction value calculation method, and correction value calculation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010226904A JP5716345B2 (en) 2010-10-06 2010-10-06 Correction value calculation apparatus, correction value calculation method, and correction value calculation program

Publications (2)

Publication Number Publication Date
JP2012080910A JP2012080910A (en) 2012-04-26
JP5716345B2 true JP5716345B2 (en) 2015-05-13

Family

ID=46240442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010226904A Expired - Fee Related JP5716345B2 (en) 2010-10-06 2010-10-06 Correction value calculation apparatus, correction value calculation method, and correction value calculation program

Country Status (1)

Country Link
JP (1) JP5716345B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5971061B2 (en) * 2012-07-24 2016-08-17 株式会社Jvcケンウッド Gaze point detection device, gaze point detection method, diagnosis support device, operation method and program for diagnosis support device
JP5949404B2 (en) * 2012-09-28 2016-07-06 株式会社Jvcケンウッド Diagnosis support apparatus and diagnosis support method
WO2014051010A1 (en) 2012-09-28 2014-04-03 株式会社Jvcケンウッド Diagnosis assistance device and diagnosis assistance method
KR102105330B1 (en) * 2013-08-21 2020-04-28 주식회사 케이티 Method and apparatus of determining user’s attention
JP2015046111A (en) * 2013-08-29 2015-03-12 株式会社Jvcケンウッド Viewpoint detection device and viewpoint detection method
JP6237504B2 (en) * 2014-07-08 2017-11-29 株式会社デンソー Line-of-sight input device
JP2017097759A (en) * 2015-11-27 2017-06-01 株式会社デンソー Gaze direction detection device and gaze direction detection system
WO2017179280A1 (en) * 2016-04-13 2017-10-19 パナソニックIpマネジメント株式会社 Eye tracking device and eye tracking method
JP7168953B2 (en) * 2018-06-12 2022-11-10 国立大学法人神戸大学 Gaze measurement device for automatic calibration, Gaze measurement method and Gaze measurement program
WO2020095556A1 (en) * 2018-11-09 2020-05-14 ソニー株式会社 Virtual image display device and virtual image display method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002301030A (en) * 2001-04-09 2002-10-15 Canon Inc Equipment with gaze detection function
JP4537901B2 (en) * 2005-07-14 2010-09-08 日本放送協会 Gaze measurement device, gaze measurement program, and gaze calibration data generation program
JP4649319B2 (en) * 2005-11-21 2011-03-09 日本電信電話株式会社 Gaze detection device, gaze detection method, and gaze detection program
JP4915413B2 (en) * 2008-12-03 2012-04-11 オムロン株式会社 Detection apparatus and method, and program
JP5560858B2 (en) * 2010-04-02 2014-07-30 富士通株式会社 Correction value calculation apparatus, correction value calculation method, and correction value calculation program

Also Published As

Publication number Publication date
JP2012080910A (en) 2012-04-26

Similar Documents

Publication Publication Date Title
JP5716345B2 (en) Correction value calculation apparatus, correction value calculation method, and correction value calculation program
JP5560858B2 (en) Correction value calculation apparatus, correction value calculation method, and correction value calculation program
US20250131583A1 (en) Line-of-sight direction tracking method and apparatus
US10957045B2 (en) Segmenting ultrasound images
US20180104106A1 (en) A system and method for displaying a video image
Fuhl et al. Non-intrusive practitioner pupil detection for unmodified microscope oculars
US9955862B2 (en) System, method, and non-transitory computer-readable storage media related to correction of vision defects using a visual display
US8103061B2 (en) Method and apparatus for identifying facial regions
KR20200063173A (en) Digital therapeutic corrective glasses
CN109697719A (en) A kind of image quality measure method, apparatus and computer readable storage medium
US20210158513A1 (en) Information processing device, information processing method, and computer program
CN119847330B (en) A smart control method and system for AR devices
CN115039130A (en) Method, device and program for estimating apparent distance
CN109634407B (en) A control method based on synchronous acquisition and fusion of multi-mode human-machine sensing information
Karaaslan et al. A new method based on deep learning and image processing for detection of strabismus with the Hirschberg test
WO2019082202A1 (en) A fundus image quality assessment system
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
CN110472546B (en) A non-contact eye movement feature extraction device and method for infants and young children
CN117137427B (en) Vision detection method and device based on VR and intelligent glasses
Raabe et al. Saccade amplitude statistics are explained by cortical magnification
JP6481432B2 (en) Fundus image processing device
CN117727087A (en) Viewpoint calibration method, device and cognitive inference system based on virtual reality
JP4530173B2 (en) Method and system for detecting the position of a facial part
KR20180109275A (en) Calibration device for gaze direction tracking results and method thereof
Milton et al. Demonstrating correction of low levels of astigmatism with realistic scenes

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150302

R150 Certificate of patent or registration of utility model

Ref document number: 5716345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees