[go: up one dir, main page]

JP7135335B2 - VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM - Google Patents

VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM Download PDF

Info

Publication number
JP7135335B2
JP7135335B2 JP2018030569A JP2018030569A JP7135335B2 JP 7135335 B2 JP7135335 B2 JP 7135335B2 JP 2018030569 A JP2018030569 A JP 2018030569A JP 2018030569 A JP2018030569 A JP 2018030569A JP 7135335 B2 JP7135335 B2 JP 7135335B2
Authority
JP
Japan
Prior art keywords
user
viewing
content
facial expression
viewing history
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018030569A
Other languages
Japanese (ja)
Other versions
JP2019146098A (en
Inventor
典孝 志村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2018030569A priority Critical patent/JP7135335B2/en
Publication of JP2019146098A publication Critical patent/JP2019146098A/en
Application granted granted Critical
Publication of JP7135335B2 publication Critical patent/JP7135335B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、視聴履歴記録システム、視聴履歴記録装置、記録方法及びプログラムに関する。 The present invention relates to a viewing history recording system, a viewing history recording device, a recording method, and a program.

視聴率の調査において、視聴者の性別や年齢に応じて、M1~M3、F1~F3、C、Tといったカテゴリーに視聴者を層別し、番組作りや、マーケティングに役立てる手法が採用されている。例えば、広告業界では、20~34歳の男性をM1、35~49歳の男性をM2、50以上の男性をM3と区別している。女性についても同様に、F1~F3の区分が用いられている。また、4歳から12歳の児童(Child)やティーンエイジャーには性別関係なく、これらの頭文字をとって、C、Tと言う表記が用いられている。 In audience rating surveys, viewers are stratified into categories such as M1-M3, F1-F3, C, and T according to the gender and age of the viewers, and a method that is useful for program creation and marketing is adopted. . For example, the advertising industry distinguishes between men aged 20-34 as M1, men aged 35-49 as M2, and men over 50 as M3. Similarly, categories F1 to F3 are used for females. For children aged 4 to 12 and teenagers, C and T are used as the initials of these characters regardless of gender.

特許文献1に、不特定多数の視聴者の属性を収集して視聴効果を測定することができるという情報処理システムが開示されている。同文献によると、無線通信装置は、ユーザと関連付けられたユーザデータを記憶している記憶部と、前記記憶部に記憶している前記ユーザデータの一部又は全部を含む視聴者データを送信するデータ送信部と、を備える。そして、情報処理装置側で、前記視聴者データに基づいて視聴装置により再生されたコンテンツの視聴効果の解析を行うと記載されている。 Patent Literature 1 discloses an information processing system capable of collecting attributes of an unspecified number of viewers and measuring viewing effects. According to this document, a wireless communication device transmits viewer data including a storage unit storing user data associated with a user and part or all of the user data stored in the storage unit. and a data transmission unit. Then, it is described that the viewing effect of the content reproduced by the viewing device is analyzed on the information processing device side based on the viewer data.

特許文献2には、複数の視聴者に応じて適切と思われるユーザー特定処理をすることができるテレビジョン受信装置が開示されている。具体的には、リモートコントローラに対する操作の特徴から視聴者を特定することや過去の番組の視聴傾向から視聴者を特定することが開示されている。 Patent Literature 2 discloses a television receiver capable of performing user-specific processing considered appropriate for a plurality of viewers. Specifically, it is disclosed that the viewer is specified from the characteristics of the operation of the remote controller, and that the viewer is specified from the viewing tendency of past programs.

特許文献3には、事前のキャリブレーションを行うことなく、ユーザのコンテンツに対する集中度の度合いを集中度として算出できるコンテンツ表示装置が開示されている。 Patent Literature 3 discloses a content display device capable of calculating the degree of concentration of a user on content as a degree of concentration without performing prior calibration.

特開2010-41194号公報JP 2010-41194 A 特開2008-277995号公報JP 2008-277995 A 特開2016-111612号公報JP 2016-111612 A

以下の分析は、本発明によって与えられたものである。上記特許文献1、2のように、ユーザを特定して、視聴率の分析を行う構成が知られているが、視聴者が何を目的にコンテンツを視聴しているのか、といった踏み込んだ分析ができないという問題点がある。例えば、視聴者が、テレビジョン装置の画面上に映し出された何に注目しているか、特許文献1、2のいずれをもってしても判別することは困難である。 The following analysis is given by the present invention. As in Patent Literatures 1 and 2, there is known a configuration in which a user is specified and an audience rating is analyzed. I have a problem that I can't. For example, it is difficult to determine what the viewer is paying attention to on the screen of the television device with either of Patent Documents 1 and 2.

本発明は、コンテンツ中のユーザが注目している対象に関する情報を収集し、マーケティングやコンテンツ作りに役立てることのできる視聴履歴記録システム、視聴履歴記録装置、記録方法及びプログラムを提供することを目的とする。 It is an object of the present invention to provide a viewing history recording system, a viewing history recording device, a recording method, and a program that can collect information about an object that a user is paying attention to in content and use it for marketing and content creation. do.

第1の視点によれば、所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影する撮影手段と、前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する特定手段と、前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する注視領域特定手段と、前記ユーザの特定結果を用いた前記コンテンツの属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する作成手段と、を備える視聴履歴記録システムが提供される。 According to the first aspect, a photographing means for photographing a face image of a user viewing content being reproduced on a predetermined reproduction device, the face image of the user photographed by the photographing means, and a pre-registered authentication specifying means for specifying the user by using data for identifying the user; gaze area specifying means for specifying an area that the user is gazing at in the display area of the content from the face image of the user; and specifying the user. a creating means for creating viewing area transition information representing a transition of an area watched by the user watching the content in association with the attribute-based viewing history of the content using the result. A system of record is provided.

第2の視点によれば、視聴履歴記録システムにおいて、再生装置とともに配置される視聴履歴記録装置が提供される。この視聴履歴記録装置は、例えば、セットトップボックスと呼ばれる装置や、コンテンツ再生装置やテレビジョン装置の周辺機器といった形態を採ることができる。 According to a second aspect, there is provided a viewing history recording device arranged together with a reproducing device in a viewing history recording system. This viewing history recording device can take the form of, for example, a device called a set-top box, or a peripheral device for a content reproducing device or a television device.

第3の視点によれば、プロセッサと、メモリと、所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影する撮影手段と、を備えた視聴履歴記録装置が、前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定し、前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定し、前記ユーザの特定結果を用いた前記コンテンツの属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成すること、を特徴とするコンテンツ視聴履歴の記録方法が提供される。本方法は、上記した視聴履歴記録システムや視聴履歴記録装置などに代表される特定の機械に結びつけられている。 According to a third aspect, a viewing history recording device comprising a processor, a memory, and a photographing means for photographing a facial image of a user who is viewing content being reproduced by a predetermined reproduction device is provided with the photographing means. The user is identified by using the face image of the user photographed in and the authentication data registered in advance, and the area that the user is paying attention to in the display area of the content is identified from the face image of the user. creating viewing area transition information representing a transition of an area watched by the user viewing the content in association with the attribute-based viewing history of the content using the identification result of the user; There is provided a content viewing history recording method characterized by: This method is tied to a specific machine represented by the viewing history recording system and viewing history recording device described above.

第4の視点によれば、所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影する撮影手段を備えた視聴履歴記録装置に搭載され、プロセッサと、メモリとを備えるコンピュータに、前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する処理と、前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する処理と、前記ユーザの特定結果を用いた前記コンテンツの属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する処理と、を実行させるプログラムが提供される。なお、このプログラムは、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することができる。即ち、本発明は、コンピュータプログラム製品として具現することも可能である。 According to a fourth aspect, a viewing history recording device equipped with a photographing means for photographing a face image of a user viewing content being reproduced on a predetermined reproducing device, and a computer provided with a processor and a memory. a process of identifying the user by using the face image of the user photographed by the photographing means and authentication data registered in advance; A transition of the region watched by the user watching the content is represented by associating a process of identifying the region watched by the user with the viewing history by attribute of the content using the identification result of the user. A program for executing a process of creating viewing area transition information is provided. This program can be recorded in a computer-readable (non-transitory) storage medium. That is, the present invention can also be embodied as a computer program product.

本発明によれば、コンテンツ中のユーザが注目している対象に関する情報を収集し、マーケティングやコンテンツ作りに役立てることが可能となる。 According to the present invention, it is possible to collect information about an object that a user is paying attention to in content, and use the information for marketing and content creation.

本発明の一実施形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of this invention. 本発明の第1の実施形態の視聴履歴記録装置の構成を示す図である。1 is a diagram showing the configuration of a viewing history recording device according to a first embodiment of the present invention; FIG. 本発明の第1の実施形態の視聴履歴記録装置の動作(視聴履歴記録)を説明するための図である。FIG. 4 is a diagram for explaining the operation (viewing history recording) of the viewing history recording device according to the first embodiment of the present invention; 本発明の第1の実施形態の視聴履歴記録装置の動作(注視領域特定)を説明するための図である。FIG. 4 is a diagram for explaining the operation (gazing area specification) of the viewing history recording device according to the first embodiment of the present invention; 本発明の第1の実施形態の視聴履歴記録装置によって記録されるユーザの注視領域の遷移データの一例を説明するための図である。FIG. 4 is a diagram for explaining an example of transition data of a user's attention area recorded by the viewing history recording device according to the first embodiment of the present invention; 本発明の第1の実施形態の視聴履歴記録装置による効果を説明するための図である。FIG. 4 is a diagram for explaining the effects of the viewing history recording device according to the first embodiment of the present invention; 本発明の第2の実施形態の視聴履歴記録装置の構成を示す図である。FIG. 10 is a diagram showing the configuration of a viewing history recording device according to a second embodiment of the present invention; 本発明の第3の実施形態の視聴履歴記録装置の構成を示す図である。FIG. 11 is a diagram showing the configuration of a viewing history recording device according to a third embodiment of the present invention; 本発明の第3の実施形態の視聴履歴記録装置の動作(表情判定)を説明するための図である。FIG. 11 is a diagram for explaining the operation (facial expression determination) of the viewing history recording device according to the third embodiment of the present invention; 本発明の第3の実施形態の視聴履歴記録装置によって記録されるユーザの表情の遷移データの一例を説明するための図である。FIG. 11 is a diagram for explaining an example of transition data of a user's facial expression recorded by the viewing history recording device according to the third embodiment of the present invention; 本発明の第3の実施形態の視聴履歴記録装置の変形構成を示す図である。FIG. 13 is a diagram showing a modified configuration of the viewing history recording device according to the third embodiment of the present invention; 本発明の第4の実施形態の視聴履歴記録装置の構成を示す図である。FIG. 11 is a diagram showing the configuration of a viewing history recording device according to a fourth embodiment of the present invention; 本発明の第4の実施形態の視聴履歴記録装置の動作(姿勢判定)を説明するための図である。FIG. 12 is a diagram for explaining the operation (orientation determination) of the viewing history recording device according to the fourth embodiment of the present invention; 本発明の第4の実施形態の視聴履歴記録装置によって記録されるユーザの姿勢の遷移データの一例を説明するための図である。FIG. 12 is a diagram for explaining an example of user posture transition data recorded by the viewing history recording device according to the fourth embodiment of the present invention; 本発明の第4の実施形態の視聴履歴記録装置の変形構成を示す図である。It is a figure which shows the modified structure of the viewing-and-listening history recording device of the 4th Embodiment of this invention. 本発明の視聴履歴記録装置を構成するコンピュータの構成を示す図である。1 is a diagram showing the configuration of a computer that constitutes the viewing history recording apparatus of the present invention; FIG.

はじめに本発明の一実施形態の概要について図面を参照して説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。また、以下の説明において、「A及び/又はB」は、A及びBの少なくともいずれかという意味で用いる。 First, an outline of an embodiment of the present invention will be described with reference to the drawings. It should be noted that the drawing reference numerals added to this overview are added to each element for convenience as an example to aid understanding, and are not intended to limit the present invention to the illustrated embodiments. Also, connection lines between blocks in drawings and the like referred to in the following description include both bidirectional and unidirectional connections. The unidirectional arrows schematically show the flow of main signals (data) and do not exclude bidirectionality. Moreover, in the following description, "A and/or B" is used to mean at least one of A and B.

本発明は、その一実施形態において、図1に示すように、撮影手段11と、特定手段12と、作成手段13aと、注視領域特定手段14と、を備えた視聴履歴記録システム10にて実現できる。なお、視聴履歴記録システム10の上記した各手段は、セットトップボックス等の単一の装置に配置されていてもよいし、一部の手段のコンテンツ再生装置やネットワーク側に配置されていてもよい。即ち、本発明の視聴履歴記録システム10は、複数の装置を組み合わせて構成することもできる。 In one embodiment of the present invention, as shown in FIG. 1, a viewing history recording system 10 comprising photographing means 11, specifying means 12, creating means 13a, and gaze area specifying means 14 is realized. can. It should be noted that the above-described means of the viewing history recording system 10 may be arranged in a single device such as a set-top box, or part of the means may be arranged on the content reproduction device or the network side. . That is, the viewing history recording system 10 of the present invention can also be configured by combining a plurality of devices.

より具体的には、撮影手段11は、所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影するカメラなどにより構成される。 More specifically, the photographing means 11 is composed of a camera or the like for photographing a facial image of a user viewing content being reproduced by a predetermined reproducing apparatus.

特定手段12は、上記撮影手段11で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する。例えば、特定手段12は、ユーザの顔画像から特徴量を計算する。そして、認証用データの中から、前記計算した特徴量に最も近い特徴(即ち、顔が似ている)を持つユーザを特定する。 The specifying means 12 specifies the user by using the face image of the user photographed by the photographing means 11 and authentication data registered in advance. For example, the identification unit 12 calculates feature amounts from the user's face image. Then, the user having the feature closest to the calculated feature amount (that is, the face is similar) is specified from the authentication data.

そして、注視領域特定手段14は、前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域(以下、「注視領域」とも言う。)を特定する。注視領域特定手段14は、前記ユーザの顔画像からユーザの視線の向きを推定する。この視線の向きの推定方法としては、種々の方法を採用できるが、例えば、撮影したユーザの顔画像における各器官の位置(例えば、目)と、認証用データから事前に計算した顔の各器官の位置とのずれ量などから推定することができる(特許文献3参照)。もちろん、ユーザの着用しているメガネやその他ウェアラブルセンサなどから、ユーザの顔の向きが推定できる場合には、これらの機器から取得したデータを用いてユーザの顔の向きを推定してもよい。 Then, the gaze area specifying means 14 specifies an area that the user is gazing at (hereinafter also referred to as "gazing area") in the display area of the content from the face image of the user. A gaze area specifying means 14 estimates the direction of the user's line of sight from the user's face image. Various methods can be used for estimating the line-of-sight direction. can be estimated from the amount of deviation from the position of (see Patent Document 3). Of course, if the orientation of the user's face can be estimated from the glasses worn by the user or from other wearable sensors, the orientation of the user's face may be estimated using the data acquired from these devices.

そして、注視領域特定手段14は、前記推定したユーザの視線の向きと、撮影手段と再生装置との相対位置から、ユーザが注視している領域を特定する。なお、ユーザが注視している領域は、おおよその範囲であってもよく、ごく簡単には、注視領域特定手段14は、コンテンツの左側、中央、右側といった3領域のいずれを注視しているかを特定する形態でもよい。またより望ましい形態において、注視領域特定手段14が、左上、左、左下、上、中央、下、右上、右、右下というように、再生装置のコンテンツの表示領域を9分割した領域のいずれかの注視領域として特定してもよい。もちろん、注視領域特定手段14が、座標情報などの形態で、ユーザの注視領域を特定する形態も採用可能である。 Then, the gaze area identifying means 14 identifies the area that the user is gazing at based on the estimated direction of the user's line of sight and the relative position between the photographing means and the playback device. Note that the area that the user is gazing at may be an approximate range, and very simply, the gazing area specifying means 14 determines which of the three areas of the content, left, center, and right, is the user's gaze. It may be in a specified form. In a more desirable form, the attention area specifying means 14 divides the content display area of the playback device into nine areas such as upper left, left, lower left, upper, center, lower, upper right, right, and lower right. may be specified as the fixation area of . Of course, it is also possible to employ a form in which the gaze area specifying means 14 specifies the user's gaze area in the form of coordinate information or the like.

作成手段13aは、前記ユーザの特定結果を用いた前記コンテンツの属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する。 The creating means 13a creates viewing area transition information representing a transition of an area watched by the user watching the content, in association with the attribute-based viewing history of the content using the identification result of the user. do.

以上のように構成される視聴履歴記録システム10は、前記コンテンツの属性別視聴履歴20に加えて、前記コンテンツを視聴中の前記ユーザの注視領域を視聴領域遷移情報として収集する。なお、この視聴領域遷移情報は、図1に示すように、注視領域遷移情報21という属性別視聴履歴20とは、別のデータとして記録してもよいし、コンテンツの属性別視聴履歴の付随データとして記録してもよい。 The viewing history recording system 10 configured as described above collects, in addition to the attribute-based viewing history 20 of the content, the gaze region of the user viewing the content as viewing region transition information. As shown in FIG. 1, this viewing area transition information may be recorded as gaze area transition information 21, separate from the attribute-based viewing history 20, or may be recorded as accompanying data of the content attribute-based viewing history. may be recorded as

以上のような実施形態によれば、視聴率に代表される視聴履歴情報に加えて、コンテンツ中の、ユーザが注目している対象に関する情報を収集し、マーケティングやコンテンツ作りに役立てることが可能となる。 According to the above-described embodiments, in addition to viewing history information represented by audience ratings, it is possible to collect information about the target of the user's attention in the content and use it for marketing and content creation. Become.

例えば、特許文献1、2によれば、ある番組の視聴率に、M1層の視聴率が寄与していることや、逆にF3層には全く視聴されていないといった情報が得られる。本発明によれば、さらに踏み込んで、番組に出演している出演者が大きく寄与している場合や、番組の内容自体に人気がある場合といった情報を得ることが可能となる。 For example, according to Patent Literatures 1 and 2, it is possible to obtain information that the audience rating of the M1 layer contributes to the audience rating of a certain program, or conversely that the program is not watched at all by the F3 layer. According to the present invention, it is possible to obtain information such as when a performer appearing in a program contributes greatly, or when the content of the program itself is popular.

また、より望ましい形態において、注視領域特定手段14が、ユーザが各領域を注視していた時間や、その度合いを記録できるようにすることが好ましい。このようにすることで、ユーザにより長く注視されていた領域やユーザの視線の動きを把握することが可能となる。また、この注視の度合いを上記領域別に、カラーや濃淡で表したマップの形態で提示してもよい。さらに、ユーザの属性や視線の動き具合に応じて、上記注視領域を記録する領域の大きさを変えてもよい。例えば、ユーザの視線の動きが少ない、即ち、ユーザがぼんやり画面を見ているような場合には、左側、中央、右側の3領域で視線を記録し、それ以外の場合には、9分割するというように動的に記録粒度、即ち、記録する領域の大きさを変えてもよい。 Further, in a more desirable form, it is preferable that the gaze area specifying means 14 can record the time and the degree of gaze of the user on each area. By doing so, it is possible to grasp the region that has been watched by the user for a long time and the movement of the user's line of sight. Further, the degree of fixation may be presented in the form of a map in which colors or shades are used for each of the areas. Furthermore, the size of the area for recording the gaze area may be changed according to the attributes of the user and the movement of the line of sight. For example, when the movement of the user's line of sight is small, i.e., when the user is looking at the screen vaguely, the line of sight is recorded in three regions, left, center, and right. In this way, the recording granularity, that is, the size of the recording area may be changed dynamically.

[第1の実施形態]
続いて、本発明をテレビジョン放送の視聴率調査に適用した第1の実施形態について図面を参照して詳細に説明する。図2は、本発明の第1の実施形態の視聴履歴記録装置の構成を示す図である。図2を参照すると、撮影手段11と、特定手段12と、記録手段13と、注視領域特定手段14と、認証用データ記憶手段16と、を備えた視聴履歴記録装置10aと、ネットワーク上のストレージ15とを接続させた構成が示されている。なお、このような視聴履歴記録装置は、例えば、セットトップボックス(STB)形態はもちろんとして、スマートスピーカー(AIスピーカー)等の小型情報家電の形態を採ることもできる。
[First embodiment]
Next, a first embodiment in which the present invention is applied to an audience rating survey of television broadcasting will be described in detail with reference to the drawings. FIG. 2 is a diagram showing the configuration of the viewing history recording device according to the first embodiment of the present invention. Referring to FIG. 2, a viewing history recording device 10a including photographing means 11, specifying means 12, recording means 13, gaze area specifying means 14, and authentication data storage means 16, and storage on the network. 15 are shown. Such a viewing history recording device can take the form of a small information appliance such as a smart speaker (AI speaker) as well as a set-top box (STB) form.

撮影手段11は、所定のテレビジョン受像機に表示されている番組コンテンツを視聴中のユーザの顔画像を撮影するカメラなどにより構成される。なお、ユーザの視線の向きを推定する観点では、撮影手段11は、テレビジョン受像機の表示面に対し、予め定めた位置に固定されていることが好ましい。 The photographing means 11 is composed of a camera or the like for photographing a facial image of a user who is viewing program content displayed on a predetermined television receiver. From the viewpoint of estimating the direction of the user's line of sight, it is preferable that the photographing means 11 be fixed at a predetermined position with respect to the display surface of the television receiver.

特定手段12は、上記撮影手段11で撮影した前記ユーザの顔画像と、認証用データ記憶手段16に記憶されている認証用データとを用いて、前記ユーザを特定する。例えば、特定手段12は、ユーザの顔画像から特徴量を計算する。そして、認証用データの中から、前記計算した特徴量に最も近い特徴(即ち、顔が似ている)を持つユーザを特定する。認証用データは、例えば、ユーザの顔画像の特徴量と、ユーザの属性に関する情報とを対応付けたデータによって構成される。本実施形態では、ユーザの属性に関する情報は、上述したM1~M3、F1~F3、C、Tの8種類のユーザ層を表すカテゴリーであるものとして説明する。特定手段12は、撮影手段11により撮影したユーザの顔画像を用いて、認証用データの登録を受け付け、認証用データ記憶手段16に登録する機能を備えていることが好ましい。より望ましくは、特定手段12は、撮影手段11により撮影したユーザの顔画像から、上記ユーザ層を表すカテゴリーを自動判定する機能を備えていることが好ましい。 The specifying means 12 specifies the user by using the face image of the user photographed by the photographing means 11 and the authentication data stored in the authentication data storage means 16 . For example, the identification unit 12 calculates feature amounts from the user's face image. Then, the user having the feature closest to the calculated feature amount (that is, the face is similar) is specified from the authentication data. The authentication data is composed of, for example, data in which the feature amount of the user's face image is associated with information about the user's attributes. In this embodiment, it is assumed that the information on the user's attribute is a category representing the eight types of user layers M1 to M3, F1 to F3, C, and T described above. The identification unit 12 preferably has a function of receiving registration of authentication data using the user's face image photographed by the photographing unit 11 and registering it in the authentication data storage unit 16 . More desirably, the identifying means 12 has a function of automatically determining a category representing the user group from the user's face image photographed by the photographing means 11 .

注視領域特定手段14は、撮影手段11にて撮影されたユーザの顔画像から番組コンテンツを視聴中のユーザが注視している領域(以下、「注視領域」とも言う。)を特定する。注視領域の特定方法は、上記視聴履歴記録システム10の注視領域特定手段14と同様であるため、説明を省略する。 The gaze area specifying means 14 specifies an area (hereinafter also referred to as a "gazing area") that the user watching the program content is watching from the user's face image captured by the photographing means 11 . Since the method of specifying the gaze area is the same as that of the gaze area specifying means 14 of the viewing history recording system 10, the explanation is omitted.

記録手段13は、テレビジョン受像機から送られる選局情報と、前記特定したユーザの前記コンテンツの視聴履歴と、前記特定したユーザの属性に関する情報と、を対応付けた属性別視聴履歴をストレージ15に記録する。また、記録手段13は、注視領域特定手段14にて特定された注視領域の遷移をテレビジョン受像機から送られる選局情報と対応付けて注視領域遷移情報としてストレージ15に記録する。従って、本実施形態では、記録手段13が、上記した作成手段13aとして機能する。 A recording means 13 stores an attribute-based viewing history in which channel selection information sent from a television receiver, the viewing history of the content of the specified user, and information about the attribute of the specified user are associated with each other. to record. Also, the recording means 13 records the transition of the gaze area specified by the gaze area specifying means 14 in the storage 15 as the gaze area transition information in association with the channel selection information sent from the television receiver. Therefore, in the present embodiment, the recording means 13 functions as the creating means 13a described above.

ストレージ15は、インターネット又は視聴率分析業者のネットワーク上に配置され、属性別視聴履歴と、注視領域遷移情報の格納先として使用される。また、このストレージ15が、他の視聴履歴記録装置の属性別視聴履歴と注視領域遷移情報の格納先として使用されることで、属性別視聴履歴と注視領域遷移情報が収集される。そして、ストレージ15に蓄積されたデータは、所定の分析サーバ等の外部ノードに提供されて、視聴率分析に用いられる。 The storage 15 is arranged on the Internet or a network of a viewing rate analysis company, and is used as a storage destination of viewing history by attribute and attention area transition information. Also, by using this storage 15 as a storage destination for attribute-based viewing histories and attention area transition information of other viewing history recording devices, attribute-based viewing histories and attention area transition information are collected. The data accumulated in the storage 15 is provided to an external node such as a predetermined analysis server and used for audience rating analysis.

続いて、本実施形態の動作について図面を参照して詳細に説明する。図3は、本発明の第1の実施形態の視聴履歴記録装置の動作(視聴履歴記録)を説明するための図である。以下の説明では、事前にユーザF2、M1、M3とその顔画像が特定手段12に登録され、このうちのユーザM1がテレビジョン受像機にて視聴を開始したものとして説明する。 Next, the operation of this embodiment will be described in detail with reference to the drawings. FIG. 3 is a diagram for explaining the operation (viewing history recording) of the viewing history recording device according to the first embodiment of the present invention. In the following description, it is assumed that users F2, M1, and M3 and their face images are registered in advance in the identifying means 12, and user M1 among them has started viewing on the television receiver.

まず、ユーザM1がテレビジョン受像機にて視聴を開始すると、撮影手段11がユーザM1の顔画像を撮影する(図3の11)。 First, when the user M1 starts viewing on the television receiver, the photographing means 11 photographs the face image of the user M1 (11 in FIG. 3).

次に、特定手段12が、認証用データ記憶手段16に記憶されている認証用データを参照して、撮影手段11にて撮影されたユーザM1の顔画像から、視聴を開始したユーザがユーザM1であることを特定する(図3の12)。 Next, the specifying unit 12 refers to the authentication data stored in the authentication data storage unit 16, and determines whether the user who started viewing is the user M1 from the face image of the user M1 photographed by the photographing unit 11. (12 in FIG. 3).

次に、記録手段13が、前記特定されたユーザの属性と、選局情報とを対応付けて、属性別視聴履歴を作成し、ストレージ15への記録を開始する(図3の13)。 Next, the recording means 13 associates the specified user attribute with the channel selection information, creates an attribute-specific viewing history, and starts recording in the storage 15 (13 in FIG. 3).

図3の下段は、属性別視聴履歴の一例を示している。図3の下段の例では、視聴開始日時、ユーザ属性、視聴コンテンツ(選局情報)及び視聴終了日時を対応付けた属性別視聴履歴が示されている。このようなデータを収集することで、ある番組の視聴率のみならず、その視聴率の属性別内訳を求めることが可能となる。 The lower part of FIG. 3 shows an example of viewing history by attribute. The example in the lower part of FIG. 3 shows attribute-specific viewing histories in which viewing start date/time, user attribute, viewing content (channel selection information), and viewing end date/time are associated with each other. By collecting such data, it becomes possible to obtain not only the audience rating of a certain program but also the breakdown of the audience rating by attribute.

続いて、本実施形態の視聴履歴記録装置10aによる注視領域の特定処理について説明する。図4は、本実施形態の視聴履歴記録装置10aの注視領域特定処理を説明するための図である。 Next, a process of identifying a region of interest by the viewing history recording device 10a of the present embodiment will be described. FIG. 4 is a diagram for explaining the attention area specifying process of the viewing history recording device 10a of the present embodiment.

図4を参照すると、まず、撮影手段11が、注視領域特定手段14に撮影画像を送信する(ステップS001)。ここで、注視領域特定手段14に対して送信する撮影画像は、図3の属性別視聴履歴の作成の際に、ユーザを特定するために撮影されたユーザの顔画像であってもよい。もちろん、注視領域特定手段14による注視領域特定のために、撮影手段11が別途撮影した画像であってもよい。 Referring to FIG. 4, first, the photographing means 11 transmits a photographed image to the gaze area specifying means 14 (step S001). Here, the photographed image to be transmitted to the gaze area specifying means 14 may be the face image of the user photographed for specifying the user when creating the viewing history by attribute shown in FIG. Of course, the image may be an image separately photographed by the photographing means 11 in order to specify the gaze area by the gaze area specifying means 14 .

次に、注視領域特定手段14は、撮影手段11から受信したユーザの顔画像からユーザの位置及び視線の向きを特定する(ステップS002)。ここで、ユーザの位置は、ユーザの顔画像の位置や大きさから計算することができる。また、ユーザの視線の向きは、ユーザの顔画像における各器官の位置と、認証用データから事前に計算した顔の各器官の位置とのずれ量などから推定することができる(特許文献3参照)。 Next, the gaze area identifying means 14 identifies the user's position and line of sight direction from the user's face image received from the photographing means 11 (step S002). Here, the user's position can be calculated from the position and size of the user's face image. In addition, the direction of the user's line of sight can be estimated from the amount of deviation between the position of each organ in the user's face image and the position of each organ of the face calculated in advance from the authentication data (see Patent Document 3). ).

次に、注視領域特定手段14は、テレビジョン受像機の表示画面におけるユーザの注視領域を計算する(ステップS003)。このユーザの注視領域は、前記推定したユーザの視線の向きと、撮影手段11とテレビジョン受像機との相対位置に基づいて計算することができる。 Next, the gaze area specifying means 14 calculates the user's gaze area on the display screen of the television receiver (step S003). The gaze region of the user can be calculated based on the estimated direction of the user's line of sight and the relative position between the photographing means 11 and the television receiver.

そして、注視領域特定手段14は、記録手段13に対して、前記計算したユーザの注視領域を送信する(ステップS004)。 Then, the gaze area specifying means 14 transmits the calculated gaze area of the user to the recording means 13 (step S004).

記録手段13は、注視領域特定手段14から受信したユーザの注視領域の遷移を属性別視聴履歴の付属データとして順次記録する(ステップS005)。ユーザによる番組視聴が継続している間、撮影手段11、注視領域特定手段14及び記録手段13が、上記ステップS001~S005の処理を繰り返すことでユーザの注視領域の遷移データが作成される。また、このように、番組視聴と平行してユーザの注視領域の遷移データを記録することで、属性別視聴履歴の時刻に対応したユーザの注視領域の遷移データが作成されることになる。 The recording means 13 sequentially records the transition of the user's gaze area received from the gaze area specifying means 14 as attached data of the attribute-based viewing history (step S005). While the user continues to watch the program, the photographing means 11, the attention area specifying means 14, and the recording means 13 repeat the processes of steps S001 to S005 to create transition data of the user's attention area. In this way, by recording the transition data of the user's attention area in parallel with program viewing, the transition data of the user's attention area corresponding to the time of the viewing history by attribute is created.

図5は、上記視聴履歴記録装置10aによって記録されるユーザの注視領域の遷移データの一例を示す。図5の例では、番組視聴中のユーザの注視領域の変化を記録したデータが、注視領域遷移として、属性別視聴履歴情報に対応付けて、記録されている。なお、注視領域は、撮影手段11からユーザの顔画像を受け取る度に記録するのではなく、注視領域に変化があった場合にのみ、その変化を記録するようにしてもよい。 FIG. 5 shows an example of transition data of a user's attention area recorded by the viewing history recording device 10a. In the example of FIG. 5, data recording changes in the user's attention area during program viewing is recorded as attention area transition in association with attribute-based viewing history information. Note that the gaze area may not be recorded each time a face image of the user is received from the photographing means 11, but may be recorded only when the gaze area changes.

以上のような注視領域の遷移データを多数集計することにより、外部の任意の分析サーバ等に、以下のような分析を行わせることができる。例えば、分析サーバは、図6に示すように、2018年2月1日 18:00放送の各シーンについて、注目するユーザ層(属性)の最多注視領域を集計し、番組の内容と突合することで、その番組のどの部分に、注目するユーザ層(属性)の視線が集まっていたかを把握することができるデータを作製する。 By aggregating a large number of transition data of the region of interest as described above, it is possible to cause an arbitrary external analysis server or the like to perform the following analysis. For example, as shown in FIG. 6, the analysis server aggregates the most focused regions of the user group (attribute) of interest for each scene broadcasted at 18:00 on February 1, 2018, and compares them with the content of the program. Then, data is created that enables grasping which part of the program attracts the attention of the target user class (attribute).

例えば、図6の例では、番組中の18:07からゲスト2名が登場している。その際に、M1層の視線は画面に右側に集中していたことがわかる。これにより、ゲスト2名中のAさんに視線が集中していたことがわかる。同様に、番組中の18:15からゲストによる番組宣伝が始まっているが、その際のM1層の最多注視領域は画面下方である。これにより、少なくともM1層に対して、ゲストによる番組宣伝の効果が十分にあったことがわかる。また、同様に、番組中の18:20からのCM(Commercial Message)の期間におけるM1層の最多注視領域は画面左側である。これにより、例えば、画面に映し出されていた3商品中の左側の商品にM1が興味を持っていることがわかる。 For example, in the example of FIG. 6, two guests appear from 18:07 during the program. At that time, it can be seen that the line of sight of the M1 layer was concentrated on the right side of the screen. As a result, it can be seen that the line of sight was concentrated on Mr. A among the two guests. Similarly, at 18:15 during the program, the program advertisement by the guests starts, but the region of the highest attention of the M1 layer at that time is the lower part of the screen. From this, it can be seen that the effect of the program advertisement by the guest was sufficient for at least the M1 layer. Similarly, the most frequently watched area of the M1 layer during the CM (Commercial Message) period from 18:20 during the program is the left side of the screen. As a result, for example, it can be seen that M1 is interested in the product on the left side of the three products displayed on the screen.

さらに、上記同様の分析を別のユーザ層においても行い、比較することで、各ユーザ層に対し、訴求効果の高い出演者や演出を推測することが可能となる。これにより、例えば、番組スポンサーの主要顧客の属性を考慮した番組やCMを作成することが可能となる。 Furthermore, by performing the same analysis as above for other user groups and comparing them, it is possible to guess performers and performances that are highly appealing to each user group. As a result, for example, it is possible to create programs and commercials that take into account the attributes of major customers of program sponsors.

また、上記した実施形態では、視聴履歴記録装置10aの少なくとも撮影手段11、特定手段12、及び、注視領域特定手段14は、前記ユーザの宅内に配置されている。そして、記録手段13は、個々のユーザの情報がユーザ層という情報に変換(匿名化)された属性別視聴履歴情報としてストレージ15に記録する。そして、上記視聴率の分析等は、この匿名化されたデータを保管するストレージ15にアクセスして行われる。従って、ユーザの顔画像やこれと紐づいた視聴履歴などのセンシティブな個人情報が前記ユーザの外部に流出することは無い。 Further, in the above-described embodiment, at least the photographing means 11, the specifying means 12, and the gaze area specifying means 14 of the viewing history recording device 10a are arranged in the home of the user. Then, the recording means 13 records in the storage 15 as attribute-based viewing history information in which information of individual users is converted (anonymized) into information of a user group. The analysis of the audience rating and the like are performed by accessing the storage 15 that stores the anonymized data. Therefore, sensitive personal information such as the user's facial image and the associated viewing history will not be leaked to the outside of the user.

なお、上記した例では、ユーザが一人でコンテンツの視聴を開始し、その注視領域の記録が行われる例を挙げて説明したが、複数のユーザがコンテンツの視聴を開始した場合においても、同様の手順で、それぞれのユーザについて、特定を行い属性別視聴履歴を記録することもできる。また、この場合、それぞれのユーザについて、注視している領域の遷移を記録することになる。 In the above example, a single user starts viewing the content, and the attention area is recorded. In the procedure, it is also possible to identify and record the viewing history by attribute for each user. Also, in this case, the transition of the gazed area is recorded for each user.

[第2の実施形態]
続いて、事前の認証用データの登録を省略可能とした第2の実施形態について図面を参照して詳細に説明する。図7は、本発明の第2の実施形態の視聴履歴記録装置の構成を示す図である。
[Second embodiment]
Next, a second embodiment in which prior registration of authentication data can be omitted will be described in detail with reference to the drawings. FIG. 7 is a diagram showing the configuration of a viewing history recording apparatus according to the second embodiment of the present invention.

図7を参照すると、第1の実施形態における特定手段12及び認証用データ記憶手段16の組み合わせの代わりに、推定手段12a及びユーザ属性推定エンジン16aを備えた視聴履歴記録装置10bの構成が示されている。その他の構成は、第1の実施形態と同様であるので、以下、その相違点を中心に説明する。 Referring to FIG. 7, a configuration of a viewing history recording device 10b having an estimating means 12a and a user attribute estimating engine 16a instead of the combination of the identifying means 12 and the authentication data storage means 16 in the first embodiment is shown. ing. Since other configurations are the same as those of the first embodiment, the differences will be mainly described below.

推定手段12aは、ユーザ属性推定エンジン16aを用いて、ユーザの属性を推定する。例えば、推定手段12aは、上記撮影手段11で撮影した前記ユーザの顔画像に所定の前処理を行ってから、ユーザ属性推定エンジン16aに送る。ユーザ属性推定エンジン16aは、推定手段12aから受け取ったユーザの顔画像の髪型、皺、表情などの特徴に基づいて、ユーザの属性として、性別と年齢層とを推定する。ユーザ属性推定エンジン16aの具体例としては、出願人らによって商用化されているFieldAnalyst(登録商標)等を用いることができる。 The estimating means 12a estimates user attributes using a user attribute estimation engine 16a. For example, the estimating means 12a performs predetermined preprocessing on the face image of the user photographed by the photographing means 11, and then sends it to the user attribute estimating engine 16a. The user attribute estimation engine 16a estimates gender and age group as attributes of the user based on features such as hairstyle, wrinkles, and expression of the user's facial image received from the estimation means 12a. As a specific example of the user attribute estimation engine 16a, FieldAnalyst (registered trademark) or the like, which is commercialized by the applicants, can be used.

ユーザ認証において推定手段12aがユーザの属性を推定する点を除いて、本実施形態の基本的な動作は第1の実施形態と同様であるため説明を省略する。 Since the basic operation of this embodiment is the same as that of the first embodiment except that the estimation unit 12a estimates the attributes of the user in user authentication, the description is omitted.

上記説明したとおり、本実施形態は、第1の実施形態と比較して、事前に認証用データを用意しなくてよいという利点がある。この利点は、不特定多数のユーザの属性別視聴履歴データを取得することができることを意味する。これにより、データ数が少ない性別や年齢層の視聴履歴データを効率よく収集することも可能となる。 As described above, this embodiment has an advantage over the first embodiment in that authentication data need not be prepared in advance. This advantage means that attribute-based viewing history data of an unspecified number of users can be acquired. This makes it possible to efficiently collect viewing history data for genders and age groups with a small amount of data.

[第3の実施形態]
続いて、視聴履歴に加えて、コンテンツを視聴中のユーザの表情の遷移を収集可能とした第3の実施形態について図面を参照して詳細に説明する。図8は、本発明の第3の実施形態の視聴履歴記録装置の構成を示す図である。
[Third Embodiment]
Next, in addition to the viewing history, a detailed description will be given with reference to the drawings of a third embodiment in which transitions in the user's facial expression during viewing of content can be collected. FIG. 8 is a diagram showing the configuration of a viewing history recording device according to the third embodiment of the present invention.

図8を参照すると、第1の実施形態の構成に、表情判定手段17が追加された視聴履歴記録装置10cの構成が示されている。その他の構成は、第1の実施形態と同様であるので、以下、その相違点を中心に説明する。 Referring to FIG. 8, there is shown the configuration of a viewing history recording device 10c in which facial expression determination means 17 is added to the configuration of the first embodiment. Since other configurations are the same as those of the first embodiment, the differences will be mainly described below.

表情判定手段17は、撮影手段11で撮影した前記ユーザの顔画像からユーザの表情を判定する。表情判定手段17における表情の判定手法としては、種々の方法を採用できる。例えば、該当ユーザの認証用データにおける顔の各器官の形や位置を無表情とし、その表情からの各器官の変化や移動量を用いて表情を判定する方法を採ることができる。また、別の方法として、予め登録された「笑顔」、「悲しい時の顔」、「無表情」といった表情パターンと、ユーザの顔画像から抽出された特徴量とを照合してユーザの表情を判定する方法も採ることができる。また、このときに、事前にユーザ毎に、「笑顔」、「悲しい時の顔」、「無表情」といった顔画像を用意して照合を行っても良い。これにより、ユーザ毎の表情の癖を捉え、精度良く表情を判定することが可能となる。 The facial expression determination means 17 determines the facial expression of the user from the user's face image photographed by the photographing means 11 . Various methods can be adopted as the facial expression determination method in the facial expression determination means 17 . For example, a method can be employed in which the shape and position of each organ of the face in the authentication data of the user are rendered expressionless, and the facial expression is determined by using the change or amount of movement of each organ from the facial expression. As another method, a user's facial expression is compared by comparing pre-registered facial expression patterns such as "smile", "sad face", and "expressionless" with features extracted from the user's facial image. A determination method can also be adopted. Also, at this time, face images such as a "smiling face", a "sad face", and an "expressionless face" may be prepared for each user in advance for verification. As a result, it is possible to grasp the habits of each user's facial expression and determine the facial expression with high accuracy.

続いて、本実施形態の視聴履歴記録装置10cによる表情の判定処理について説明する。図9は、本実施形態の視聴履歴記録装置10cの表情判定処理を説明するための図である。 Subsequently, facial expression determination processing by the viewing history recording device 10c of the present embodiment will be described. FIG. 9 is a diagram for explaining facial expression determination processing of the viewing history recording device 10c of the present embodiment.

図9を参照すると、まず、撮影手段11が、表情判定手段17に撮影画像を送信する(ステップS001)。ここで、表情判定手段17に対して送信する撮影画像は、図3の属性別視聴履歴の作成の際に、ユーザを特定するために撮影されたユーザの顔画像であってもよい。もちろん、表情判定手段17による表情判定のために、撮影手段11が別途撮影した画像であってもよい。 Referring to FIG. 9, first, the photographing means 11 transmits a photographed image to the facial expression determining means 17 (step S001). Here, the photographed image to be transmitted to the facial expression determination means 17 may be the face image of the user photographed to identify the user when creating the viewing history by attribute shown in FIG. Of course, it may be an image separately photographed by the photographing means 11 for facial expression judgment by the facial expression judging means 17 .

次に、表情判定手段17は、撮影手段11から受信したユーザの顔画像からユーザの表情を判定する(ステップS102)。 Next, the facial expression determining means 17 determines the facial expression of the user from the user's facial image received from the imaging means 11 (step S102).

次に、表情判定手段17は、記録手段13に対して、前記判定したユーザの表情を送信する(ステップS104)。 Next, the facial expression determination means 17 transmits the determined facial expression of the user to the recording means 13 (step S104).

記録手段13は、表情判定手段17から受信したユーザの表情の遷移を属性別視聴履歴の付属データとして順次記録する(ステップS005)。ユーザによる番組視聴が継続している間、撮影手段11、表情判定手段17及び記録手段13が、上記ステップS001~S005の処理を繰り返すことでユーザの表情の遷移データが作成される。本実施形態でも、番組視聴と平行してユーザの表情の遷移データを記録することで、属性別視聴履歴の時刻に対応したユーザの表情の遷移データが作成されることになる。従って、本実施形態では、記録手段13が、上記したユーザの表情の遷移データの作成手段としても機能する。 The recording unit 13 sequentially records the transition of the user's facial expression received from the facial expression determination unit 17 as attached data of the viewing history by attribute (step S005). While the user continues to watch the program, the photographing means 11, the facial expression determining means 17 and the recording means 13 repeat the processes of steps S001 to S005 to create transition data of the user's facial expression. In this embodiment as well, by recording the transition data of the user's facial expression in parallel with viewing the program, the transition data of the user's facial expression corresponding to the time of the viewing history by attribute is created. Therefore, in the present embodiment, the recording means 13 also functions as means for creating transition data of the user's facial expression described above.

図10は、上記視聴履歴記録装置10cによって記録されるユーザの表情の遷移データの一例を示す。図10の例では、番組視聴中のユーザの表情の変化を記録したデータが、表情遷移として、属性別視聴履歴情報に対応付けて、記録されている。なお、ユーザの表情に関する情報は、撮影手段11からユーザの顔画像を受け取る度に記録するのではなく、表情に変化があった場合にのみ、その変化を記録するようにしてもよい。 FIG. 10 shows an example of user facial expression transition data recorded by the viewing history recording device 10c. In the example of FIG. 10, data recording changes in the user's facial expression while viewing a program is recorded as facial expression transitions in association with attribute-specific viewing history information. The information about the facial expression of the user may be recorded only when there is a change in the facial expression instead of being recorded each time the image of the user's face is received from the photographing means 11 .

以上のような表情の遷移データを多数集計することにより、以下のような分析を行うことができる。例えば、2018年2月2日 21:00の放送についてユーザ層F2に属するユーザから図10に示すような表情の変化が得られたとする。同様のデータを、他のユーザ層F2に属するユーザからも収集することで、その番組の各シーンにおいて、ターゲットとするユーザ層から、製作者が意図した反応があったかがどうかを把握することできる。 By aggregating a large number of facial expression transition data as described above, the following analysis can be performed. For example, assume that a change in facial expression as shown in FIG. 10 is obtained from a user belonging to the user layer F2 for the broadcast on February 2, 2018 at 21:00. By collecting similar data from users belonging to the other user layer F2, it is possible to grasp whether or not there was a response intended by the producer from the target user layer in each scene of the program.

また、上記第1の実施形態と同様に、ユーザの注視領域に関する情報と組み合わせることで、より詳細な分析を行うことができる。例えば、図6のように、番組に出演しているゲストに視線が集中していることに加えて、ユーザがどのような表情をしていたかを把握することが可能となる。また、ゲストに関心のない層が、どのような表情をしていたかといった情報も集めることが可能となる。 Further, as in the first embodiment, more detailed analysis can be performed by combining information about the user's gaze area. For example, as shown in FIG. 6, it is possible to grasp the facial expression of the user in addition to the fact that the line of sight is focused on the guest appearing in the program. In addition, it is possible to collect information such as what kind of facial expressions were made by those who were not interested in the guests.

なお、上記した実施形態では、図8に示すように、視聴履歴記録装置10cが注視領域特定手段14を備えているものとして説明したが、図11に示すように、注視領域特定手段14を省略した構成も採用可能である。 In the above-described embodiment, as shown in FIG. 8, the viewing history recording device 10c has been described as having the gaze area specifying means 14. However, as shown in FIG. 11, the gaze area specifying means 14 is omitted. It is also possible to adopt a configuration with

[第4の実施形態]
続いて、視聴履歴に加えて、コンテンツを視聴中のユーザの姿勢の遷移を収集可能とした第4の実施形態について図面を参照して詳細に説明する。図12は、本発明の第4の実施形態の視聴履歴記録装置の構成を示す図である。
[Fourth embodiment]
Next, a detailed description will be given of a fourth embodiment in which it is possible to collect not only the viewing history but also the transition of the user's posture while viewing the content, with reference to the drawings. FIG. 12 is a diagram showing the configuration of a viewing history recording device according to the fourth embodiment of the present invention.

図12を参照すると、第1の実施形態の構成に、姿勢判定手段18が追加された視聴履歴記録装置10eの構成が示されている。その他の構成は、第1の実施形態と同様であるので、以下、その相違点を中心に説明する。 Referring to FIG. 12, there is shown the configuration of a viewing history recording device 10e in which posture determination means 18 is added to the configuration of the first embodiment. Since other configurations are the same as those of the first embodiment, the differences will be mainly described below.

姿勢判定手段18は、撮影手段11で撮影した前記ユーザの顔画像を含む画像からユーザの姿勢を判定する。姿勢判定手段18における表情の判定手法としては、種々の方法を採用できる。例えば、該当ユーザの顔画像が横に倒れていれば、ユーザが横になって視聴していると判定してもよい。また、別の方法として、予め登録された「横になる」、「腕組みして視聴」、「ソファ等に座りリラックスして視聴」といった姿勢パターンと、ユーザの顔画像を含む画像から抽出された情報とを照合してユーザの姿勢を判定する方法も採ることができる。また、このときに、事前にユーザ毎に、「横になる」、「腕組みして視聴」、「ソファ等に座りリラックスして視聴」といったユーザ毎の姿勢の標準画像を用意して照合を行っても良い。これにより、ユーザ毎の姿勢の癖を捉え、精度良く姿勢を判定することが可能となる。 Posture determination means 18 determines the posture of the user from an image including the face image of the user photographed by photographing means 11 . Various methods can be adopted as a facial expression determination method in the posture determination means 18 . For example, if the face image of the user is lying down, it may be determined that the user is lying down and watching. As another method, pre-registered posture patterns such as "laying down", "watching with arms crossed", "watching while sitting on a sofa or the like and relaxing", and an image containing the user's face image are extracted. It is also possible to adopt a method of determining the posture of the user by comparing it with information. In addition, at this time, for each user, reference images are prepared in advance for each user's posture, such as "laying down", "viewing with arms folded", and "viewing while sitting on a sofa or the like in a relaxed manner", and collation is performed. can be As a result, it becomes possible to determine the posture with high accuracy by understanding the habits of each user's posture.

続いて、本実施形態の視聴履歴記録装置10eによる姿勢の判定処理について説明する。図13は、本実施形態の視聴履歴記録装置10eの姿勢判定処理を説明するための図である。 Subsequently, posture determination processing by the viewing history recording device 10e of the present embodiment will be described. FIG. 13 is a diagram for explaining posture determination processing of the viewing history recording device 10e of the present embodiment.

図13を参照すると、まず、撮影手段11が、姿勢判定手段18に撮影画像を送信する(ステップS001)。ここで、姿勢判定手段18に対して送信する撮影画像は、図3の属性別視聴履歴の作成の際に、ユーザを特定するために撮影されたユーザの顔画像であってもよい。もちろん、姿勢判定手段18による表情判定のために、撮影手段11が別途撮影した画像であってもよい。 Referring to FIG. 13, first, the photographing means 11 transmits a photographed image to the posture determining means 18 (step S001). Here, the photographed image to be transmitted to the posture determination means 18 may be the face image of the user photographed to identify the user when creating the viewing history by attribute shown in FIG. Of course, the image may be an image separately photographed by the photographing means 11 for facial expression judgment by the posture judging means 18 .

次に、姿勢判定手段18は、撮影手段11から受信したユーザの顔画像を含む画像からユーザの姿勢を判定する(ステップS202)。 Next, posture determination means 18 determines the posture of the user from the image including the user's face image received from photographing means 11 (step S202).

次に、姿勢判定手段18は、記録手段13に対して、前記判定したユーザの姿勢を送信する(ステップS204)。 Next, posture determining means 18 transmits the determined user posture to recording means 13 (step S204).

記録手段13は、姿勢判定手段18から受信したユーザの姿勢の遷移を属性別視聴履歴の付属データとして順次記録する(ステップS005)。ユーザによる番組視聴が継続している間、撮影手段11、姿勢判定手段18及び記録手段13が、上記ステップS001~S005の処理を繰り返すことでユーザの姿勢の遷移データが作成される。本実施形態でも、番組視聴と平行してユーザの姿勢の遷移データを記録することで、属性別視聴履歴の時刻に対応したユーザの姿勢の遷移データが作成されることになる。従って、本実施形態では、記録手段13が、上記したユーザの姿勢の遷移データの作成手段としても機能する。 The recording unit 13 sequentially records the transition of the user's posture received from the posture determination unit 18 as attached data of the viewing history by attribute (step S005). While the user continues to watch the program, the photographing means 11, posture determining means 18, and recording means 13 repeat the processes of steps S001 to S005, thereby creating posture transition data of the user. In this embodiment as well, by recording the user's posture transition data in parallel with program viewing, the user's posture transition data corresponding to the time of the viewing history by attribute is created. Therefore, in the present embodiment, the recording means 13 also functions as means for creating the transition data of the user's posture described above.

図14は、上記視聴履歴記録装置10eによって記録されるユーザの姿勢の遷移データの一例を示す。図14の例では、番組視聴中のユーザの姿勢の変化を記録したデータが、姿勢遷移として、属性別視聴履歴情報に対応付けて、記録されている。なお、ユーザの姿勢に関する情報は、撮影手段11からユーザの顔画像を受け取る度に記録するのではなく、表情に変化があった場合にのみ、その変化を記録するようにしてもよい。 FIG. 14 shows an example of user posture transition data recorded by the viewing history recording device 10e. In the example of FIG. 14, data recording changes in the user's posture while viewing a program are recorded as posture transitions in association with attribute-specific viewing history information. The information about the posture of the user may not be recorded each time a face image of the user is received from the photographing means 11, but may be recorded only when there is a change in facial expression.

以上のような姿勢の遷移データを多数集計することにより、以下のような分析を行うことができる。例えば、2018年2月2日 21:00の放送についてユーザ層F2に属するユーザから図14に示すような姿勢の変化が得られたとする。同様のデータを、他のユーザ層F2に属するユーザからも収集することで、その番組のターゲットとするユーザ層が、どのような姿勢で番組を視聴していたかを把握することできる。 By aggregating a large number of posture transition data as described above, the following analysis can be performed. For example, assume that a change in posture as shown in FIG. 14 is obtained from a user belonging to the user layer F2 for the broadcast on February 2, 2018 at 21:00. By collecting similar data from users who belong to the other user group F2, it is possible to grasp the attitude with which the target user group of the program viewed the program.

また、上記第1の実施形態と同様に、ユーザの注視領域に関する情報と組み合わせることで、より詳細な分析を行うことができる。例えば、図6のように、番組に出演しているゲストに視線が集中していることに加えて、ユーザがどのような姿勢をしていたかを把握することが可能となる。また、ゲストに関心のない層が、どのような姿勢をしていたかといった情報も集めることが可能となる。 Further, as in the first embodiment, more detailed analysis can be performed by combining information about the user's gaze area. For example, as shown in FIG. 6, in addition to the fact that the line of sight is focused on the guest appearing in the program, it is possible to grasp the posture of the user. In addition, it is possible to collect information such as what kind of postures those who were not interested in guests were doing.

なお、上記した実施形態では、図12に示すように、視聴履歴記録装置10eが注視領域特定手段14を備えているものとして説明したが、図15に示すように、注視領域特定手段14を省略した構成も採用可能である。 In the above-described embodiment, as shown in FIG. 12, the viewing history recording device 10e is provided with the gaze area specifying means 14. However, as shown in FIG. 15, the gaze area specifying means 14 is omitted. It is also possible to adopt a configuration with

以上、本発明の各実施形態を説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の基本的技術思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示したネットワーク構成、各要素の構成、メッセージの表現形態は、本発明の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。例えば、上記した実施形態では、ユーザを、その性別や年齢に応じて、M1~M3、F1~F3、C、Tの8つのカテゴリーに分けるものとして説明したが、ユーザのカテゴリー分けは、これに限られるものではない。ごく簡単には、男性、女性、成人、未成年といった大まかな区分けであってもよい。 Although each embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiments, and further modifications, replacements, and adjustments can be made without departing from the basic technical idea of the present invention. can be added. For example, the network configuration, the configuration of each element, and the form of expression of messages shown in each drawing are examples for helping understanding of the present invention, and are not limited to the configurations shown in these drawings. For example, in the above-described embodiment, users are classified into eight categories M1 to M3, F1 to F3, C, and T according to their gender and age. It is not limited. Very simply, it may be a rough division such as male, female, adult, and minor.

また上記した各実施形態では、地上波テレビジョン放送の視聴率調査を想定した例を挙げて説明したが、その他の動画コンテンツ全般におけるユーザの反応を調査する用途に適用することが可能である。このような動画コンテンツとしては、ケーブルテレビ、衛星放送、オンデマンド配信コンテンツなどが挙げられる。また、本発明はこのようなコンテンツ制作事業者に限らず、例えば、ある動画コンテンツを投稿したユーザに、視聴者の反応を見せるためのツールとして用いることもできる。 Further, in each of the above-described embodiments, an example has been given assuming an audience rating survey of terrestrial television broadcasting, but it is possible to apply the present invention to surveys of user reactions to other video content in general. Such video content includes cable television, satellite broadcasting, on-demand distribution content, and the like. In addition, the present invention is not limited to such content producers, and can be used, for example, as a tool for showing viewers' reaction to a user who has posted certain video content.

また、上記した各実施形態は、適宜組み合わせることができる。例えば、第3の実施形態と、第4の実施形態とを組み合わせて、番組視聴中のユーザの表情と姿勢の遷移を記録する視聴履歴記録装置を構成することが可能である。同様に、第2の実施形態の視聴履歴記録装置10bをベースに、第3の実施形態と、第4の実施形態の一方又は双方を組み合わせた形態も採用可能である。 Moreover, each of the embodiments described above can be combined as appropriate. For example, by combining the third embodiment and the fourth embodiment, it is possible to configure a viewing history recording apparatus that records transitions of the user's facial expression and posture while viewing a program. Similarly, based on the viewing history recording device 10b of the second embodiment, it is also possible to employ a form in which one or both of the third embodiment and the fourth embodiment are combined.

さらに、上記した各実施形態では、番組視聴中のユーザの表情と姿勢の遷移を記録するものとして説明したが、その他ユーザの顔画像を含む画像から得られる身体的情報を取り出して、視聴履歴データの補助データとして記録してもよい。このような身体的特徴としては、例えば、眼鏡の着用有無、髪型、疲労の度合い、肌の荒れ具合などの顔画像から直接得られる情報を挙げることができる。また、顔画像やその一部映りこんだ首周りの画像からユーザが体系や服装などを取り出して、視聴履歴データの補助データとして記録してもよい。この場合、視聴履歴記録装置は、ユーザの身体的特徴を特定する身体的特徴特定手段を備えることになる。 Furthermore, in each of the above-described embodiments, transitions of the user's facial expression and posture while watching a program were recorded. may be recorded as auxiliary data. Examples of such physical characteristics include information obtained directly from facial images, such as whether glasses are worn, hairstyle, degree of fatigue, and degree of rough skin. Also, the user may extract body structure, clothing, and the like from the face image and the image of the neck part of the facial image, and record them as auxiliary data of the viewing history data. In this case, the viewing history recording device is provided with physical feature identifying means for identifying the physical features of the user.

これにより、例えば、あるコンテンツに対する好意的な反応のあった層に対して、商品を売り込みたい企業からスポンサーを募ったり、個別にダイレクトメールを送信したり、連動型広告に反映させたりといった活動をより効果的に行うことが可能となる。 As a result, for example, we can conduct activities such as soliciting sponsors from companies that want to sell products, sending individual direct mails, and reflecting them in interlocking advertisements for those who have received a favorable response to certain content. It can be done more effectively.

また、上記した第1~第4の実施形態に示した手順は、視聴履歴記録装置10a~10fとして機能するコンピュータ(図16の9000)に、視聴履歴記録装置10a~10fとしての機能を実現させるプログラムにより実現可能である。このようなコンピュータは、図16のCPU(Central Processing Unit)9010、通信インタフェース9020、メモリ9030、補助記憶装置9040を備える構成に例示される。すなわち、図16のCPU9010にて、ユーザの顔画像の前処理プログラムや注視領域の特定プログラムを実行し、その補助記憶装置9040等に保持された各計算パラメーターの更新処理を実施させればよい。 Further, the procedures shown in the first to fourth embodiments described above cause the computers (9000 in FIG. 16) functioning as the viewing history recording devices 10a to 10f to realize the functions as the viewing history recording devices 10a to 10f. It can be realized by a program. Such a computer is exemplified by a configuration including a CPU (Central Processing Unit) 9010, a communication interface 9020, a memory 9030, and an auxiliary storage device 9040 in FIG. That is, the CPU 9010 in FIG. 16 may execute a preprocessing program for a user's face image and a program for specifying a gaze area, and update processing of each calculation parameter held in the auxiliary storage device 9040 or the like may be executed.

即ち、上記した各実施形態に示した視聴履歴記録装置10a~10fの各部(処理手段、機能)は、これらの装置に搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。 That is, each part (processing means, function) of the viewing history recording devices 10a to 10f shown in each of the above-described embodiments executes each of the above-described processes using the hardware of the processors installed in these devices. It can be implemented by a computer program that causes

最後に、本発明の好ましい形態を要約する。
[第1の形態]
(上記第1の視点による視聴履歴記録システム参照)
[第2の形態]
上記した視聴履歴記録システムにおいて、
前記ユーザの属性は、少なくとも、ユーザの性別と年齢層を含み、
前記作成手段は、前記ユーザの性別と年齢層別に、前記視聴領域遷移情報を作成する構成を採ることができる。
[第3の形態]
上記した視聴履歴記録システムにおいて、
前記視聴領域遷移情報は、所定のストレージに格納され、視聴率分析に用いられる。
[第4の形態]
上記した視聴履歴記録システムの前記撮影手段、前記特定手段、及び、前記注視領域特定手段は、前記ユーザの宅内に配置され、
前記所定のストレージが、外部からの要求に応じて、前記コンテンツの属性別視聴履歴及び前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を提供する構成を採ることができる。
[第5の形態]
前記視聴領域遷移情報は、前記ユーザが視聴したコンテンツと対応付けて提供されてもよい。
[第6の形態]
上記した視聴履歴記録システムは、前記視聴領域遷移情報を用いて、前記ユーザが注視していた時間又は視線の動きに基づいて、注視している度合いを示すマップ情報を提供することも好ましい。
[第7の形態]
上記した視聴履歴記録システムにおいて、
前記作成手段は、前記ユーザの視線の動きに基づいて、記録する領域の大きさを変更して視聴領域遷移情報を作成することも好ましい。
[第8の形態]
前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する特定手段に代えて、
前記撮影手段で撮影した前記ユーザの顔画像に基づいて、前記ユーザの属性を推定する推定手段を備える構成も採用可能である。
[第9の形態]
上記した視聴履歴記録システムにおいて、
さらに、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定する表情判定手段と、
前記ユーザの性別と年齢層別に、前記ユーザの表情の遷移を表した表情遷移情報を作成する第2の作成手段と、を備える構成も採用可能である。
[第10の形態]
上記した視聴履歴記録システムにおいて、
前記表情遷移情報は、前記ユーザが視聴したコンテンツと対応付けて提供されてもよい。
[第11の形態]
上記した視聴履歴記録システムにおいて、
さらに、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの姿勢を判定する姿勢判定手段と、
前記ユーザの性別と年齢層別に、前記ユーザの姿勢の遷移を表した姿勢遷移情報を作成する第3の作成手段と、を備える構成も採用可能である。
[第12の形態]
上記した視聴履歴記録システムにおいて、
前記姿勢遷移情報は、前記ユーザが視聴したコンテンツと対応付けて提供されてもよい。
[第13の形態]
(上記第2の視点による視聴履歴記録装置参照)
[第14の形態]
(上記第3の視点による視聴履歴の記録方法参照)
[第15の形態]
(上記第4の視点によるプログラム参照)
なお、上記第13~第15の形態は、第1の形態と同様に、第2~第12の形態に展開することが可能である。
Finally, preferred forms of the invention are summarized.
[First form]
(See the viewing history recording system from the first viewpoint above.)
[Second form]
In the viewing history recording system described above,
The attributes of the user include at least the user's gender and age group,
The creation means may take a configuration that creates the viewing area transition information for each gender and age group of the user.
[Third form]
In the viewing history recording system described above,
The viewing area transition information is stored in a predetermined storage and used for audience rating analysis.
[Fourth form]
The photographing means, the specifying means, and the attention area specifying means of the viewing history recording system described above are arranged in the user's home,
A configuration may be adopted in which the predetermined storage provides, in response to a request from the outside, the attribute-based viewing history of the content and the transition of the area watched by the user who is viewing the content.
[Fifth form]
The viewing area transition information may be provided in association with the content viewed by the user.
[Sixth form]
It is also preferable that the viewing history recording system described above uses the viewing area transition information to provide map information indicating the degree of gaze of the user based on the time the user gazed or the movement of the user's gaze.
[Seventh form]
In the viewing history recording system described above,
It is also preferable that the creating means creates the viewing area transition information by changing the size of the area to be recorded based on the movement of the user's line of sight.
[Eighth mode]
Instead of identifying means for identifying the user by using the face image of the user photographed by the photographing means and authentication data registered in advance,
It is also possible to adopt a configuration including estimation means for estimating attributes of the user based on the face image of the user photographed by the photographing means.
[Ninth form]
In the viewing history recording system described above,
moreover,
facial expression determination means for determining the facial expression of the user viewing the content from the facial image of the user;
It is also possible to employ a configuration including a second creation means for creating facial expression transition information representing facial expression transitions of the user for each gender and age group of the user.
[Tenth mode]
In the viewing history recording system described above,
The facial expression transition information may be provided in association with content viewed by the user.
[Eleventh form]
In the viewing history recording system described above,
moreover,
Posture determining means for determining a posture of the user viewing the content from the face image of the user;
A configuration including third creating means for creating posture transition information representing the posture transition of the user for each gender and age group of the user can also be adopted.
[Twelfth form]
In the viewing history recording system described above,
The posture transition information may be provided in association with content viewed by the user.
[Thirteenth Mode]
(Refer to the viewing history recording device from the second viewpoint above)
[14th mode]
(See the recording method of the viewing history from the third viewpoint above.)
[15th mode]
(Refer to the program from the fourth viewpoint above)
It should be noted that the thirteenth to fifteenth modes can be developed into the second to twelfth modes in the same manner as the first mode.

なお、上記の特許文献の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。 It should be noted that each disclosure of the above patent documents is incorporated herein by reference. Within the framework of the full disclosure of the present invention (including the scope of claims), modifications and adjustments of the embodiments and examples are possible based on the basic technical concept thereof. Various combinations or selections of various disclosure elements (including each element of each claim, each element of each embodiment or example, each element of each drawing, etc.) are possible within the framework of the disclosure of the present invention. is. That is, the present invention naturally includes various variations and modifications that can be made by those skilled in the art according to the entire disclosure including claims and technical ideas. In particular, any numerical range recited herein should be construed as specifically recited for any numerical value or subrange within that range, even if not otherwise stated.

10 視聴履歴記録システム
10a~10f 視聴履歴記録装置
11 撮影手段
12 特定手段
12a 推定手段
13 記録手段
13a 作成手段
14 注視領域特定手段
15 ストレージ
16 認証用データ記憶手段
16a ユーザ属性推定エンジン
17 表情判定手段
18 姿勢判定手段
20 属性別視聴履歴
21 注視領域遷移情報
9000 コンピュータ
9010 CPU
9020 通信インタフェース
9030 メモリ
9040 補助記憶装置
10 viewing history recording system 10a to 10f viewing history recording device 11 photographing means 12 identifying means 12a estimating means 13 recording means 13a creating means 14 gaze area identifying means 15 storage 16 authentication data storage means 16a user attribute estimating engine 17 facial expression determining means 18 Posture Determining Means 20 Viewing History by Attribute 21 Gaze Area Transition Information 9000 Computer 9010 CPU
9020 Communication interface 9030 Memory 9040 Auxiliary storage device

Claims (14)

所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影する撮影手段と、
前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する特定手段と、
前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する注視領域特定手段と、
ユーザの性別及び年齢層を表す属性毎の属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する作成手段と、
前記視聴領域遷移情報を分析して、前記コンテンツ内で訴求効果が高い要素を推測する推測部と、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定する表情判定手段と、
前記ユーザの表情の遷移を表した表情遷移情報を作成する第2の作成手段と、
前記表情遷移情報に基づいて、前記訴求効果が高い要素に視線を集中させている時の前記ユーザの表情を分析する分析手段と、
を備える視聴履歴記録システム。
a photographing means for photographing a facial image of a user viewing content being reproduced by a predetermined reproduction device;
identifying means for identifying the user by using the face image of the user photographed by the photographing means and authentication data registered in advance;
gaze region specifying means for specifying, from the face image of the user, a region that the user is gazing at in the display region of the content;
creating means for creating viewing area transition information representing a transition of an area watched by the user watching the content in association with an attribute-by -attribute viewing history for each attribute representing a user's gender and age group ;
an estimation unit that analyzes the viewing area transition information and infers an element with a high appeal effect in the content;
facial expression determination means for determining the facial expression of the user viewing the content from the facial image of the user;
a second creation means for creating facial expression transition information representing the transition of the user's facial expression;
analysis means for analyzing the facial expression of the user when the line of sight is focused on the element with the high appeal effect, based on the facial expression transition information;
A viewing history recording system comprising:
前記視聴領域遷移情報は、所定のストレージに格納され、視聴率分析に用いられる請求項1の視聴履歴記録システム。 2. The viewing history recording system according to claim 1 , wherein said viewing area transition information is stored in a predetermined storage and used for viewing rate analysis. 少なくとも前記撮影手段、前記特定手段、及び、前記注視領域特定手段は、前記ユーザの宅内に配置され、
前記所定のストレージを介して、外部からの要求に応じて、前記視聴領域遷移情報を提供する請求項2の視聴履歴記録システム。
at least the photographing means, the specifying means, and the gaze area specifying means are arranged in the user's home,
3. The viewing history recording system according to claim 2 , wherein said viewing area transition information is provided in response to an external request via said predetermined storage.
前記視聴領域遷移情報は、前記ユーザが視聴したコンテンツと対応付けて提供される請求項1から3のいずれか一の視聴履歴記録システム。 4. The viewing history recording system according to claim 1 , wherein the viewing area transition information is provided in association with the content viewed by the user. 前記視聴領域遷移情報は、前記ユーザが注視していた時間又は視線の動きに基づいて、注視している度合いを示すマップ情報の形態で提供される請求項4の視聴履歴記録システム。 5. The viewing history recording system according to claim 4 , wherein said viewing area transition information is provided in the form of map information indicating the degree of gaze of said user based on the time or line of sight movement of said user. 前記作成手段は、前記ユーザの視線の動きに基づいて、前記注視領域特定手段が特定する前記ユーザが注視している領域の大きさを変更して視聴領域遷移情報を作成する請求項1から5のいずれか一の視聴履歴記録システム。 6. The creation means creates the viewing area transition information by changing the size of the area specified by the gaze area specifying means and which the user is gazing , based on the movement of the user's line of sight. Any one viewing history recording system. 前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する特定手段に代えて、
前記撮影手段で撮影した前記ユーザの顔画像に基づいて、前記ユーザの属性を推定する推定手段を備える請求項1から6のいずれか一の視聴履歴記録システム。
Instead of identifying means for identifying the user by using the face image of the user photographed by the photographing means and authentication data registered in advance,
7. The viewing history recording system according to any one of claims 1 to 6 , further comprising estimating means for estimating attributes of said user based on said user's face image photographed by said photographing means.
前記表情遷移情報は、前記ユーザが視聴したコンテンツと対応付けて提供される請求項1から6のいずれか一の視聴履歴記録システム。 7. The viewing history recording system according to any one of claims 1 to 6 , wherein said facial expression transition information is provided in association with content viewed by said user. さらに、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの姿勢を判定する姿勢判定手段と、
前記ユーザの性別と年齢層別に、前記ユーザの姿勢の遷移を表した姿勢遷移情報を作成する第3の作成手段と、を備える請求項1から8のいずれか一の視聴履歴記録システム。
moreover,
Posture determining means for determining a posture of the user viewing the content from the face image of the user;
9. The viewing history recording system according to any one of claims 1 to 8 , further comprising third creating means for creating posture transition information representing the posture transition of the user for each gender and age group of the user.
前記姿勢遷移情報は、前記ユーザが視聴したコンテンツと対応付けて提供される請求項9の視聴履歴記録システム。 10. The viewing history recording system according to claim 9 , wherein said posture transition information is provided in association with content viewed by said user. 所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影する撮影手段と、
前記撮影手段で撮影した前記ユーザの顔画像に基づいて、前記ユーザの性別及び年齢層を表す属性を推定する推定手段と、
前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する注視領域特定手段と、
前記属性毎の属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する作成手段と、
前記視聴領域遷移情報を分析して、前記コンテンツ内で訴求効果が高い要素を推測する推測部と、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定する表情判定手段と、
前記ユーザの表情の遷移を表した表情遷移情報を作成する第2の作成手段と、
前記表情遷移情報に基づいて、前記訴求効果が高い要素に視線を集中させている時の前記ユーザの表情を分析する分析手段と、
を備える視聴履歴記録システム。
a photographing means for photographing a facial image of a user viewing content being reproduced by a predetermined reproduction device;
estimating means for estimating attributes representing the gender and age group of the user based on the facial image of the user captured by the imaging means;
gaze region specifying means for specifying, from the face image of the user, a region that the user is gazing at in the display region of the content;
creating means for creating viewing area transition information representing a transition of an area watched by the user watching the content in association with the attribute-based viewing history for each attribute;
an estimation unit that analyzes the viewing area transition information and infers an element with a high appeal effect in the content;
facial expression determination means for determining the facial expression of the user viewing the content from the facial image of the user;
a second creation means for creating facial expression transition information representing the transition of the user's facial expression;
analysis means for analyzing the facial expression of the user when the line of sight is focused on the element with the high appeal effect, based on the facial expression transition information;
A viewing history recording system comprising:
所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影する撮影手段と、
前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する特定手段と、
前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する注視領域特定手段と、
ユーザの性別及び年齢層を表す属性毎の属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する作成手段と、
前記視聴領域遷移情報を分析して、前記コンテンツ内で訴求効果が高い要素を推測する推測部と、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定する表情判定手段と、
前記ユーザの表情の遷移を表した表情遷移情報を作成する第2の作成手段と、
前記表情遷移情報に基づいて、前記訴求効果が高い要素に視線を集中させている時の前記ユーザの表情を分析する分析手段と、
を備える視聴履歴記録装置。
a photographing means for photographing a facial image of a user viewing content being reproduced by a predetermined reproduction device;
identifying means for identifying the user by using the face image of the user photographed by the photographing means and authentication data registered in advance;
gaze region specifying means for specifying, from the face image of the user, a region that the user is gazing at in the display region of the content;
creating means for creating viewing area transition information representing a transition of an area watched by the user watching the content in association with an attribute-by -attribute viewing history for each attribute representing a user's gender and age group ;
an estimation unit that analyzes the viewing area transition information and infers an element with a high appeal effect in the content;
facial expression determination means for determining the facial expression of the user viewing the content from the facial image of the user;
a second creation means for creating facial expression transition information representing the transition of the user's facial expression;
analysis means for analyzing the facial expression of the user when the line of sight is focused on the element with the high appeal effect, based on the facial expression transition information;
A viewing history recording device.
プロセッサと、メモリと、所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影する撮影手段と、を備えた視聴履歴記録装置が、
前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定し、
前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定し、
ユーザの性別及び年齢層を表す属性毎の属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成し、
前記視聴領域遷移情報を分析して、前記コンテンツ内で訴求効果が高い要素を推測し、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定し、
前記ユーザの表情の遷移を表した表情遷移情報を作成し、
前記表情遷移情報に基づいて、前記訴求効果が高い要素に視線を集中させている時の前記ユーザの表情を分析すること、
を特徴とするコンテンツ視聴履歴の記録方法。
A viewing history recording device comprising a processor, a memory, and an imaging means for capturing an image of the face of a user viewing content being reproduced by a predetermined reproducing device,
identifying the user by using the face image of the user captured by the imaging means and authentication data registered in advance;
identifying an area that the user is gazing in the display area of the content from the face image of the user;
creating viewing area transition information representing the transition of the area where the user is watching the content, in association with the attribute-specific viewing history for each attribute representing the user's gender and age group ;
Analyzing the viewing area transition information to infer an element with a high appeal effect in the content,
determining the expression of the user while viewing the content from the face image of the user;
creating facial expression transition information representing the transition of the user's facial expression;
analyzing the facial expression of the user when the user's line of sight is focused on the element with a high appeal effect, based on the facial expression transition information ;
A content viewing history recording method characterized by:
所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影する撮影手段を備えた視聴履歴記録装置に搭載され、プロセッサと、メモリとを備えるコンピュータに、
前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する処理と、
前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する処理と、
ユーザの性別及び年齢層を表す属性毎の属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する処理と、
前記視聴領域遷移情報を分析して、前記コンテンツ内で訴求効果が高い要素を推測する処理と、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定する処理と、
前記ユーザの表情の遷移を表した表情遷移情報を作成する処理と、
前記表情遷移情報に基づいて、前記訴求効果が高い要素に視線を集中させている時の前記ユーザの表情を分析する処理と、
を実行させるプログラム。
A computer equipped with a viewing history recording device equipped with a photographing means for capturing a facial image of a user viewing content being reproduced on a predetermined reproducing device, and having a processor and a memory,
a process of identifying the user by using the face image of the user captured by the imaging means and authentication data registered in advance;
a process of identifying an area that the user is gazing at in the display area of the content from the face image of the user;
A process of creating viewing area transition information representing the transition of the area where the user is watching the content, in association with the attribute-specific viewing history for each attribute representing the user's gender and age group ;
a process of analyzing the viewing area transition information and estimating an element with a high appeal effect in the content;
a process of determining the facial expression of the user while viewing the content from the face image of the user;
a process of creating facial expression transition information representing the transition of the user's facial expression;
a process of analyzing the facial expression of the user when the line of sight is focused on the element with the high appeal effect, based on the facial expression transition information;
program to run.
JP2018030569A 2018-02-23 2018-02-23 VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM Active JP7135335B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018030569A JP7135335B2 (en) 2018-02-23 2018-02-23 VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018030569A JP7135335B2 (en) 2018-02-23 2018-02-23 VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2019146098A JP2019146098A (en) 2019-08-29
JP7135335B2 true JP7135335B2 (en) 2022-09-13

Family

ID=67774037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018030569A Active JP7135335B2 (en) 2018-02-23 2018-02-23 VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7135335B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7329829B2 (en) * 2019-09-17 2023-08-21 株式会社ユピテル Processors, systems and programs
JP7680000B2 (en) * 2020-12-08 2025-05-20 Revisio株式会社 Control program, control device, and control method, as well as audio-visual quality output program, audio-visual quality output device, and audio-visual quality output method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041887A (en) 2004-07-27 2006-02-09 Sony Corp Information processing apparatus and method, recording medium, and program
JP2011139441A (en) 2009-12-03 2011-07-14 Panasonic Corp Viewing terminal device, viewing statistics apparatus, viewing statistics processing system, and viewing statistics processing method
JP2014236447A (en) 2013-06-04 2014-12-15 富士通株式会社 Information processing apparatus and information processing program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041887A (en) 2004-07-27 2006-02-09 Sony Corp Information processing apparatus and method, recording medium, and program
JP2011139441A (en) 2009-12-03 2011-07-14 Panasonic Corp Viewing terminal device, viewing statistics apparatus, viewing statistics processing system, and viewing statistics processing method
JP2014236447A (en) 2013-06-04 2014-12-15 富士通株式会社 Information processing apparatus and information processing program

Also Published As

Publication number Publication date
JP2019146098A (en) 2019-08-29

Similar Documents

Publication Publication Date Title
US8176509B2 (en) Post processing video to identify interests based on clustered user interactions
US10735790B2 (en) Systems and methods for recommending content
CN103324729B (en) A kind of method and apparatus for recommending multimedia resource
US11347791B2 (en) Methods and systems for sharing a user interface of a search engine
JP5546632B2 (en) Method and mechanism for analyzing multimedia content
US20190205645A1 (en) Systems and methods for presenting supplemental content in augmented reality
US9232247B2 (en) System and method for correlating audio and/or images presented to a user with facial characteristics and expressions of the user
US20060020973A1 (en) Method and system for presenting personalized television program recommendation to viewers
US20130174191A1 (en) Systems and methods for incentivizing user interaction with promotional content on a secondary device
US9411414B2 (en) Method and system for providing immersive effects
US12125275B2 (en) Methods and systems for disambiguating user input based on detection of ensembles of items
US20180139434A1 (en) Systems and Methods for Adjusting Display Settings to Reduce Eye Strain of Multiple Viewers
KR20130091131A (en) Apparatus and method for inferring preference using watching data and meta data
JP2012029150A (en) Terminal device and program
JP7135335B2 (en) VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM
CN104364731A (en) Content/advertising profiling
US20150149473A1 (en) Systems and methods for associating tags with media assets based on verbal input
US20140040948A1 (en) Information distribution device, information reception device, system, program, and method
AU2020226674B2 (en) A system and a method for live streaming by use of an augmented reality (AR) technology
KR20160017467A (en) Method and apparatus for providing product information related to video contents
US10390104B2 (en) Context advertising based on viewer's stress/relaxation level
JP2014060642A (en) Display device and display system
KR20150125429A (en) Apparatus and Method for Recommending Video based on Anonymized Personal Identification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R151 Written notification of patent or utility model registration

Ref document number: 7135335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151