JP7135335B2 - VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM - Google Patents
VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM Download PDFInfo
- Publication number
- JP7135335B2 JP7135335B2 JP2018030569A JP2018030569A JP7135335B2 JP 7135335 B2 JP7135335 B2 JP 7135335B2 JP 2018030569 A JP2018030569 A JP 2018030569A JP 2018030569 A JP2018030569 A JP 2018030569A JP 7135335 B2 JP7135335 B2 JP 7135335B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- viewing
- content
- facial expression
- viewing history
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 37
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000007704 transition Effects 0.000 claims description 99
- 230000008921 facial expression Effects 0.000 claims description 79
- 230000001815 facial effect Effects 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 16
- 230000000694 effects Effects 0.000 claims description 15
- 238000003384 imaging method Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 4
- 230000014509 gene expression Effects 0.000 claims description 3
- 230000036544 posture Effects 0.000 description 43
- 238000010586 diagram Methods 0.000 description 22
- 238000012545 processing Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000013500 data storage Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 210000000056 organ Anatomy 0.000 description 4
- 230000004931 aggregating effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000002040 relaxant effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
本発明は、視聴履歴記録システム、視聴履歴記録装置、記録方法及びプログラムに関する。 The present invention relates to a viewing history recording system, a viewing history recording device, a recording method, and a program.
視聴率の調査において、視聴者の性別や年齢に応じて、M1~M3、F1~F3、C、Tといったカテゴリーに視聴者を層別し、番組作りや、マーケティングに役立てる手法が採用されている。例えば、広告業界では、20~34歳の男性をM1、35~49歳の男性をM2、50以上の男性をM3と区別している。女性についても同様に、F1~F3の区分が用いられている。また、4歳から12歳の児童(Child)やティーンエイジャーには性別関係なく、これらの頭文字をとって、C、Tと言う表記が用いられている。 In audience rating surveys, viewers are stratified into categories such as M1-M3, F1-F3, C, and T according to the gender and age of the viewers, and a method that is useful for program creation and marketing is adopted. . For example, the advertising industry distinguishes between men aged 20-34 as M1, men aged 35-49 as M2, and men over 50 as M3. Similarly, categories F1 to F3 are used for females. For children aged 4 to 12 and teenagers, C and T are used as the initials of these characters regardless of gender.
特許文献1に、不特定多数の視聴者の属性を収集して視聴効果を測定することができるという情報処理システムが開示されている。同文献によると、無線通信装置は、ユーザと関連付けられたユーザデータを記憶している記憶部と、前記記憶部に記憶している前記ユーザデータの一部又は全部を含む視聴者データを送信するデータ送信部と、を備える。そして、情報処理装置側で、前記視聴者データに基づいて視聴装置により再生されたコンテンツの視聴効果の解析を行うと記載されている。 Patent Literature 1 discloses an information processing system capable of collecting attributes of an unspecified number of viewers and measuring viewing effects. According to this document, a wireless communication device transmits viewer data including a storage unit storing user data associated with a user and part or all of the user data stored in the storage unit. and a data transmission unit. Then, it is described that the viewing effect of the content reproduced by the viewing device is analyzed on the information processing device side based on the viewer data.
特許文献2には、複数の視聴者に応じて適切と思われるユーザー特定処理をすることができるテレビジョン受信装置が開示されている。具体的には、リモートコントローラに対する操作の特徴から視聴者を特定することや過去の番組の視聴傾向から視聴者を特定することが開示されている。 Patent Literature 2 discloses a television receiver capable of performing user-specific processing considered appropriate for a plurality of viewers. Specifically, it is disclosed that the viewer is specified from the characteristics of the operation of the remote controller, and that the viewer is specified from the viewing tendency of past programs.
特許文献3には、事前のキャリブレーションを行うことなく、ユーザのコンテンツに対する集中度の度合いを集中度として算出できるコンテンツ表示装置が開示されている。 Patent Literature 3 discloses a content display device capable of calculating the degree of concentration of a user on content as a degree of concentration without performing prior calibration.
以下の分析は、本発明によって与えられたものである。上記特許文献1、2のように、ユーザを特定して、視聴率の分析を行う構成が知られているが、視聴者が何を目的にコンテンツを視聴しているのか、といった踏み込んだ分析ができないという問題点がある。例えば、視聴者が、テレビジョン装置の画面上に映し出された何に注目しているか、特許文献1、2のいずれをもってしても判別することは困難である。 The following analysis is given by the present invention. As in Patent Literatures 1 and 2, there is known a configuration in which a user is specified and an audience rating is analyzed. I have a problem that I can't. For example, it is difficult to determine what the viewer is paying attention to on the screen of the television device with either of Patent Documents 1 and 2.
本発明は、コンテンツ中のユーザが注目している対象に関する情報を収集し、マーケティングやコンテンツ作りに役立てることのできる視聴履歴記録システム、視聴履歴記録装置、記録方法及びプログラムを提供することを目的とする。 It is an object of the present invention to provide a viewing history recording system, a viewing history recording device, a recording method, and a program that can collect information about an object that a user is paying attention to in content and use it for marketing and content creation. do.
第1の視点によれば、所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影する撮影手段と、前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する特定手段と、前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する注視領域特定手段と、前記ユーザの特定結果を用いた前記コンテンツの属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する作成手段と、を備える視聴履歴記録システムが提供される。 According to the first aspect, a photographing means for photographing a face image of a user viewing content being reproduced on a predetermined reproduction device, the face image of the user photographed by the photographing means, and a pre-registered authentication specifying means for specifying the user by using data for identifying the user; gaze area specifying means for specifying an area that the user is gazing at in the display area of the content from the face image of the user; and specifying the user. a creating means for creating viewing area transition information representing a transition of an area watched by the user watching the content in association with the attribute-based viewing history of the content using the result. A system of record is provided.
第2の視点によれば、視聴履歴記録システムにおいて、再生装置とともに配置される視聴履歴記録装置が提供される。この視聴履歴記録装置は、例えば、セットトップボックスと呼ばれる装置や、コンテンツ再生装置やテレビジョン装置の周辺機器といった形態を採ることができる。 According to a second aspect, there is provided a viewing history recording device arranged together with a reproducing device in a viewing history recording system. This viewing history recording device can take the form of, for example, a device called a set-top box, or a peripheral device for a content reproducing device or a television device.
第3の視点によれば、プロセッサと、メモリと、所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影する撮影手段と、を備えた視聴履歴記録装置が、前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定し、前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定し、前記ユーザの特定結果を用いた前記コンテンツの属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成すること、を特徴とするコンテンツ視聴履歴の記録方法が提供される。本方法は、上記した視聴履歴記録システムや視聴履歴記録装置などに代表される特定の機械に結びつけられている。 According to a third aspect, a viewing history recording device comprising a processor, a memory, and a photographing means for photographing a facial image of a user who is viewing content being reproduced by a predetermined reproduction device is provided with the photographing means. The user is identified by using the face image of the user photographed in and the authentication data registered in advance, and the area that the user is paying attention to in the display area of the content is identified from the face image of the user. creating viewing area transition information representing a transition of an area watched by the user viewing the content in association with the attribute-based viewing history of the content using the identification result of the user; There is provided a content viewing history recording method characterized by: This method is tied to a specific machine represented by the viewing history recording system and viewing history recording device described above.
第4の視点によれば、所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影する撮影手段を備えた視聴履歴記録装置に搭載され、プロセッサと、メモリとを備えるコンピュータに、前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する処理と、前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する処理と、前記ユーザの特定結果を用いた前記コンテンツの属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する処理と、を実行させるプログラムが提供される。なお、このプログラムは、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することができる。即ち、本発明は、コンピュータプログラム製品として具現することも可能である。 According to a fourth aspect, a viewing history recording device equipped with a photographing means for photographing a face image of a user viewing content being reproduced on a predetermined reproducing device, and a computer provided with a processor and a memory. a process of identifying the user by using the face image of the user photographed by the photographing means and authentication data registered in advance; A transition of the region watched by the user watching the content is represented by associating a process of identifying the region watched by the user with the viewing history by attribute of the content using the identification result of the user. A program for executing a process of creating viewing area transition information is provided. This program can be recorded in a computer-readable (non-transitory) storage medium. That is, the present invention can also be embodied as a computer program product.
本発明によれば、コンテンツ中のユーザが注目している対象に関する情報を収集し、マーケティングやコンテンツ作りに役立てることが可能となる。 According to the present invention, it is possible to collect information about an object that a user is paying attention to in content, and use the information for marketing and content creation.
はじめに本発明の一実施形態の概要について図面を参照して説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。また、以下の説明において、「A及び/又はB」は、A及びBの少なくともいずれかという意味で用いる。 First, an outline of an embodiment of the present invention will be described with reference to the drawings. It should be noted that the drawing reference numerals added to this overview are added to each element for convenience as an example to aid understanding, and are not intended to limit the present invention to the illustrated embodiments. Also, connection lines between blocks in drawings and the like referred to in the following description include both bidirectional and unidirectional connections. The unidirectional arrows schematically show the flow of main signals (data) and do not exclude bidirectionality. Moreover, in the following description, "A and/or B" is used to mean at least one of A and B.
本発明は、その一実施形態において、図1に示すように、撮影手段11と、特定手段12と、作成手段13aと、注視領域特定手段14と、を備えた視聴履歴記録システム10にて実現できる。なお、視聴履歴記録システム10の上記した各手段は、セットトップボックス等の単一の装置に配置されていてもよいし、一部の手段のコンテンツ再生装置やネットワーク側に配置されていてもよい。即ち、本発明の視聴履歴記録システム10は、複数の装置を組み合わせて構成することもできる。
In one embodiment of the present invention, as shown in FIG. 1, a viewing
より具体的には、撮影手段11は、所定の再生装置にて再生中のコンテンツを視聴するユーザの顔画像を撮影するカメラなどにより構成される。 More specifically, the photographing means 11 is composed of a camera or the like for photographing a facial image of a user viewing content being reproduced by a predetermined reproducing apparatus.
特定手段12は、上記撮影手段11で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する。例えば、特定手段12は、ユーザの顔画像から特徴量を計算する。そして、認証用データの中から、前記計算した特徴量に最も近い特徴(即ち、顔が似ている)を持つユーザを特定する。
The specifying
そして、注視領域特定手段14は、前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域(以下、「注視領域」とも言う。)を特定する。注視領域特定手段14は、前記ユーザの顔画像からユーザの視線の向きを推定する。この視線の向きの推定方法としては、種々の方法を採用できるが、例えば、撮影したユーザの顔画像における各器官の位置(例えば、目)と、認証用データから事前に計算した顔の各器官の位置とのずれ量などから推定することができる(特許文献3参照)。もちろん、ユーザの着用しているメガネやその他ウェアラブルセンサなどから、ユーザの顔の向きが推定できる場合には、これらの機器から取得したデータを用いてユーザの顔の向きを推定してもよい。 Then, the gaze area specifying means 14 specifies an area that the user is gazing at (hereinafter also referred to as "gazing area") in the display area of the content from the face image of the user. A gaze area specifying means 14 estimates the direction of the user's line of sight from the user's face image. Various methods can be used for estimating the line-of-sight direction. can be estimated from the amount of deviation from the position of (see Patent Document 3). Of course, if the orientation of the user's face can be estimated from the glasses worn by the user or from other wearable sensors, the orientation of the user's face may be estimated using the data acquired from these devices.
そして、注視領域特定手段14は、前記推定したユーザの視線の向きと、撮影手段と再生装置との相対位置から、ユーザが注視している領域を特定する。なお、ユーザが注視している領域は、おおよその範囲であってもよく、ごく簡単には、注視領域特定手段14は、コンテンツの左側、中央、右側といった3領域のいずれを注視しているかを特定する形態でもよい。またより望ましい形態において、注視領域特定手段14が、左上、左、左下、上、中央、下、右上、右、右下というように、再生装置のコンテンツの表示領域を9分割した領域のいずれかの注視領域として特定してもよい。もちろん、注視領域特定手段14が、座標情報などの形態で、ユーザの注視領域を特定する形態も採用可能である。 Then, the gaze area identifying means 14 identifies the area that the user is gazing at based on the estimated direction of the user's line of sight and the relative position between the photographing means and the playback device. Note that the area that the user is gazing at may be an approximate range, and very simply, the gazing area specifying means 14 determines which of the three areas of the content, left, center, and right, is the user's gaze. It may be in a specified form. In a more desirable form, the attention area specifying means 14 divides the content display area of the playback device into nine areas such as upper left, left, lower left, upper, center, lower, upper right, right, and lower right. may be specified as the fixation area of . Of course, it is also possible to employ a form in which the gaze area specifying means 14 specifies the user's gaze area in the form of coordinate information or the like.
作成手段13aは、前記ユーザの特定結果を用いた前記コンテンツの属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する。
The creating
以上のように構成される視聴履歴記録システム10は、前記コンテンツの属性別視聴履歴20に加えて、前記コンテンツを視聴中の前記ユーザの注視領域を視聴領域遷移情報として収集する。なお、この視聴領域遷移情報は、図1に示すように、注視領域遷移情報21という属性別視聴履歴20とは、別のデータとして記録してもよいし、コンテンツの属性別視聴履歴の付随データとして記録してもよい。
The viewing
以上のような実施形態によれば、視聴率に代表される視聴履歴情報に加えて、コンテンツ中の、ユーザが注目している対象に関する情報を収集し、マーケティングやコンテンツ作りに役立てることが可能となる。 According to the above-described embodiments, in addition to viewing history information represented by audience ratings, it is possible to collect information about the target of the user's attention in the content and use it for marketing and content creation. Become.
例えば、特許文献1、2によれば、ある番組の視聴率に、M1層の視聴率が寄与していることや、逆にF3層には全く視聴されていないといった情報が得られる。本発明によれば、さらに踏み込んで、番組に出演している出演者が大きく寄与している場合や、番組の内容自体に人気がある場合といった情報を得ることが可能となる。 For example, according to Patent Literatures 1 and 2, it is possible to obtain information that the audience rating of the M1 layer contributes to the audience rating of a certain program, or conversely that the program is not watched at all by the F3 layer. According to the present invention, it is possible to obtain information such as when a performer appearing in a program contributes greatly, or when the content of the program itself is popular.
また、より望ましい形態において、注視領域特定手段14が、ユーザが各領域を注視していた時間や、その度合いを記録できるようにすることが好ましい。このようにすることで、ユーザにより長く注視されていた領域やユーザの視線の動きを把握することが可能となる。また、この注視の度合いを上記領域別に、カラーや濃淡で表したマップの形態で提示してもよい。さらに、ユーザの属性や視線の動き具合に応じて、上記注視領域を記録する領域の大きさを変えてもよい。例えば、ユーザの視線の動きが少ない、即ち、ユーザがぼんやり画面を見ているような場合には、左側、中央、右側の3領域で視線を記録し、それ以外の場合には、9分割するというように動的に記録粒度、即ち、記録する領域の大きさを変えてもよい。 Further, in a more desirable form, it is preferable that the gaze area specifying means 14 can record the time and the degree of gaze of the user on each area. By doing so, it is possible to grasp the region that has been watched by the user for a long time and the movement of the user's line of sight. Further, the degree of fixation may be presented in the form of a map in which colors or shades are used for each of the areas. Furthermore, the size of the area for recording the gaze area may be changed according to the attributes of the user and the movement of the line of sight. For example, when the movement of the user's line of sight is small, i.e., when the user is looking at the screen vaguely, the line of sight is recorded in three regions, left, center, and right. In this way, the recording granularity, that is, the size of the recording area may be changed dynamically.
[第1の実施形態]
続いて、本発明をテレビジョン放送の視聴率調査に適用した第1の実施形態について図面を参照して詳細に説明する。図2は、本発明の第1の実施形態の視聴履歴記録装置の構成を示す図である。図2を参照すると、撮影手段11と、特定手段12と、記録手段13と、注視領域特定手段14と、認証用データ記憶手段16と、を備えた視聴履歴記録装置10aと、ネットワーク上のストレージ15とを接続させた構成が示されている。なお、このような視聴履歴記録装置は、例えば、セットトップボックス(STB)形態はもちろんとして、スマートスピーカー(AIスピーカー)等の小型情報家電の形態を採ることもできる。
[First embodiment]
Next, a first embodiment in which the present invention is applied to an audience rating survey of television broadcasting will be described in detail with reference to the drawings. FIG. 2 is a diagram showing the configuration of the viewing history recording device according to the first embodiment of the present invention. Referring to FIG. 2, a viewing
撮影手段11は、所定のテレビジョン受像機に表示されている番組コンテンツを視聴中のユーザの顔画像を撮影するカメラなどにより構成される。なお、ユーザの視線の向きを推定する観点では、撮影手段11は、テレビジョン受像機の表示面に対し、予め定めた位置に固定されていることが好ましい。 The photographing means 11 is composed of a camera or the like for photographing a facial image of a user who is viewing program content displayed on a predetermined television receiver. From the viewpoint of estimating the direction of the user's line of sight, it is preferable that the photographing means 11 be fixed at a predetermined position with respect to the display surface of the television receiver.
特定手段12は、上記撮影手段11で撮影した前記ユーザの顔画像と、認証用データ記憶手段16に記憶されている認証用データとを用いて、前記ユーザを特定する。例えば、特定手段12は、ユーザの顔画像から特徴量を計算する。そして、認証用データの中から、前記計算した特徴量に最も近い特徴(即ち、顔が似ている)を持つユーザを特定する。認証用データは、例えば、ユーザの顔画像の特徴量と、ユーザの属性に関する情報とを対応付けたデータによって構成される。本実施形態では、ユーザの属性に関する情報は、上述したM1~M3、F1~F3、C、Tの8種類のユーザ層を表すカテゴリーであるものとして説明する。特定手段12は、撮影手段11により撮影したユーザの顔画像を用いて、認証用データの登録を受け付け、認証用データ記憶手段16に登録する機能を備えていることが好ましい。より望ましくは、特定手段12は、撮影手段11により撮影したユーザの顔画像から、上記ユーザ層を表すカテゴリーを自動判定する機能を備えていることが好ましい。
The specifying means 12 specifies the user by using the face image of the user photographed by the photographing
注視領域特定手段14は、撮影手段11にて撮影されたユーザの顔画像から番組コンテンツを視聴中のユーザが注視している領域(以下、「注視領域」とも言う。)を特定する。注視領域の特定方法は、上記視聴履歴記録システム10の注視領域特定手段14と同様であるため、説明を省略する。
The gaze area specifying means 14 specifies an area (hereinafter also referred to as a "gazing area") that the user watching the program content is watching from the user's face image captured by the photographing
記録手段13は、テレビジョン受像機から送られる選局情報と、前記特定したユーザの前記コンテンツの視聴履歴と、前記特定したユーザの属性に関する情報と、を対応付けた属性別視聴履歴をストレージ15に記録する。また、記録手段13は、注視領域特定手段14にて特定された注視領域の遷移をテレビジョン受像機から送られる選局情報と対応付けて注視領域遷移情報としてストレージ15に記録する。従って、本実施形態では、記録手段13が、上記した作成手段13aとして機能する。
A recording means 13 stores an attribute-based viewing history in which channel selection information sent from a television receiver, the viewing history of the content of the specified user, and information about the attribute of the specified user are associated with each other. to record. Also, the recording means 13 records the transition of the gaze area specified by the gaze area specifying means 14 in the
ストレージ15は、インターネット又は視聴率分析業者のネットワーク上に配置され、属性別視聴履歴と、注視領域遷移情報の格納先として使用される。また、このストレージ15が、他の視聴履歴記録装置の属性別視聴履歴と注視領域遷移情報の格納先として使用されることで、属性別視聴履歴と注視領域遷移情報が収集される。そして、ストレージ15に蓄積されたデータは、所定の分析サーバ等の外部ノードに提供されて、視聴率分析に用いられる。
The
続いて、本実施形態の動作について図面を参照して詳細に説明する。図3は、本発明の第1の実施形態の視聴履歴記録装置の動作(視聴履歴記録)を説明するための図である。以下の説明では、事前にユーザF2、M1、M3とその顔画像が特定手段12に登録され、このうちのユーザM1がテレビジョン受像機にて視聴を開始したものとして説明する。
Next, the operation of this embodiment will be described in detail with reference to the drawings. FIG. 3 is a diagram for explaining the operation (viewing history recording) of the viewing history recording device according to the first embodiment of the present invention. In the following description, it is assumed that users F2, M1, and M3 and their face images are registered in advance in the identifying
まず、ユーザM1がテレビジョン受像機にて視聴を開始すると、撮影手段11がユーザM1の顔画像を撮影する(図3の11)。 First, when the user M1 starts viewing on the television receiver, the photographing means 11 photographs the face image of the user M1 (11 in FIG. 3).
次に、特定手段12が、認証用データ記憶手段16に記憶されている認証用データを参照して、撮影手段11にて撮影されたユーザM1の顔画像から、視聴を開始したユーザがユーザM1であることを特定する(図3の12)。
Next, the specifying
次に、記録手段13が、前記特定されたユーザの属性と、選局情報とを対応付けて、属性別視聴履歴を作成し、ストレージ15への記録を開始する(図3の13)。 Next, the recording means 13 associates the specified user attribute with the channel selection information, creates an attribute-specific viewing history, and starts recording in the storage 15 (13 in FIG. 3).
図3の下段は、属性別視聴履歴の一例を示している。図3の下段の例では、視聴開始日時、ユーザ属性、視聴コンテンツ(選局情報)及び視聴終了日時を対応付けた属性別視聴履歴が示されている。このようなデータを収集することで、ある番組の視聴率のみならず、その視聴率の属性別内訳を求めることが可能となる。 The lower part of FIG. 3 shows an example of viewing history by attribute. The example in the lower part of FIG. 3 shows attribute-specific viewing histories in which viewing start date/time, user attribute, viewing content (channel selection information), and viewing end date/time are associated with each other. By collecting such data, it becomes possible to obtain not only the audience rating of a certain program but also the breakdown of the audience rating by attribute.
続いて、本実施形態の視聴履歴記録装置10aによる注視領域の特定処理について説明する。図4は、本実施形態の視聴履歴記録装置10aの注視領域特定処理を説明するための図である。
Next, a process of identifying a region of interest by the viewing
図4を参照すると、まず、撮影手段11が、注視領域特定手段14に撮影画像を送信する(ステップS001)。ここで、注視領域特定手段14に対して送信する撮影画像は、図3の属性別視聴履歴の作成の際に、ユーザを特定するために撮影されたユーザの顔画像であってもよい。もちろん、注視領域特定手段14による注視領域特定のために、撮影手段11が別途撮影した画像であってもよい。
Referring to FIG. 4, first, the photographing means 11 transmits a photographed image to the gaze area specifying means 14 (step S001). Here, the photographed image to be transmitted to the gaze area specifying means 14 may be the face image of the user photographed for specifying the user when creating the viewing history by attribute shown in FIG. Of course, the image may be an image separately photographed by the photographing means 11 in order to specify the gaze area by the gaze
次に、注視領域特定手段14は、撮影手段11から受信したユーザの顔画像からユーザの位置及び視線の向きを特定する(ステップS002)。ここで、ユーザの位置は、ユーザの顔画像の位置や大きさから計算することができる。また、ユーザの視線の向きは、ユーザの顔画像における各器官の位置と、認証用データから事前に計算した顔の各器官の位置とのずれ量などから推定することができる(特許文献3参照)。 Next, the gaze area identifying means 14 identifies the user's position and line of sight direction from the user's face image received from the photographing means 11 (step S002). Here, the user's position can be calculated from the position and size of the user's face image. In addition, the direction of the user's line of sight can be estimated from the amount of deviation between the position of each organ in the user's face image and the position of each organ of the face calculated in advance from the authentication data (see Patent Document 3). ).
次に、注視領域特定手段14は、テレビジョン受像機の表示画面におけるユーザの注視領域を計算する(ステップS003)。このユーザの注視領域は、前記推定したユーザの視線の向きと、撮影手段11とテレビジョン受像機との相対位置に基づいて計算することができる。
Next, the gaze area specifying means 14 calculates the user's gaze area on the display screen of the television receiver (step S003). The gaze region of the user can be calculated based on the estimated direction of the user's line of sight and the relative position between the photographing
そして、注視領域特定手段14は、記録手段13に対して、前記計算したユーザの注視領域を送信する(ステップS004)。 Then, the gaze area specifying means 14 transmits the calculated gaze area of the user to the recording means 13 (step S004).
記録手段13は、注視領域特定手段14から受信したユーザの注視領域の遷移を属性別視聴履歴の付属データとして順次記録する(ステップS005)。ユーザによる番組視聴が継続している間、撮影手段11、注視領域特定手段14及び記録手段13が、上記ステップS001~S005の処理を繰り返すことでユーザの注視領域の遷移データが作成される。また、このように、番組視聴と平行してユーザの注視領域の遷移データを記録することで、属性別視聴履歴の時刻に対応したユーザの注視領域の遷移データが作成されることになる。
The recording means 13 sequentially records the transition of the user's gaze area received from the gaze area specifying means 14 as attached data of the attribute-based viewing history (step S005). While the user continues to watch the program, the photographing
図5は、上記視聴履歴記録装置10aによって記録されるユーザの注視領域の遷移データの一例を示す。図5の例では、番組視聴中のユーザの注視領域の変化を記録したデータが、注視領域遷移として、属性別視聴履歴情報に対応付けて、記録されている。なお、注視領域は、撮影手段11からユーザの顔画像を受け取る度に記録するのではなく、注視領域に変化があった場合にのみ、その変化を記録するようにしてもよい。
FIG. 5 shows an example of transition data of a user's attention area recorded by the viewing
以上のような注視領域の遷移データを多数集計することにより、外部の任意の分析サーバ等に、以下のような分析を行わせることができる。例えば、分析サーバは、図6に示すように、2018年2月1日 18:00放送の各シーンについて、注目するユーザ層(属性)の最多注視領域を集計し、番組の内容と突合することで、その番組のどの部分に、注目するユーザ層(属性)の視線が集まっていたかを把握することができるデータを作製する。 By aggregating a large number of transition data of the region of interest as described above, it is possible to cause an arbitrary external analysis server or the like to perform the following analysis. For example, as shown in FIG. 6, the analysis server aggregates the most focused regions of the user group (attribute) of interest for each scene broadcasted at 18:00 on February 1, 2018, and compares them with the content of the program. Then, data is created that enables grasping which part of the program attracts the attention of the target user class (attribute).
例えば、図6の例では、番組中の18:07からゲスト2名が登場している。その際に、M1層の視線は画面に右側に集中していたことがわかる。これにより、ゲスト2名中のAさんに視線が集中していたことがわかる。同様に、番組中の18:15からゲストによる番組宣伝が始まっているが、その際のM1層の最多注視領域は画面下方である。これにより、少なくともM1層に対して、ゲストによる番組宣伝の効果が十分にあったことがわかる。また、同様に、番組中の18:20からのCM(Commercial Message)の期間におけるM1層の最多注視領域は画面左側である。これにより、例えば、画面に映し出されていた3商品中の左側の商品にM1が興味を持っていることがわかる。 For example, in the example of FIG. 6, two guests appear from 18:07 during the program. At that time, it can be seen that the line of sight of the M1 layer was concentrated on the right side of the screen. As a result, it can be seen that the line of sight was concentrated on Mr. A among the two guests. Similarly, at 18:15 during the program, the program advertisement by the guests starts, but the region of the highest attention of the M1 layer at that time is the lower part of the screen. From this, it can be seen that the effect of the program advertisement by the guest was sufficient for at least the M1 layer. Similarly, the most frequently watched area of the M1 layer during the CM (Commercial Message) period from 18:20 during the program is the left side of the screen. As a result, for example, it can be seen that M1 is interested in the product on the left side of the three products displayed on the screen.
さらに、上記同様の分析を別のユーザ層においても行い、比較することで、各ユーザ層に対し、訴求効果の高い出演者や演出を推測することが可能となる。これにより、例えば、番組スポンサーの主要顧客の属性を考慮した番組やCMを作成することが可能となる。 Furthermore, by performing the same analysis as above for other user groups and comparing them, it is possible to guess performers and performances that are highly appealing to each user group. As a result, for example, it is possible to create programs and commercials that take into account the attributes of major customers of program sponsors.
また、上記した実施形態では、視聴履歴記録装置10aの少なくとも撮影手段11、特定手段12、及び、注視領域特定手段14は、前記ユーザの宅内に配置されている。そして、記録手段13は、個々のユーザの情報がユーザ層という情報に変換(匿名化)された属性別視聴履歴情報としてストレージ15に記録する。そして、上記視聴率の分析等は、この匿名化されたデータを保管するストレージ15にアクセスして行われる。従って、ユーザの顔画像やこれと紐づいた視聴履歴などのセンシティブな個人情報が前記ユーザの外部に流出することは無い。
Further, in the above-described embodiment, at least the photographing
なお、上記した例では、ユーザが一人でコンテンツの視聴を開始し、その注視領域の記録が行われる例を挙げて説明したが、複数のユーザがコンテンツの視聴を開始した場合においても、同様の手順で、それぞれのユーザについて、特定を行い属性別視聴履歴を記録することもできる。また、この場合、それぞれのユーザについて、注視している領域の遷移を記録することになる。 In the above example, a single user starts viewing the content, and the attention area is recorded. In the procedure, it is also possible to identify and record the viewing history by attribute for each user. Also, in this case, the transition of the gazed area is recorded for each user.
[第2の実施形態]
続いて、事前の認証用データの登録を省略可能とした第2の実施形態について図面を参照して詳細に説明する。図7は、本発明の第2の実施形態の視聴履歴記録装置の構成を示す図である。
[Second embodiment]
Next, a second embodiment in which prior registration of authentication data can be omitted will be described in detail with reference to the drawings. FIG. 7 is a diagram showing the configuration of a viewing history recording apparatus according to the second embodiment of the present invention.
図7を参照すると、第1の実施形態における特定手段12及び認証用データ記憶手段16の組み合わせの代わりに、推定手段12a及びユーザ属性推定エンジン16aを備えた視聴履歴記録装置10bの構成が示されている。その他の構成は、第1の実施形態と同様であるので、以下、その相違点を中心に説明する。
Referring to FIG. 7, a configuration of a viewing
推定手段12aは、ユーザ属性推定エンジン16aを用いて、ユーザの属性を推定する。例えば、推定手段12aは、上記撮影手段11で撮影した前記ユーザの顔画像に所定の前処理を行ってから、ユーザ属性推定エンジン16aに送る。ユーザ属性推定エンジン16aは、推定手段12aから受け取ったユーザの顔画像の髪型、皺、表情などの特徴に基づいて、ユーザの属性として、性別と年齢層とを推定する。ユーザ属性推定エンジン16aの具体例としては、出願人らによって商用化されているFieldAnalyst(登録商標)等を用いることができる。
The estimating means 12a estimates user attributes using a user attribute estimation engine 16a. For example, the estimating means 12a performs predetermined preprocessing on the face image of the user photographed by the photographing
ユーザ認証において推定手段12aがユーザの属性を推定する点を除いて、本実施形態の基本的な動作は第1の実施形態と同様であるため説明を省略する。
Since the basic operation of this embodiment is the same as that of the first embodiment except that the
上記説明したとおり、本実施形態は、第1の実施形態と比較して、事前に認証用データを用意しなくてよいという利点がある。この利点は、不特定多数のユーザの属性別視聴履歴データを取得することができることを意味する。これにより、データ数が少ない性別や年齢層の視聴履歴データを効率よく収集することも可能となる。 As described above, this embodiment has an advantage over the first embodiment in that authentication data need not be prepared in advance. This advantage means that attribute-based viewing history data of an unspecified number of users can be acquired. This makes it possible to efficiently collect viewing history data for genders and age groups with a small amount of data.
[第3の実施形態]
続いて、視聴履歴に加えて、コンテンツを視聴中のユーザの表情の遷移を収集可能とした第3の実施形態について図面を参照して詳細に説明する。図8は、本発明の第3の実施形態の視聴履歴記録装置の構成を示す図である。
[Third Embodiment]
Next, in addition to the viewing history, a detailed description will be given with reference to the drawings of a third embodiment in which transitions in the user's facial expression during viewing of content can be collected. FIG. 8 is a diagram showing the configuration of a viewing history recording device according to the third embodiment of the present invention.
図8を参照すると、第1の実施形態の構成に、表情判定手段17が追加された視聴履歴記録装置10cの構成が示されている。その他の構成は、第1の実施形態と同様であるので、以下、その相違点を中心に説明する。
Referring to FIG. 8, there is shown the configuration of a viewing
表情判定手段17は、撮影手段11で撮影した前記ユーザの顔画像からユーザの表情を判定する。表情判定手段17における表情の判定手法としては、種々の方法を採用できる。例えば、該当ユーザの認証用データにおける顔の各器官の形や位置を無表情とし、その表情からの各器官の変化や移動量を用いて表情を判定する方法を採ることができる。また、別の方法として、予め登録された「笑顔」、「悲しい時の顔」、「無表情」といった表情パターンと、ユーザの顔画像から抽出された特徴量とを照合してユーザの表情を判定する方法も採ることができる。また、このときに、事前にユーザ毎に、「笑顔」、「悲しい時の顔」、「無表情」といった顔画像を用意して照合を行っても良い。これにより、ユーザ毎の表情の癖を捉え、精度良く表情を判定することが可能となる。
The facial expression determination means 17 determines the facial expression of the user from the user's face image photographed by the photographing
続いて、本実施形態の視聴履歴記録装置10cによる表情の判定処理について説明する。図9は、本実施形態の視聴履歴記録装置10cの表情判定処理を説明するための図である。
Subsequently, facial expression determination processing by the viewing
図9を参照すると、まず、撮影手段11が、表情判定手段17に撮影画像を送信する(ステップS001)。ここで、表情判定手段17に対して送信する撮影画像は、図3の属性別視聴履歴の作成の際に、ユーザを特定するために撮影されたユーザの顔画像であってもよい。もちろん、表情判定手段17による表情判定のために、撮影手段11が別途撮影した画像であってもよい。
Referring to FIG. 9, first, the photographing means 11 transmits a photographed image to the facial expression determining means 17 (step S001). Here, the photographed image to be transmitted to the facial expression determination means 17 may be the face image of the user photographed to identify the user when creating the viewing history by attribute shown in FIG. Of course, it may be an image separately photographed by the photographing
次に、表情判定手段17は、撮影手段11から受信したユーザの顔画像からユーザの表情を判定する(ステップS102)。
Next, the facial
次に、表情判定手段17は、記録手段13に対して、前記判定したユーザの表情を送信する(ステップS104)。 Next, the facial expression determination means 17 transmits the determined facial expression of the user to the recording means 13 (step S104).
記録手段13は、表情判定手段17から受信したユーザの表情の遷移を属性別視聴履歴の付属データとして順次記録する(ステップS005)。ユーザによる番組視聴が継続している間、撮影手段11、表情判定手段17及び記録手段13が、上記ステップS001~S005の処理を繰り返すことでユーザの表情の遷移データが作成される。本実施形態でも、番組視聴と平行してユーザの表情の遷移データを記録することで、属性別視聴履歴の時刻に対応したユーザの表情の遷移データが作成されることになる。従って、本実施形態では、記録手段13が、上記したユーザの表情の遷移データの作成手段としても機能する。
The
図10は、上記視聴履歴記録装置10cによって記録されるユーザの表情の遷移データの一例を示す。図10の例では、番組視聴中のユーザの表情の変化を記録したデータが、表情遷移として、属性別視聴履歴情報に対応付けて、記録されている。なお、ユーザの表情に関する情報は、撮影手段11からユーザの顔画像を受け取る度に記録するのではなく、表情に変化があった場合にのみ、その変化を記録するようにしてもよい。
FIG. 10 shows an example of user facial expression transition data recorded by the viewing
以上のような表情の遷移データを多数集計することにより、以下のような分析を行うことができる。例えば、2018年2月2日 21:00の放送についてユーザ層F2に属するユーザから図10に示すような表情の変化が得られたとする。同様のデータを、他のユーザ層F2に属するユーザからも収集することで、その番組の各シーンにおいて、ターゲットとするユーザ層から、製作者が意図した反応があったかがどうかを把握することできる。 By aggregating a large number of facial expression transition data as described above, the following analysis can be performed. For example, assume that a change in facial expression as shown in FIG. 10 is obtained from a user belonging to the user layer F2 for the broadcast on February 2, 2018 at 21:00. By collecting similar data from users belonging to the other user layer F2, it is possible to grasp whether or not there was a response intended by the producer from the target user layer in each scene of the program.
また、上記第1の実施形態と同様に、ユーザの注視領域に関する情報と組み合わせることで、より詳細な分析を行うことができる。例えば、図6のように、番組に出演しているゲストに視線が集中していることに加えて、ユーザがどのような表情をしていたかを把握することが可能となる。また、ゲストに関心のない層が、どのような表情をしていたかといった情報も集めることが可能となる。 Further, as in the first embodiment, more detailed analysis can be performed by combining information about the user's gaze area. For example, as shown in FIG. 6, it is possible to grasp the facial expression of the user in addition to the fact that the line of sight is focused on the guest appearing in the program. In addition, it is possible to collect information such as what kind of facial expressions were made by those who were not interested in the guests.
なお、上記した実施形態では、図8に示すように、視聴履歴記録装置10cが注視領域特定手段14を備えているものとして説明したが、図11に示すように、注視領域特定手段14を省略した構成も採用可能である。
In the above-described embodiment, as shown in FIG. 8, the viewing
[第4の実施形態]
続いて、視聴履歴に加えて、コンテンツを視聴中のユーザの姿勢の遷移を収集可能とした第4の実施形態について図面を参照して詳細に説明する。図12は、本発明の第4の実施形態の視聴履歴記録装置の構成を示す図である。
[Fourth embodiment]
Next, a detailed description will be given of a fourth embodiment in which it is possible to collect not only the viewing history but also the transition of the user's posture while viewing the content, with reference to the drawings. FIG. 12 is a diagram showing the configuration of a viewing history recording device according to the fourth embodiment of the present invention.
図12を参照すると、第1の実施形態の構成に、姿勢判定手段18が追加された視聴履歴記録装置10eの構成が示されている。その他の構成は、第1の実施形態と同様であるので、以下、その相違点を中心に説明する。
Referring to FIG. 12, there is shown the configuration of a viewing
姿勢判定手段18は、撮影手段11で撮影した前記ユーザの顔画像を含む画像からユーザの姿勢を判定する。姿勢判定手段18における表情の判定手法としては、種々の方法を採用できる。例えば、該当ユーザの顔画像が横に倒れていれば、ユーザが横になって視聴していると判定してもよい。また、別の方法として、予め登録された「横になる」、「腕組みして視聴」、「ソファ等に座りリラックスして視聴」といった姿勢パターンと、ユーザの顔画像を含む画像から抽出された情報とを照合してユーザの姿勢を判定する方法も採ることができる。また、このときに、事前にユーザ毎に、「横になる」、「腕組みして視聴」、「ソファ等に座りリラックスして視聴」といったユーザ毎の姿勢の標準画像を用意して照合を行っても良い。これにより、ユーザ毎の姿勢の癖を捉え、精度良く姿勢を判定することが可能となる。
Posture determination means 18 determines the posture of the user from an image including the face image of the user photographed by photographing
続いて、本実施形態の視聴履歴記録装置10eによる姿勢の判定処理について説明する。図13は、本実施形態の視聴履歴記録装置10eの姿勢判定処理を説明するための図である。
Subsequently, posture determination processing by the viewing
図13を参照すると、まず、撮影手段11が、姿勢判定手段18に撮影画像を送信する(ステップS001)。ここで、姿勢判定手段18に対して送信する撮影画像は、図3の属性別視聴履歴の作成の際に、ユーザを特定するために撮影されたユーザの顔画像であってもよい。もちろん、姿勢判定手段18による表情判定のために、撮影手段11が別途撮影した画像であってもよい。
Referring to FIG. 13, first, the photographing means 11 transmits a photographed image to the posture determining means 18 (step S001). Here, the photographed image to be transmitted to the posture determination means 18 may be the face image of the user photographed to identify the user when creating the viewing history by attribute shown in FIG. Of course, the image may be an image separately photographed by the photographing
次に、姿勢判定手段18は、撮影手段11から受信したユーザの顔画像を含む画像からユーザの姿勢を判定する(ステップS202)。 Next, posture determination means 18 determines the posture of the user from the image including the user's face image received from photographing means 11 (step S202).
次に、姿勢判定手段18は、記録手段13に対して、前記判定したユーザの姿勢を送信する(ステップS204)。
Next,
記録手段13は、姿勢判定手段18から受信したユーザの姿勢の遷移を属性別視聴履歴の付属データとして順次記録する(ステップS005)。ユーザによる番組視聴が継続している間、撮影手段11、姿勢判定手段18及び記録手段13が、上記ステップS001~S005の処理を繰り返すことでユーザの姿勢の遷移データが作成される。本実施形態でも、番組視聴と平行してユーザの姿勢の遷移データを記録することで、属性別視聴履歴の時刻に対応したユーザの姿勢の遷移データが作成されることになる。従って、本実施形態では、記録手段13が、上記したユーザの姿勢の遷移データの作成手段としても機能する。
The
図14は、上記視聴履歴記録装置10eによって記録されるユーザの姿勢の遷移データの一例を示す。図14の例では、番組視聴中のユーザの姿勢の変化を記録したデータが、姿勢遷移として、属性別視聴履歴情報に対応付けて、記録されている。なお、ユーザの姿勢に関する情報は、撮影手段11からユーザの顔画像を受け取る度に記録するのではなく、表情に変化があった場合にのみ、その変化を記録するようにしてもよい。
FIG. 14 shows an example of user posture transition data recorded by the viewing
以上のような姿勢の遷移データを多数集計することにより、以下のような分析を行うことができる。例えば、2018年2月2日 21:00の放送についてユーザ層F2に属するユーザから図14に示すような姿勢の変化が得られたとする。同様のデータを、他のユーザ層F2に属するユーザからも収集することで、その番組のターゲットとするユーザ層が、どのような姿勢で番組を視聴していたかを把握することできる。 By aggregating a large number of posture transition data as described above, the following analysis can be performed. For example, assume that a change in posture as shown in FIG. 14 is obtained from a user belonging to the user layer F2 for the broadcast on February 2, 2018 at 21:00. By collecting similar data from users who belong to the other user group F2, it is possible to grasp the attitude with which the target user group of the program viewed the program.
また、上記第1の実施形態と同様に、ユーザの注視領域に関する情報と組み合わせることで、より詳細な分析を行うことができる。例えば、図6のように、番組に出演しているゲストに視線が集中していることに加えて、ユーザがどのような姿勢をしていたかを把握することが可能となる。また、ゲストに関心のない層が、どのような姿勢をしていたかといった情報も集めることが可能となる。 Further, as in the first embodiment, more detailed analysis can be performed by combining information about the user's gaze area. For example, as shown in FIG. 6, in addition to the fact that the line of sight is focused on the guest appearing in the program, it is possible to grasp the posture of the user. In addition, it is possible to collect information such as what kind of postures those who were not interested in guests were doing.
なお、上記した実施形態では、図12に示すように、視聴履歴記録装置10eが注視領域特定手段14を備えているものとして説明したが、図15に示すように、注視領域特定手段14を省略した構成も採用可能である。
In the above-described embodiment, as shown in FIG. 12, the viewing
以上、本発明の各実施形態を説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の基本的技術思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示したネットワーク構成、各要素の構成、メッセージの表現形態は、本発明の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。例えば、上記した実施形態では、ユーザを、その性別や年齢に応じて、M1~M3、F1~F3、C、Tの8つのカテゴリーに分けるものとして説明したが、ユーザのカテゴリー分けは、これに限られるものではない。ごく簡単には、男性、女性、成人、未成年といった大まかな区分けであってもよい。 Although each embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiments, and further modifications, replacements, and adjustments can be made without departing from the basic technical idea of the present invention. can be added. For example, the network configuration, the configuration of each element, and the form of expression of messages shown in each drawing are examples for helping understanding of the present invention, and are not limited to the configurations shown in these drawings. For example, in the above-described embodiment, users are classified into eight categories M1 to M3, F1 to F3, C, and T according to their gender and age. It is not limited. Very simply, it may be a rough division such as male, female, adult, and minor.
また上記した各実施形態では、地上波テレビジョン放送の視聴率調査を想定した例を挙げて説明したが、その他の動画コンテンツ全般におけるユーザの反応を調査する用途に適用することが可能である。このような動画コンテンツとしては、ケーブルテレビ、衛星放送、オンデマンド配信コンテンツなどが挙げられる。また、本発明はこのようなコンテンツ制作事業者に限らず、例えば、ある動画コンテンツを投稿したユーザに、視聴者の反応を見せるためのツールとして用いることもできる。 Further, in each of the above-described embodiments, an example has been given assuming an audience rating survey of terrestrial television broadcasting, but it is possible to apply the present invention to surveys of user reactions to other video content in general. Such video content includes cable television, satellite broadcasting, on-demand distribution content, and the like. In addition, the present invention is not limited to such content producers, and can be used, for example, as a tool for showing viewers' reaction to a user who has posted certain video content.
また、上記した各実施形態は、適宜組み合わせることができる。例えば、第3の実施形態と、第4の実施形態とを組み合わせて、番組視聴中のユーザの表情と姿勢の遷移を記録する視聴履歴記録装置を構成することが可能である。同様に、第2の実施形態の視聴履歴記録装置10bをベースに、第3の実施形態と、第4の実施形態の一方又は双方を組み合わせた形態も採用可能である。
Moreover, each of the embodiments described above can be combined as appropriate. For example, by combining the third embodiment and the fourth embodiment, it is possible to configure a viewing history recording apparatus that records transitions of the user's facial expression and posture while viewing a program. Similarly, based on the viewing
さらに、上記した各実施形態では、番組視聴中のユーザの表情と姿勢の遷移を記録するものとして説明したが、その他ユーザの顔画像を含む画像から得られる身体的情報を取り出して、視聴履歴データの補助データとして記録してもよい。このような身体的特徴としては、例えば、眼鏡の着用有無、髪型、疲労の度合い、肌の荒れ具合などの顔画像から直接得られる情報を挙げることができる。また、顔画像やその一部映りこんだ首周りの画像からユーザが体系や服装などを取り出して、視聴履歴データの補助データとして記録してもよい。この場合、視聴履歴記録装置は、ユーザの身体的特徴を特定する身体的特徴特定手段を備えることになる。 Furthermore, in each of the above-described embodiments, transitions of the user's facial expression and posture while watching a program were recorded. may be recorded as auxiliary data. Examples of such physical characteristics include information obtained directly from facial images, such as whether glasses are worn, hairstyle, degree of fatigue, and degree of rough skin. Also, the user may extract body structure, clothing, and the like from the face image and the image of the neck part of the facial image, and record them as auxiliary data of the viewing history data. In this case, the viewing history recording device is provided with physical feature identifying means for identifying the physical features of the user.
これにより、例えば、あるコンテンツに対する好意的な反応のあった層に対して、商品を売り込みたい企業からスポンサーを募ったり、個別にダイレクトメールを送信したり、連動型広告に反映させたりといった活動をより効果的に行うことが可能となる。 As a result, for example, we can conduct activities such as soliciting sponsors from companies that want to sell products, sending individual direct mails, and reflecting them in interlocking advertisements for those who have received a favorable response to certain content. It can be done more effectively.
また、上記した第1~第4の実施形態に示した手順は、視聴履歴記録装置10a~10fとして機能するコンピュータ(図16の9000)に、視聴履歴記録装置10a~10fとしての機能を実現させるプログラムにより実現可能である。このようなコンピュータは、図16のCPU(Central Processing Unit)9010、通信インタフェース9020、メモリ9030、補助記憶装置9040を備える構成に例示される。すなわち、図16のCPU9010にて、ユーザの顔画像の前処理プログラムや注視領域の特定プログラムを実行し、その補助記憶装置9040等に保持された各計算パラメーターの更新処理を実施させればよい。
Further, the procedures shown in the first to fourth embodiments described above cause the computers (9000 in FIG. 16) functioning as the viewing
即ち、上記した各実施形態に示した視聴履歴記録装置10a~10fの各部(処理手段、機能)は、これらの装置に搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。
That is, each part (processing means, function) of the viewing
最後に、本発明の好ましい形態を要約する。
[第1の形態]
(上記第1の視点による視聴履歴記録システム参照)
[第2の形態]
上記した視聴履歴記録システムにおいて、
前記ユーザの属性は、少なくとも、ユーザの性別と年齢層を含み、
前記作成手段は、前記ユーザの性別と年齢層別に、前記視聴領域遷移情報を作成する構成を採ることができる。
[第3の形態]
上記した視聴履歴記録システムにおいて、
前記視聴領域遷移情報は、所定のストレージに格納され、視聴率分析に用いられる。
[第4の形態]
上記した視聴履歴記録システムの前記撮影手段、前記特定手段、及び、前記注視領域特定手段は、前記ユーザの宅内に配置され、
前記所定のストレージが、外部からの要求に応じて、前記コンテンツの属性別視聴履歴及び前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を提供する構成を採ることができる。
[第5の形態]
前記視聴領域遷移情報は、前記ユーザが視聴したコンテンツと対応付けて提供されてもよい。
[第6の形態]
上記した視聴履歴記録システムは、前記視聴領域遷移情報を用いて、前記ユーザが注視していた時間又は視線の動きに基づいて、注視している度合いを示すマップ情報を提供することも好ましい。
[第7の形態]
上記した視聴履歴記録システムにおいて、
前記作成手段は、前記ユーザの視線の動きに基づいて、記録する領域の大きさを変更して視聴領域遷移情報を作成することも好ましい。
[第8の形態]
前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する特定手段に代えて、
前記撮影手段で撮影した前記ユーザの顔画像に基づいて、前記ユーザの属性を推定する推定手段を備える構成も採用可能である。
[第9の形態]
上記した視聴履歴記録システムにおいて、
さらに、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定する表情判定手段と、
前記ユーザの性別と年齢層別に、前記ユーザの表情の遷移を表した表情遷移情報を作成する第2の作成手段と、を備える構成も採用可能である。
[第10の形態]
上記した視聴履歴記録システムにおいて、
前記表情遷移情報は、前記ユーザが視聴したコンテンツと対応付けて提供されてもよい。
[第11の形態]
上記した視聴履歴記録システムにおいて、
さらに、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの姿勢を判定する姿勢判定手段と、
前記ユーザの性別と年齢層別に、前記ユーザの姿勢の遷移を表した姿勢遷移情報を作成する第3の作成手段と、を備える構成も採用可能である。
[第12の形態]
上記した視聴履歴記録システムにおいて、
前記姿勢遷移情報は、前記ユーザが視聴したコンテンツと対応付けて提供されてもよい。
[第13の形態]
(上記第2の視点による視聴履歴記録装置参照)
[第14の形態]
(上記第3の視点による視聴履歴の記録方法参照)
[第15の形態]
(上記第4の視点によるプログラム参照)
なお、上記第13~第15の形態は、第1の形態と同様に、第2~第12の形態に展開することが可能である。
Finally, preferred forms of the invention are summarized.
[First form]
(See the viewing history recording system from the first viewpoint above.)
[Second form]
In the viewing history recording system described above,
The attributes of the user include at least the user's gender and age group,
The creation means may take a configuration that creates the viewing area transition information for each gender and age group of the user.
[Third form]
In the viewing history recording system described above,
The viewing area transition information is stored in a predetermined storage and used for audience rating analysis.
[Fourth form]
The photographing means, the specifying means, and the attention area specifying means of the viewing history recording system described above are arranged in the user's home,
A configuration may be adopted in which the predetermined storage provides, in response to a request from the outside, the attribute-based viewing history of the content and the transition of the area watched by the user who is viewing the content.
[Fifth form]
The viewing area transition information may be provided in association with the content viewed by the user.
[Sixth form]
It is also preferable that the viewing history recording system described above uses the viewing area transition information to provide map information indicating the degree of gaze of the user based on the time the user gazed or the movement of the user's gaze.
[Seventh form]
In the viewing history recording system described above,
It is also preferable that the creating means creates the viewing area transition information by changing the size of the area to be recorded based on the movement of the user's line of sight.
[Eighth mode]
Instead of identifying means for identifying the user by using the face image of the user photographed by the photographing means and authentication data registered in advance,
It is also possible to adopt a configuration including estimation means for estimating attributes of the user based on the face image of the user photographed by the photographing means.
[Ninth form]
In the viewing history recording system described above,
moreover,
facial expression determination means for determining the facial expression of the user viewing the content from the facial image of the user;
It is also possible to employ a configuration including a second creation means for creating facial expression transition information representing facial expression transitions of the user for each gender and age group of the user.
[Tenth mode]
In the viewing history recording system described above,
The facial expression transition information may be provided in association with content viewed by the user.
[Eleventh form]
In the viewing history recording system described above,
moreover,
Posture determining means for determining a posture of the user viewing the content from the face image of the user;
A configuration including third creating means for creating posture transition information representing the posture transition of the user for each gender and age group of the user can also be adopted.
[Twelfth form]
In the viewing history recording system described above,
The posture transition information may be provided in association with content viewed by the user.
[Thirteenth Mode]
(Refer to the viewing history recording device from the second viewpoint above)
[14th mode]
(See the recording method of the viewing history from the third viewpoint above.)
[15th mode]
(Refer to the program from the fourth viewpoint above)
It should be noted that the thirteenth to fifteenth modes can be developed into the second to twelfth modes in the same manner as the first mode.
なお、上記の特許文献の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。 It should be noted that each disclosure of the above patent documents is incorporated herein by reference. Within the framework of the full disclosure of the present invention (including the scope of claims), modifications and adjustments of the embodiments and examples are possible based on the basic technical concept thereof. Various combinations or selections of various disclosure elements (including each element of each claim, each element of each embodiment or example, each element of each drawing, etc.) are possible within the framework of the disclosure of the present invention. is. That is, the present invention naturally includes various variations and modifications that can be made by those skilled in the art according to the entire disclosure including claims and technical ideas. In particular, any numerical range recited herein should be construed as specifically recited for any numerical value or subrange within that range, even if not otherwise stated.
10 視聴履歴記録システム
10a~10f 視聴履歴記録装置
11 撮影手段
12 特定手段
12a 推定手段
13 記録手段
13a 作成手段
14 注視領域特定手段
15 ストレージ
16 認証用データ記憶手段
16a ユーザ属性推定エンジン
17 表情判定手段
18 姿勢判定手段
20 属性別視聴履歴
21 注視領域遷移情報
9000 コンピュータ
9010 CPU
9020 通信インタフェース
9030 メモリ
9040 補助記憶装置
10 viewing
9020 Communication interface 9030
Claims (14)
前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する特定手段と、
前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する注視領域特定手段と、
ユーザの性別及び年齢層を表す属性毎の属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する作成手段と、
前記視聴領域遷移情報を分析して、前記コンテンツ内で訴求効果が高い要素を推測する推測部と、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定する表情判定手段と、
前記ユーザの表情の遷移を表した表情遷移情報を作成する第2の作成手段と、
前記表情遷移情報に基づいて、前記訴求効果が高い要素に視線を集中させている時の前記ユーザの表情を分析する分析手段と、
を備える視聴履歴記録システム。 a photographing means for photographing a facial image of a user viewing content being reproduced by a predetermined reproduction device;
identifying means for identifying the user by using the face image of the user photographed by the photographing means and authentication data registered in advance;
gaze region specifying means for specifying, from the face image of the user, a region that the user is gazing at in the display region of the content;
creating means for creating viewing area transition information representing a transition of an area watched by the user watching the content in association with an attribute-by -attribute viewing history for each attribute representing a user's gender and age group ;
an estimation unit that analyzes the viewing area transition information and infers an element with a high appeal effect in the content;
facial expression determination means for determining the facial expression of the user viewing the content from the facial image of the user;
a second creation means for creating facial expression transition information representing the transition of the user's facial expression;
analysis means for analyzing the facial expression of the user when the line of sight is focused on the element with the high appeal effect, based on the facial expression transition information;
A viewing history recording system comprising:
前記所定のストレージを介して、外部からの要求に応じて、前記視聴領域遷移情報を提供する請求項2の視聴履歴記録システム。 at least the photographing means, the specifying means, and the gaze area specifying means are arranged in the user's home,
3. The viewing history recording system according to claim 2 , wherein said viewing area transition information is provided in response to an external request via said predetermined storage.
前記撮影手段で撮影した前記ユーザの顔画像に基づいて、前記ユーザの属性を推定する推定手段を備える請求項1から6のいずれか一の視聴履歴記録システム。 Instead of identifying means for identifying the user by using the face image of the user photographed by the photographing means and authentication data registered in advance,
7. The viewing history recording system according to any one of claims 1 to 6 , further comprising estimating means for estimating attributes of said user based on said user's face image photographed by said photographing means.
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの姿勢を判定する姿勢判定手段と、
前記ユーザの性別と年齢層別に、前記ユーザの姿勢の遷移を表した姿勢遷移情報を作成する第3の作成手段と、を備える請求項1から8のいずれか一の視聴履歴記録システム。 moreover,
Posture determining means for determining a posture of the user viewing the content from the face image of the user;
9. The viewing history recording system according to any one of claims 1 to 8 , further comprising third creating means for creating posture transition information representing the posture transition of the user for each gender and age group of the user.
前記撮影手段で撮影した前記ユーザの顔画像に基づいて、前記ユーザの性別及び年齢層を表す属性を推定する推定手段と、
前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する注視領域特定手段と、
前記属性毎の属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する作成手段と、
前記視聴領域遷移情報を分析して、前記コンテンツ内で訴求効果が高い要素を推測する推測部と、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定する表情判定手段と、
前記ユーザの表情の遷移を表した表情遷移情報を作成する第2の作成手段と、
前記表情遷移情報に基づいて、前記訴求効果が高い要素に視線を集中させている時の前記ユーザの表情を分析する分析手段と、
を備える視聴履歴記録システム。 a photographing means for photographing a facial image of a user viewing content being reproduced by a predetermined reproduction device;
estimating means for estimating attributes representing the gender and age group of the user based on the facial image of the user captured by the imaging means;
gaze region specifying means for specifying, from the face image of the user, a region that the user is gazing at in the display region of the content;
creating means for creating viewing area transition information representing a transition of an area watched by the user watching the content in association with the attribute-based viewing history for each attribute;
an estimation unit that analyzes the viewing area transition information and infers an element with a high appeal effect in the content;
facial expression determination means for determining the facial expression of the user viewing the content from the facial image of the user;
a second creation means for creating facial expression transition information representing the transition of the user's facial expression;
analysis means for analyzing the facial expression of the user when the line of sight is focused on the element with the high appeal effect, based on the facial expression transition information;
A viewing history recording system comprising:
前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する特定手段と、
前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する注視領域特定手段と、
ユーザの性別及び年齢層を表す属性毎の属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する作成手段と、
前記視聴領域遷移情報を分析して、前記コンテンツ内で訴求効果が高い要素を推測する推測部と、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定する表情判定手段と、
前記ユーザの表情の遷移を表した表情遷移情報を作成する第2の作成手段と、
前記表情遷移情報に基づいて、前記訴求効果が高い要素に視線を集中させている時の前記ユーザの表情を分析する分析手段と、
を備える視聴履歴記録装置。 a photographing means for photographing a facial image of a user viewing content being reproduced by a predetermined reproduction device;
identifying means for identifying the user by using the face image of the user photographed by the photographing means and authentication data registered in advance;
gaze region specifying means for specifying, from the face image of the user, a region that the user is gazing at in the display region of the content;
creating means for creating viewing area transition information representing a transition of an area watched by the user watching the content in association with an attribute-by -attribute viewing history for each attribute representing a user's gender and age group ;
an estimation unit that analyzes the viewing area transition information and infers an element with a high appeal effect in the content;
facial expression determination means for determining the facial expression of the user viewing the content from the facial image of the user;
a second creation means for creating facial expression transition information representing the transition of the user's facial expression;
analysis means for analyzing the facial expression of the user when the line of sight is focused on the element with the high appeal effect, based on the facial expression transition information;
A viewing history recording device.
前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定し、
前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定し、
ユーザの性別及び年齢層を表す属性毎の属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成し、
前記視聴領域遷移情報を分析して、前記コンテンツ内で訴求効果が高い要素を推測し、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定し、
前記ユーザの表情の遷移を表した表情遷移情報を作成し、
前記表情遷移情報に基づいて、前記訴求効果が高い要素に視線を集中させている時の前記ユーザの表情を分析すること、
を特徴とするコンテンツ視聴履歴の記録方法。 A viewing history recording device comprising a processor, a memory, and an imaging means for capturing an image of the face of a user viewing content being reproduced by a predetermined reproducing device,
identifying the user by using the face image of the user captured by the imaging means and authentication data registered in advance;
identifying an area that the user is gazing in the display area of the content from the face image of the user;
creating viewing area transition information representing the transition of the area where the user is watching the content, in association with the attribute-specific viewing history for each attribute representing the user's gender and age group ;
Analyzing the viewing area transition information to infer an element with a high appeal effect in the content,
determining the expression of the user while viewing the content from the face image of the user;
creating facial expression transition information representing the transition of the user's facial expression;
analyzing the facial expression of the user when the user's line of sight is focused on the element with a high appeal effect, based on the facial expression transition information ;
A content viewing history recording method characterized by:
前記撮影手段で撮影した前記ユーザの顔画像と、事前に登録した認証用データとを用いて、前記ユーザを特定する処理と、
前記ユーザの顔画像から前記コンテンツの表示領域中の前記ユーザが注視している領域を特定する処理と、
ユーザの性別及び年齢層を表す属性毎の属性別視聴履歴に対応付けて、前記コンテンツを視聴中の前記ユーザが注視している領域の遷移を表した視聴領域遷移情報を作成する処理と、
前記視聴領域遷移情報を分析して、前記コンテンツ内で訴求効果が高い要素を推測する処理と、
前記ユーザの顔画像から前記コンテンツを視聴中の前記ユーザの表情を判定する処理と、
前記ユーザの表情の遷移を表した表情遷移情報を作成する処理と、
前記表情遷移情報に基づいて、前記訴求効果が高い要素に視線を集中させている時の前記ユーザの表情を分析する処理と、
を実行させるプログラム。 A computer equipped with a viewing history recording device equipped with a photographing means for capturing a facial image of a user viewing content being reproduced on a predetermined reproducing device, and having a processor and a memory,
a process of identifying the user by using the face image of the user captured by the imaging means and authentication data registered in advance;
a process of identifying an area that the user is gazing at in the display area of the content from the face image of the user;
A process of creating viewing area transition information representing the transition of the area where the user is watching the content, in association with the attribute-specific viewing history for each attribute representing the user's gender and age group ;
a process of analyzing the viewing area transition information and estimating an element with a high appeal effect in the content;
a process of determining the facial expression of the user while viewing the content from the face image of the user;
a process of creating facial expression transition information representing the transition of the user's facial expression;
a process of analyzing the facial expression of the user when the line of sight is focused on the element with the high appeal effect, based on the facial expression transition information;
program to run.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018030569A JP7135335B2 (en) | 2018-02-23 | 2018-02-23 | VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018030569A JP7135335B2 (en) | 2018-02-23 | 2018-02-23 | VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019146098A JP2019146098A (en) | 2019-08-29 |
| JP7135335B2 true JP7135335B2 (en) | 2022-09-13 |
Family
ID=67774037
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018030569A Active JP7135335B2 (en) | 2018-02-23 | 2018-02-23 | VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7135335B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7329829B2 (en) * | 2019-09-17 | 2023-08-21 | 株式会社ユピテル | Processors, systems and programs |
| JP7680000B2 (en) * | 2020-12-08 | 2025-05-20 | Revisio株式会社 | Control program, control device, and control method, as well as audio-visual quality output program, audio-visual quality output device, and audio-visual quality output method |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006041887A (en) | 2004-07-27 | 2006-02-09 | Sony Corp | Information processing apparatus and method, recording medium, and program |
| JP2011139441A (en) | 2009-12-03 | 2011-07-14 | Panasonic Corp | Viewing terminal device, viewing statistics apparatus, viewing statistics processing system, and viewing statistics processing method |
| JP2014236447A (en) | 2013-06-04 | 2014-12-15 | 富士通株式会社 | Information processing apparatus and information processing program |
-
2018
- 2018-02-23 JP JP2018030569A patent/JP7135335B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006041887A (en) | 2004-07-27 | 2006-02-09 | Sony Corp | Information processing apparatus and method, recording medium, and program |
| JP2011139441A (en) | 2009-12-03 | 2011-07-14 | Panasonic Corp | Viewing terminal device, viewing statistics apparatus, viewing statistics processing system, and viewing statistics processing method |
| JP2014236447A (en) | 2013-06-04 | 2014-12-15 | 富士通株式会社 | Information processing apparatus and information processing program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2019146098A (en) | 2019-08-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8176509B2 (en) | Post processing video to identify interests based on clustered user interactions | |
| US10735790B2 (en) | Systems and methods for recommending content | |
| CN103324729B (en) | A kind of method and apparatus for recommending multimedia resource | |
| US11347791B2 (en) | Methods and systems for sharing a user interface of a search engine | |
| JP5546632B2 (en) | Method and mechanism for analyzing multimedia content | |
| US20190205645A1 (en) | Systems and methods for presenting supplemental content in augmented reality | |
| US9232247B2 (en) | System and method for correlating audio and/or images presented to a user with facial characteristics and expressions of the user | |
| US20060020973A1 (en) | Method and system for presenting personalized television program recommendation to viewers | |
| US20130174191A1 (en) | Systems and methods for incentivizing user interaction with promotional content on a secondary device | |
| US9411414B2 (en) | Method and system for providing immersive effects | |
| US12125275B2 (en) | Methods and systems for disambiguating user input based on detection of ensembles of items | |
| US20180139434A1 (en) | Systems and Methods for Adjusting Display Settings to Reduce Eye Strain of Multiple Viewers | |
| KR20130091131A (en) | Apparatus and method for inferring preference using watching data and meta data | |
| JP2012029150A (en) | Terminal device and program | |
| JP7135335B2 (en) | VIEWING HISTORY RECORDING SYSTEM, VIEWING HISTORY RECORDING DEVICE, RECORDING METHOD AND PROGRAM | |
| CN104364731A (en) | Content/advertising profiling | |
| US20150149473A1 (en) | Systems and methods for associating tags with media assets based on verbal input | |
| US20140040948A1 (en) | Information distribution device, information reception device, system, program, and method | |
| AU2020226674B2 (en) | A system and a method for live streaming by use of an augmented reality (AR) technology | |
| KR20160017467A (en) | Method and apparatus for providing product information related to video contents | |
| US10390104B2 (en) | Context advertising based on viewer's stress/relaxation level | |
| JP2014060642A (en) | Display device and display system | |
| KR20150125429A (en) | Apparatus and Method for Recommending Video based on Anonymized Personal Identification |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210106 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220128 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220208 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220317 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220815 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7135335 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |