[go: up one dir, main page]

JP6985005B2 - 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体 - Google Patents

感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体 Download PDF

Info

Publication number
JP6985005B2
JP6985005B2 JP2016196799A JP2016196799A JP6985005B2 JP 6985005 B2 JP6985005 B2 JP 6985005B2 JP 2016196799 A JP2016196799 A JP 2016196799A JP 2016196799 A JP2016196799 A JP 2016196799A JP 6985005 B2 JP6985005 B2 JP 6985005B2
Authority
JP
Japan
Prior art keywords
subject
data
emotion
value
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016196799A
Other languages
English (en)
Other versions
JP2017144222A (ja
Inventor
ナワット シラワン
弘一 楠亀
真司 内田
愼一 式井
亜旗 米田
達男 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JP2017144222A publication Critical patent/JP2017144222A/ja
Application granted granted Critical
Publication of JP6985005B2 publication Critical patent/JP6985005B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/02108Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/026Measuring blood flow
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Measuring devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1107Measuring contraction of parts of the body, e.g. organ or muscle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/145Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue
    • A61B5/14542Measuring characteristics of blood in vivo, e.g. gas concentration or pH-value ; Measuring characteristics of body fluids or tissues, e.g. interstitial fluid or cerebral tissue for measuring blood gases
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analogue processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique using image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Cardiology (AREA)
  • Signal Processing (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Multimedia (AREA)
  • Developmental Disabilities (AREA)
  • Dentistry (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Vascular Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)

Description

本開示は、感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体に関する。
特許文献1は、センサにより取得した人の表情等に基づいて、その表情等が当該人の感情の自然な表れである可能性を示す情報を評価する解析装置を開示している。
特許第5768667号公報
しかしながら、特許文献1が開示する技術では、喜び又は驚きのような、人が抱くさまざまな感情を評価することができないという問題がある。
そこで、本発明は、人が抱いているさまざまな感情を推定する感情推定装置等を提供する。
本開示の一態様に係る感情推定方法は、被験者の感情を推定する感情推定装置における感情推定方法であって、生理学データに対応する第一データと、前記第一データとは異なる生理学データおよび非生理学データのうちの一方に対応する第二データとを前記被験者から取得し、取得した前記第一データと前記第二データとに基づいて、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出し、算出した前記第一値及び前記第二値から前記被験者の感情を、メモリに予め記憶された人の覚醒の度合い及び快適さの度合いと前記人の感情との所定の対応付けに基づいて推定し、推定した前記感情を示す情報を出力する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本開示の感情推定方法では、人が抱いているさまざまな感情を推定することができる。
図1は、人の感情の二次元モデルの一例の説明図である。 図2は、実施の形態に係る感情推定装置のハードウェア構成を示すブロック図である。 図3は、実施の形態に係る感情推定装置の機能構成を示すブロック図である。 図4は、実施の形態に係る感情推定装置による感情の推定方法を示す模式図である。 図5は、実施の形態に係る感情推定装置による感情の出力方法を示す模式図である。 図6は、実施の形態に係る感情推定装置の機能構成の第一の具体例を示すブロック図である。 図7は、実施の形態に係る感情推定装置の機能構成の第二の具体例を示すブロック図である。 図8は、実施の形態に係る感情推定装置の機能構成の第二の具体例における感情推定処理を示すブロック図である。 図9は、実施の形態に係る感情推定装置の機能構成の第三の具体例を示すブロック図である。 図10は、実施の形態に係る感情推定装置の機能構成の第四の具体例を示すブロック図である。 図11は、実施の形態に係る感情推定装置により推定される感情の推定方法を示すフロー図である。 図12は、実施の形態に係る取得部がデータ取得に用いるセンサの選択、及び、取得するデータの選択をユーザから受け付けるための画像の説明図である。 図13は、実施の形態に係る出力部が出力する情報の選択をユーザから受け付けるための画像の説明図である。 図14は、実施の形態に係るセンサの設定をユーザから受け付けるための画像の説明図である。 図15は、実施の形態に係るセンサの信頼性の調整をユーザから受け付けるための画像の説明図である。 図16は、実施の形態に係る出力情報に関する計算式の設定のための画像の説明図である。 図17は、実施の形態に係る出力情報に関する計算式の確認のための画像の説明図である。 図18は、実施の形態に係る感情を示す情報の出力の選択のための画像の説明図である。 図19は、実施の形態に係る感情を示す情報の表現の設定のための画像の説明図である。 図20は、実施の形態に係る推定部が推定した感情を示す情報を含む画像の第一例の説明図である。 図21は、実施の形態に係る推定部が推定した感情を示す情報を含む画像の第二例の説明図である。 図22は、実施の形態に係る推定部が推定した感情を示す情報を含む画像の第三例の説明図である。 図23は、実施の形態に係る推定部が推定した感情を示す情報を含む画像の第四例の説明図である。 図24は、実施の形態に係る推定部が推定した感情を示す情報を含む画像の第五例の説明図である。 図25は、実施の形態に係る推定部が推定した感情を示す情報を含む画像の第六例の説明図である。 図26Aは、実施の形態に係る推定部が推定した感情を示す情報を含む画像の第七例の説明図である。 図26Bは、実施の形態に係る推定部が推定した感情を示す情報を含む画像の第八例の説明図である。 図27は、実施の形態に係る被験者情報の登録のための画像の説明図である。 図28は、実施の形態に係る被験者の顔の登録のための画像の第一例の説明図である。 図29は、実施の形態に係る被験者の顔の登録のための画像の第二例の説明図である。 図30は、実施の形態に係る被験者の顔から表情を検知する領域の選択の画像の第一例の説明図である。 図31は、実施の形態に係る被験者の顔から表情を検知する領域の選択の画像の第二例の説明図である。 図32は、感情推定装置により顔の表情または感情を決定する際に、顔のしわの情報を用いるかどうかの選択をユーザに選択させるための画像の一例である。 図33は、実施の形態の変形例に係る感情推定装置のハードウェア構成を示すブロック図である。
本開示の一態様に係る感情推定方法は、被験者の感情を推定する感情推定装置における感情推定方法であって、生理学データに対応する第一データと、前記第一データとは異なる生理学データおよび非生理学データのうちの一方に対応する第二データとを前記被験者から取得し、取得した前記第一データと前記第二データとに基づいて、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出し、算出した前記第一値及び前記第二値から前記被験者の感情を、メモリに予め記憶された人の覚醒の度合い及び快適さの度合いと前記人の感情との所定の対応付けに基づいて推定し、推定した前記感情を示す情報を出力する。
上記態様によれば、感情推定装置は、被験者から取得した生理学データおよび上記生理学データとは異なる被験者から取得した生理学データ又は非生理学データを含む、2以上のデータを用いて所定の対応付けに基づいて被験者の感情を推定することができる。ここで、感情推定装置は、上記2以上のデータを用いことで被験者の第一値(覚醒感)及び第二値(快適感)の2つの指標を算出することにより、被験者が抱いているさまざまな感情を適切に推定することができる。
例えば、前記第二データは、非生理学データであってもよい。
上記態様によれば、感情推定装置は、被験者から取得した生理学データ及び非生理学データを用いて、所定の対応付けに基づいて被験者の感情を推定することができる。生理学データは覚醒感との相関が比較的大きく、非生理学データは快適感との相関が比較的大きい。よって、生理学データ及び非生理学データを用いることにより覚醒感及び快適感をより正確に算出し、その結果、被験者の感情をより正確に推定することができる。
例えば、前記算出において、前記第一データに基づいて前記第一値を算出し、前記第二データに基づいて前記第二値を算出してもよい。
上記態様によれば、感情推定装置は、被験者から取得した生理学データを用いて生理学データに相関が比較的大きい覚醒感を算出し、また、非生理学データを用いて非生理学データに相関が比較的大きい快適感を算出する。よって、被験者の覚醒感及び快適感をより正確に算出し、その結果、被験者の感情をより正確に推定することができる。
例えば、前記感情推定装置は、前記被験者の顔を撮像し、動画像データを生成するカメラを備え、前記取得において、前記カメラにより生成された前記動画像データに基づいて前記被験者の心拍数を前記第一データとして取得し、前記カメラにより生成された前記動画像データにおける前記被験者の顔の特徴点の位置に基づいて特定される前記被験者の表情を前記第二データとして取得してもよい。
上記態様によれば、感情推定装置は、被験者の生理学データとしての心拍数と、非生理学データとしての表情とをともにカメラを用いて取得し、被験者の感情を推定する。このように、カメラという1つのデバイスを用いて生理学データ及び非生理学データの両方を取得して感情を推定することで、被験者の負担を削減するとともに、利便性が向上する。
例えば、前記出力において、前記第一値と前記第二値とを2つの座標軸とする平面上の点として前記被験者の感情を示す情報を前記感情推定装置が備える表示装置の表示画面に出力してもよい。
上記態様によれば、感情推定装置は、被験者の覚醒感と快適感とを平面上の点として表現して出力する。これにより、ユーザ又は被験者は、被験者の感情を、被験者が取り得るさまざまな感情のうちのどれであるか、また、併せてその感情の強度を直観的に知ることができる。
例えば、前記出力において、前記第一値及び前記第二値の少なくとも一方を前記被験者の感情を示す情報として前記感情推定装置が備える表示装置の表示画面に出力してもよい。
上記態様によれば、感情推定装置は、被験者の覚醒感と快適感との少なくとも一方を出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、被験者が感じている覚醒感及び/又は快適感を知ることができる。
例えば、前記出力において、前記被験者の所定の感情の強さを示す値を、前記被験者の感情を示す情報として前記感情推定装置が備える表示装置の表示画面に出力してもよい。
上記態様によれば、感情推定装置は、被験者の特定の感情(例えば、喜び)の強さ(言い換えれば、感情の度合い)を出力する。例えば、感情推定装置は、単に「喜び」という感情を出力するだけでなく、喜びの度合いを出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、その感情の強さ又は度合いを知ることができる。
例えば、前記算出において、さらに、当該第一値に基づいて推定される前記被験者の感情の正しさを示す指標である第一信頼性を算出し、当該第二値に基づいて推定される前記被験者の感情の正しさを示す指標である第二信頼性を算出し、前記出力において、さらに前記感情を示す情報とともに、前記第一信頼性及び前記第二信頼性の少なくとも一方を示す情報を出力してもよい。
上記態様によれば、感情推定装置は、推定した感情がどれだけ正しく被験者の感情を表しているかを信頼性として出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、その感情がどれだけ正しく被験者の感情を表しているかを知ることができる。
例えば、前記感情推定方法では、前記取得において、1以上の前記第一データおよび1以上の前記第二データを取得し、前記算出において、取得した1以上の前記第一データのそれぞれについて、第一値と、第一信頼性とを算出し、算出した前記第一値の前記第一信頼性を重みとした加重平均により、前記被験者の覚醒の度合いを示す第一値を算出し、取得した1以上の前記第二データのそれぞれについて、第二値と、第二信頼性とを算出し、算出した前記第二値の前記第二信頼性を重みとした加重平均により、前記被験者の快適さ度合いを示す第二値を算出してもよい。
上記態様によれば、感情推定装置は、複数の生理学データ及び非生理学データにより覚醒感又は快適感が算出され得る場合に、これら複数の生理学データ及び非生理学データを信頼性に基づいて適切に評価して、被験者の感情を推定することができる。
例えば、前記出力において、さらに、前記第一信頼性及び前記第二信頼性の少なくとも一方が所定の閾値より小さい場合には、警告を出力してもよい。
上記態様によれば、感情推定装置は、推定した感情が被験者の感情をそれほど正しく表していないと評価される場合に警告を出力する。これにより、ユーザ又は被験者は、推定された感情が被験者の感情をそれほど正しく表していないことを明確に知ることができる。
例えば、前記算出において、前記第一データを所定の第一基準値と比較することで前記第一値を算出し、前記第二データを所定の第二基準値と比較することで前記第二値を算出し、前記感情推定方法は、さらに、前記被験者の身体的特徴に関連する情報を取得し、取得した前記被験者の身体的特徴に関連する情報に基づいて、前記所定の第一基準値又は前記所定の第二基準値を調整してもよい。
上記態様によれば、感情推定装置は、被験者の身体的特徴に関連する情報(例えば、性別又は年齢など)に基づいて覚醒感及び快適感の基準値を変動させることで、覚醒感及び快適感を被験者の身体的特徴に合わせて調整することができ、より適切に感情を推定することができる。
例えば、前記感情推定方法では、さらに、人の顔の予め定められた複数の領域のうち、前記第二データとしての表情を取得するのに用いる領域の選択をユーザから受け付け、前記取得において、前記被験者の顔のうち前記領域に含まれる特徴点を前記第二データとして取得し、前記算出において、前記被験者の顔のうち前記領域に含まれる特徴点に基づいて前記第二値を算出してもよい。
上記態様によれば、感情推定装置は、被験者の表情を取得するための顔の領域についての設定を受け付け、これを用いて被験者の表情を取得する。例えば被験者がサングラスを着用している場合には被験者の目の部分がサングラスにより隠されるので、目の部分から表情に関する情報を取得することができない。このような場合に、被験者の目の部分を除く部分から被験者の表情を取得するようにすることで、感情推定装置は、表情の検出をより適切に行うことができる。
例えば、前記生理学データは、顔の色、心拍数、心拍数変動、心拍数変動のLF/HF(Low Frequency/High Frequency)、R−R間隔、脈波、脈拍変動、脳波、呼吸数、呼吸量、血流、血流変動、血圧、血圧変動、酸素飽和度、身体の部分の動き、身体の筋肉の動き、顔の筋肉の動き、体温、皮膚温、皮膚コンダクタンス、皮膚抵抗、発汗量及び発汗レートの少なくとも1つを含んでもよい。
上記態様によれば、感情推定装置は、顔の色などの生理学データを用いてより具体的に被験者が抱く感情を推定することができる。
例えば、前記非生理学データは、表情、感情、接触入力信号、音声、言語表現、文章及び身振りの少なくとも1つを含んでもよい。
上記態様によれば、感情推定装置は、表情などの非生理学データを用いてより具体的に被験者が抱く感情を推定することができる。
例えば、前記所定の第一基準値又は前記所定の第二基準値は、被験者の性別、国籍、年齢及び肌の色の少なくとも1つに基づいて算出されてもよい。
上記態様によれば、感情推定装置は、性別などの情報を用いてより具体的に被験者が抱く感情を推定することができる。
また、本開示の一態様に係る感情推定装置は、生理学データに対応する第一データと、前記第一データとは異なる生理学データおよび非生理学データの内の一方に対応する第二データとを被験者から取得する取得部と、(i)取得した前記第一データと前記第二データとに基づいて、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出し、(ii)算出した前記第一値及び前記第二値から前記被験者の感情を、メモリに予め記憶された人の覚醒の度合い及び快適さの度合いと前記人の感情との所定の対応付けに基づいて推定する推定部と、推定した前記感情を示す情報を出力する出力部とを備える。
上記態様によれば、上記感情推定装置と同様の効果を奏する。
また、本開示の一態様に係る記録媒体は、コンピュータプログラムを記録した非一時的記録媒体であって、前記プログラムは、コンピュータに、生理学データに対応する第一データと、前記第一データとは異なる生理学データおよび非生理学データのうちの一方に対応する第二データとを被験者から取得し、取得した前記第一データと前記第二データとに基づいて、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出し、算出した前記第一値及び前記第二値から前記被験者の感情を、メモリに予め記憶された人の覚醒の度合い及び快適さの度合いと前記人の感情との所定の対応付けに基づいて推定し、推定した前記感情を示す情報を出力する処理を実行させる。
上記態様によれば、上記感情推定装置と同様の効果を奏する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態)
本実施の形態において、人が抱いているさまざまな感情を推定する感情推定装置、及び、感情推定装置における感情推定方法について説明する。なお、以降の説明において、感情推定装置により感情を推定する対象の人のことを被験者といい、感情推定装置を操作する人のことをユーザという。被験者とユーザとが同一の人であってもよい。
図1は、人の感情の二次元モデルの一例の説明図である。より具体的には、図1に示される感情の二次元モデルはラッセル円環モデルと呼ばれるものである。
人は、喜び又は驚きというようなさまざまな感情を抱く。図1は、人が抱くさまざまな感情を、覚醒の度合いである覚醒感(Arousal Level)と、快適さの度合いである快適感(Valence Level)とを2軸とする平面に配置したものである。図1に示されるように、人が抱くさまざまな感情は、この平面において円環状に配置され得ることが知られている。
発明者らは、被験者の顔の表情のみを用いてラッセル円環モデルに基づく感情の推定を行った場合、推定結果と実際の感情とが十分一致しないという結果を得た。発明者らは、この点に関して検討を重ねた結果、顔の表情をはじめとする非生理学データは、ラッセル円環モデルにおける快適感との相関が大きい一方、覚醒感との相関は小さいという知見を得た。また、本願発明者らは、ラッセル円環モデルにおける覚醒感は、心拍数などの生理学データとの相関が大きいという知見を得た。
発明者らは、以上の知見に基づき、非生理学データと生理学データとを適切に用いることにより、より高い精度でラッセル円環モデルを用いた感情推定を行うことができることに着想し、本開示に至った。
本実施の形態に係る感情推定装置は、生理学データ又は非生理学データから、上記の相関関係に基づいて、被験者が抱いているさまざまな感情を推定する。以降において、感情推定装置の構成及び動作について順に説明する。
図2は、本実施の形態に係る感情推定装置10のハードウェア構成を示すブロック図である。
図2に示されるように、感情推定装置10は、CPU(Central Processing Unit)11と、メモリ12と、センサ13と、表示装置14と、操作入力IF(Interface)15とを備える。
CPU11は、メモリ12に記憶された制御プログラムを実行するプロセッサである。感情推定装置10の後述する各機能ブロックは、CPU11が制御プログラムを実行することで実現され得る。
メモリ12は、記憶装置であり、CPU11が制御プログラムを実行するときに使用するワークエリアとして用いられる揮発性の記憶領域、並びに、制御プログラムなどを保持する不揮発性の記憶領域を含む。
センサ13は、人である被験者Uの生理学データ又は非生理学データを被験者Uから取得するセンサである。センサ13は、複数のセンサ素子を含む。複数のセンサ素子のそれぞれは、生理学データ又は非生理学データを被験者Uから検知することで取得する。上記複数のセンサ素子の少なくとも1つは、生理学データを取得するセンサ素子(生理学センサ)である。上記複数のセンサ素子のうちの上記1つを除くものは、生理学センサであってもよいし、非生理学データを取得するセンサ素子(非生理学センサ)であってもよい。
生理学データは、生体の機能に関するデータであり、例えば、顔の色、心拍数、心拍数変動、心拍数変動のLF/HF(Low Frequency/High Frequency)、R−R間隔、脈波、脈拍変動、脳波、呼吸数、呼吸量、血流、血流変動、血圧、血圧変動、酸素飽和度(SO2)、身体の部分の動き、身体の筋肉の動き、顔の筋肉の動き、体温、皮膚温、皮膚コンダクタンス、皮膚抵抗、皮膚のザラツキ、皮膚のテカリ、発汗量及び発汗レートの少なくとも1つを含む。ここで、身体の部分の動きとして、例えば瞬きの頻度、速度などが挙げられる。なお、生理学データは、後述する「表情データ」との対比のため、「非表情データ」とも称する。
生理学センサは、例えば、カメラ(可視光カメラ又は特定の電磁波フィルタを有するカメラ)、心電センサ(EKG又はECG)、光電式容積脈波記録法(フォトプレチスモグラフィ)センシング、脳波測定器具(EEG)、肺活量計、呼吸活性測定器、TOF(Time−of−Flight)センサ、ミリ波センサ、ミリ波レーダ、パルスオキシメータ、サーモグラファー、サーマルイメージャ、赤外イメージャ、顔の筋肉の動きの検知器、皮膚温コンダクタンスセンサ、皮膚抵抗センサ、発汗量センサ、近赤外分光器及びコンピュータ断層撮影器(CT)の少なくとも1つを含む。
非生理学データは、生体に関するデータのうち、生理学データでないデータであり、例えば、表情、感情、接触入力信号、音声、言語表現、文章及び身振り(ジェスチャ)の少なくとも1つを含む。なお、非生理学データとしての感情は、感情推定装置10が推定する感情のことではなく、他の方法により得られる感情のことであり、例えば、被験者Uが自身の感情として入力するものである。また、非生理学データのうち、例えば顔の画像から読み取れる情報(口や目、眉毛などの位置や形)のような、表情の推定に用いるデータを「表情データ」と称する。
非生理学センサは、例えば、カメラ、感情検出装置、接触入力器(タッチスクリーン)、マイク、TOFセンサ、ミリ波センサ、ミリ波レーダ、入力用キーボードによる言葉、文章の入力、マイクによる音声入力に基づく言葉、文章の入力及び歩行センサの少なくとも1つを含む。
表示装置14は、各種情報を出力する一例として、各種情報を画像として表示する表示画面を備える表示装置である。表示装置14は、例えば、タッチパネル式ディスプレイのディスプレイ部分である。
操作入力IF15は、ユーザによる感情推定装置10に対する操作を受け付ける操作入力インタフェースである。操作入力IF15は、例えば、タッチパネル式ディスプレイのタッチパネル部分である。
図3は、本実施の形態に係る感情推定装置10の機能構成を示すブロック図である。図4は、本実施の形態に係る感情推定装置10による感情の推定方法を示す模式図である。図5は、本実施の形態に係る感情推定装置10による感情の出力方法を示す模式図である。これらを参照しながら感情推定装置10の機能について説明する。
図3に示されるように、感情推定装置10は、機能ブロックとして、取得部20と、推定部30と、出力部40とを備える。
取得部20は、被験者Uから生理学データ等を取得する処理部である。具体的には、取得部20は、生理学データ(第一データに相当)と、上記生理学データとは異なる生理学データ又は非生理学データ(第二データに相当)とを取得する。取得部20は、生理学データ取得部21と、データ取得部22とを備える。なお、取得部20は、1つ以上のデータ取得部22(データ取得部2n等)を備えてもよい。
取得部20が、被験者Uから取得した第一データ、第二データなどは、推定部30へ出力される。
生理学データ取得部21は、被験者Uから被験者Uの生理学データを取得する処理部である。生理学データ取得部21は、センサ13に含まれる生理学センサを用いて、被験者Uの生理学データを取得する。なお、生理学データ取得部21は、他の装置が保有している被験者Uの生理学データを取得してもよい。
データ取得部22は、被験者Uから被験者Uの生理学データ又は非生理学データを取得する処理部である。データ取得部22は、センサ13に含まれる生理学センサ又は非生理学センサを用いて、被験者Uの生理学データ又は非生理学データを取得する。なお、データ取得部22は、他の装置が保有している被験者Uの生理学データ又は非生理学データを取得してもよい。
生理学データ取得部21とデータ取得部22とは、同一の被験者Uから、実質的に同時に、生理学データ及び非生理学データを取得する。
なお、データ取得部22が複数ある場合、複数のデータ取得部22のそれぞれは、独立に生理学データ又は非生理学データを取得する。よって、取得部20が取得する複数のデータのうちの少なくとも1つは生理学データであり、その他は、生理学データ又は非生理学データである。例えば、取得部20が1つの生理学データと1つの非生理学データとを取得することもあるし、2つの生理学データを取得する(非生理学データを1つも取得しない)こともある。
推定部30は、取得部20が取得したデータに基づいて推定される被験者Uの感情を推定する処理部である。推定部30は、覚醒成分算出部31と、快適成分算出部32と、感情推定部33とを備える。また、推定部30は、補正部37を備えてもよい。
覚醒成分算出部31は、取得部20が取得したデータに基づいて、被験者Uの覚醒の度合いを示す覚醒感AR(図4参照)を算出する処理部である。より具体的には、覚醒成分算出部31は、生理学データ取得部21及びデータ取得部22が取得した生理学データ及び非生理学データのそれぞれを取得し、これらのデータに基づいて覚醒感ARを算出する。覚醒成分算出部31は、生理学データ及び非生理学データについての基準値となるパラメータ34を保有しており、取得部20が取得したデータを基準値と比較することで覚醒感ARを算出する。なお、上記のように「生理学データ取得部21及びデータ取得部22が取得した生理学データ及び非生理学データ」という場合、非生理学データが含まれないこともある。覚醒感は、第一値に相当する。
なお、覚醒成分算出部31は、生理学データ及び非生理学データのうち、覚醒感との相関が比較的小さいとして定められているデータを除外して、覚醒感ARを算出してもよい。
例えば、覚醒成分算出部31が生理学データとしての顔の色に基づいて覚醒感ARを算出するときには、覚醒成分算出部31は、例えば、生理学データ取得部21が取得した被験者Uの顔の色の赤色の輝度値と、パラメータ34として保有している顔の色の赤色の輝度値の基準値とを比較する。そして、被験者Uの顔の色の赤色の輝度値が上記基準値と等しい場合に覚醒感ARをゼロと算出し、被験者Uの顔の色の赤色の輝度値が大きいほど大きい(言い換えれば、輝度値が小さいほど小さい)覚醒感ARを算出する。
快適成分算出部32は、取得部20が取得したデータに基づいて、被験者Uの快適さの度合いを示す快適感VA(図4参照)を算出する処理部である。より具体的には、快適成分算出部32は、生理学データ取得部21及びデータ取得部22が取得した生理学データ及び非生理学データのそれぞれを取得し、これらのデータに基づいて快適感VAを算出する。快適成分算出部32は、生理学データ及び非生理学データについての基準値となるパラメータ35を保有しており、取得部20が取得したデータを基準値と比較することで快適感VAを算出する。快適感は、第二値に相当する。
なお、快適成分算出部32は、生理学データ及び非生理学データのうち、快適感との相関が比較的小さいとして定められているデータを除外して、快適感VAを算出してもよい。
例えば、快適成分算出部32が非生理学データとしての表情に基づいて快適感VAを算出するときには、快適成分算出部32は、例えば、データ取得部22が取得した被験者Uの顔のパーツの特徴点から表情を特定し、特定した表情について所定の対応付けに基づいて快適感VAを算出する。
感情推定部33は、覚醒成分算出部31が算出した覚醒感ARと、快適成分算出部32が算出した快適感VAとから被験者Uの感情を推定する処理部である。感情推定部33は、例えば、人の覚醒感と快適感との所定の対応付け(例えば図1に示すラッセル円環モデル)を予めメモリに保有している。このメモリは、図2に示すメモリ12であってもよいし、感情推定装置10が備えるメモリ12とは、別のメモリであってもよい。別のメモリとは、例えば、感情推定装置10とは別体の記憶装置(外部記憶装置ともいう)であってもよい。感情推定装置10がメモリから上述の所定の対応付けに関する情報を読み出したり、このメモリへ情報を書き込んだりすることができる構成であれば、所定の対応付けを記憶したメモリは、感情推定装置10に含まれていてもよいし、そうでなくてもよい。
そして、感情推定部33は、覚醒成分算出部31が算出した覚醒感ARと、快適成分算出部32が算出した快適感VAとを取得し、取得した覚醒感AR及び快適感VAに、上記所定の対応付けにより対応付けられている感情を選択することで、被験者Uの感情を推定する。
所定の対応付けとしてラッセル円環モデルを用いる場合、感情推定部33は、覚醒感を縦軸とし、快適感を横軸とした平面上に、取得した覚醒感AR及び快適感VAに対応する点をプロットし、ラッセル円環モデルにおいてその点に割り当てられている感情を、被験者Uの感情として推定する(図4参照)。
感情推定部33は、覚醒感ARと快適感VAとに基づいて感情を推定する際の基準となるパラメータ36を保有している。パラメータ36は、例えば、覚醒感ARと快適感VAとのどちらに比重を置くかを示す割合を示す基準値である。感情推定部33は、覚醒感ARと快適感VAとに基づいて、パラメータ36を基準として被験者Uの感情を推定する。
補正部37は、覚醒成分算出部31が保有しているパラメータ34、快適成分算出部32が保有しているパラメータ35、及び、感情推定部33が保有しているパラメータ36を補正する処理部である。補正部37は、被験者Uの身体的特徴に関する情報、より具体的には性別、国籍、年齢、又は、肌の色などの情報に基づいて、パラメータ34、35及び36を調整することで補正する。例えば、補正部37は、生理学データとしての心拍数から覚醒感ARを算出する場合、被験者Uが男性である場合に心拍数の基準値を比較的低い値に設定する。これにより、覚醒成分算出部31は、同じ心拍数であっても、男性の被験者の覚醒感を女性の被験者の覚醒感より高い値として算出するようになる。一般に平常時の心拍数は女性より男性の方が低いので、同じ心拍数であれば、男性の方が、平常時からの差分が大きいからである。
推定部30は、推定した感情を示す情報を出力部40へ出力する。
出力部40は、推定部30が推定した感情を示す情報を出力する処理部である。出力部40は、表示部41を備える。表示部41は、推定部30が推定した感情を示す情報を画像として、表示装置14の表示画面に表示する処理部である。
出力部40は、例えば図5のように、取得部20が取得したデータと、推定部30が推定した感情を示す情報とを並べた画像を表示装置14に表示する。図5に示される画像は、生理学データ取得部21が生理学データとして取得した被験者Uの顔の色を示す画像51と、データ取得部22が非生理学データとして取得した被験者Uの表情を示す画像52と、推定部30が推定した被験者Uの感情を示す画像53とを含む。画像53は、快適感と覚醒感とを2つの座標軸とする平面上の点として被験者Uの感情を示す画像の一例である。なお、画像53は、快適感と覚醒感との少なくとも一方を示す画像であってもよい。また、画像53は、被験者Uの所定の感情(例えば、喜び)の強さを示す値を示す画像であってもよい。また、画像53は、被験者Uの覚醒感の信頼性及び快適感の信頼性の少なくとも一方を示す画像であってもよい。
なお、出力部40による出力方法は、図5に示されるものに限られず、例えば覚醒感だけを出力する、特定の感情の強度を出力する等、さまざまなバリエーションがある。バリエーションについては後で詳しく説明する。
以降において、感情推定装置10のより具体的な構成について説明する。
図6は、本実施の形態に係る感情推定装置10の機能構成の第一の具体例としての感情推定装置10Aを示すブロック図である。なお、感情推定装置10の構成要素と同一のものについては、同一の符号を付し、詳細な説明を省略する。以降も同様とする。
図6に示されるように、感情推定装置10Aは、感情推定装置10における取得部20及び推定部30として、それぞれ、取得部20A及び推定部30Aを備える。その他の構成要素は、感情推定装置10におけるものと同じである。
取得部20Aは、生理学データ取得部21Aと、非生理学データ取得部22Aとを備える。
生理学データ取得部21Aは、感情推定装置10の生理学データ取得部21の一具体例であり、被験者Uの生理学データを取得する処理部である。生理学データ取得部21Aは、取得した生理学データを覚醒成分算出部31Aに提供する。
非生理学データ取得部22Aは、感情推定装置10のデータ取得部22の一具体例であり、被験者Uの非生理学データを取得する処理部である。非生理学データ取得部22Aは、取得した非生理学データを快適成分算出部32Aに提供する。
推定部30Aは、覚醒成分算出部31Aと、快適成分算出部32Aとを備える。
覚醒成分算出部31Aは、感情推定装置10の覚醒成分算出部31の一具体例であり、生理学データ取得部21Aが取得した生理学データに基づいて覚醒感を算出する処理部である。覚醒成分算出部31Aは、覚醒感を算出するために、生理学データ取得部21Aが取得した生理学データを用い、また、非生理学データ取得部22Aが取得した非生理学データを用いない。
快適成分算出部32Aは、感情推定装置10の快適成分算出部32の一具体例であり、非生理学データ取得部22Aが取得した非生理学データに基づいて快適感を算出する処理部である。快適成分算出部32Aは、快適感を算出するために、非生理学データ取得部22Aが取得した非生理学データを用い、また、生理学データ取得部21Aが取得した生理学データを用いない。
感情推定装置10Aは、覚醒感との相関が比較的小さい非生理学データを用いて覚醒感を算出すること、及び、快適感との相関が比較的小さい生理学データを用いて快適感を算出することを回避することができる。その結果、覚醒感及び快適感それぞれに相関が大きいデータに基づいて被験者Uの感情を推定することができる利点がある。また、構成が単純化されるので、装置の開発コストの削減、保守運用コストの削減の効果もある。
図7は、本実施の形態に係る感情推定装置10の機能構成の第二の具体例としての感情推定装置10Bを示すブロック図である。図8は、本実施の形態に係る感情推定装置10の機能構成の第二の具体例としての感情推定装置10Bの感情推定処理を示すブロック図である。
図7に示されるように、感情推定装置10Bは、感情推定装置10における取得部20及び推定部30として、それぞれ、取得部20B及び推定部30Bを備える。その他の構成要素は、感情推定装置10におけるものと同じである。
取得部20Bは、生理学データ取得部21Bと、非生理学データ取得部22Bとを備える。
生理学データ取得部21Bは、感情推定装置10における生理学データ取得部21の一具体例であり、被験者Uの生理学データを取得する処理部である。生理学データ取得部21Bは、取得した生理学データを、覚醒成分算出部31Aと快適成分算出部32Aとに提供する。このように、生理学データ取得部21Bは、取得した生理学データを提供する先が生理学データ取得部21と異なる。
非生理学データ取得部22Bは、感情推定装置10におけるデータ取得部22の一具体例であり、被験者Uの非生理学データを取得する処理部である。非生理学データ取得部22Bは、取得した非生理学データを、覚醒成分算出部31Bと快適成分算出部32Bとに提供する。このように、非生理学データ取得部22Bは、取得した非生理学データを提供する先がデータ取得部22と異なる。
推定部30Bは、覚醒成分算出部31A及び31Bと、快適成分算出部32A及び32Bとを備える。覚醒成分算出部31A及び31Bが、感情推定装置10の覚醒成分算出部31に相当し、快適成分算出部32A及び32Bが、感情推定装置10の快適成分算出部32に相当する。
覚醒成分算出部31Aは、生理学データ取得部21Bが取得した生理学データに基づいて覚醒感(図8の覚醒感AR1)を算出する処理部である。また、覚醒成分算出部31Aは、算出する覚醒感に基づく感情推定の正しさの指標である信頼性(図8の信頼性r1)を算出する。
信頼性を算出する方法は、さまざまな方法があり得る。例えば、生理学データ取得部21Bが取得した生理学データに含まれるノイズの量が大きいほど、低い信頼性を算出してもよい。また、生理学データ取得部21Bが被験者Uから生理学データを取得するのに用いるセンサ13の種別により設定されてもよいし、ユーザにより任意に設定されてもよい。
覚醒成分算出部31Bは、非生理学データ取得部22Bが取得した非生理学データに基づいて覚醒感(図8の覚醒感AR2)を算出する処理部である。また、覚醒成分算出部31Bは、算出する覚醒感の信頼性(図8の信頼性r2)を算出する。
快適成分算出部32Aは、生理学データ取得部21Bが取得した生理学データに基づいて快適感(図8の快適感VA1)を算出する処理部である。また、快適成分算出部32Aは、算出する快適感の信頼性(図8の信頼性r3)を算出する。
快適成分算出部32Bは、非生理学データ取得部22Bが取得した非生理学データに基づいて快適感(図8の快適感VA2)を算出する処理部である。また、快適成分算出部32Bは、算出する快適感の信頼性(図8の信頼性r4)を算出する。
感情推定部33Bは、覚醒成分算出部31B及び32Bそれぞれから覚醒感を取得し、また、快適成分算出部32A及び32Bそれぞれから快適感を取得し、被験者Uの感情を推定する。
感情推定部33Bは、複数の覚醒感を取得した場合、複数の覚醒感に基づいて1つの覚醒感を算出する。複数の覚醒感に基づいて1つの覚醒感を算出する方法はさまざまな方法があり得るが、例えば、複数の覚醒感の平均をとる、複数の覚醒感について各覚醒感の信頼性を重みとして加重平均をとる、複数の覚醒感の中央値をとる、というような方法があり得る。
加重平均をとる方法について図8に示している。感情推定部33Bは、複数の覚醒感AR1及びAR2それぞれの信頼性r1及びr2を用いて1つの覚醒感ARを以下の(式1)により算出する。
AR=(r1×AR1+r2×AR2)/(r1+r2) (式1)
また、感情推定部33Bは、複数の快適感VA1及びVA2それぞれの信頼性r3及びr4を用いて1つの快適感VAを以下の(式2)により算出する。
VA=(r3×VA1+r4×VA2)/(r3+r4) (式2)
そして、感情推定部33Bは、算出した覚醒感ARと快適感VAとに、所定の対応付け(例えばラッセル円環モデル)により対応付けられている感情を選択することで、被験者Uの感情を推定する。
図9は、本実施の形態に係る感情推定装置10の機能構成の第三の具体例としての感情推定装置10Cを示すブロック図である。
図9に示されるように、感情推定装置10Cは、感情推定装置10における取得部20及び推定部30として、それぞれ、取得部20C及び推定部30Bを備える。その他の構成要素は、感情推定装置10におけるものと同じである。
取得部20Cは、生理学データ取得部21A及び22Cと、非生理学データ取得部22A及び22Dとを備える。
生理学データ取得部21Aは、感情推定装置10における生理学データ取得部21の一具体例であり、被験者Uの生理学データを取得する処理部である。生理学データ取得部21Aは、取得した生理学データを、覚醒成分算出部31Aに提供する。
生理学データ取得部22Cは、感情推定装置10におけるデータ取得部22の一具体例であり、被験者Uの生理学データを取得する処理部である。生理学データ取得部22Cは、取得した生理学データを、覚醒成分算出部31Bに提供する。
非生理学データ取得部22A及び22Dは、それぞれ、感情推定装置10におけるデータ取得部22の一具体例であり、被験者Uの非生理学データを取得する処理部である。非生理学データ取得部22A及び22Dは、それぞれ、取得した非生理学データを快適成分算出部32A及び32Bに提供する。
推定部30Bは、感情推定装置10Bにおける場合と同様に、複数の覚醒感及び快適感に基づいて、被験者Uの感情を推定する。
図10は、本実施の形態に係る感情推定装置10の機能構成の第四の具体例としての感情推定装置10Dを示すブロック図である。
図10に示されるように、感情推定装置10Dは、感情推定装置10Aにおける取得部20A及び推定部30Aを、それぞれ、取得部20D及び推定部30Dとしてより具体的に示すものである。
取得部20Dは、カメラ61と、解析部62と、心拍取得部63と、特徴点抽出部64と、表情特定部65とを備える。
カメラ61は、被験者Uの顔の動画像を撮影し、動画像データを生成する撮像装置である。カメラ61は、生成した動画像データを、解析部62及び特徴点抽出部64に提供する。
解析部62は、カメラ61が生成した動画像データに基づいて、被験者Uの顔の色の微小な変化を解析する処理部である。解析部62は、カメラ61が生成した動画像データを取得し、動画像における被験者Uの顔の領域を抽出する。そして、抽出した顔の領域に含まれる画素の色を示す時系列データを生成する。顔の色は、脈波(心拍)に基づいて微小な変化をするので、この時系列データは、脈波に基づいて変化する成分を有している。
心拍取得部63は、解析部62が生成した時系列データから被験者Uの心拍数を取得する処理部である。心拍取得部63は、解析部62が生成した時系列データを取得し、取得した時系列データから周波数フィルタなどを用いて脈波に応じて変化する成分を抽出し、心拍数を取得する。
特徴点抽出部64は、カメラ61が生成した動画像データに基づいて、被験者Uの顔の特徴点を抽出する処理部である。特徴点抽出部64は、動画像データから被験者Uの眉、目、鼻又は口等のパーツを抽出し、さらに、各パーツの特徴点(例えば上下左右の端点)の位置を抽出する。
表情特定部65は、特徴点抽出部64が抽出したパーツの位置に基づいて被験者Uの表情を特定する処理部である。表情特定部65は、例えば、口の左右の端点が基準位置より上にある場合に、被験者Uの表情が笑顔であると特定する。
推定部30Dは、覚醒成分算出部31Dと、快適成分算出部32Dと、感情推定部33とを備える。
覚醒成分算出部31Dは、心拍取得部63が取得した被験者Uの心拍数を基準値と比較し、被験者Uの覚醒感を算出する。例えば、心拍取得部63が取得した被験者Uの心拍数が基準値と等しい場合に覚醒感をゼロと算出し、心拍取得部63が取得した被験者Uの心拍数が大きいほど大きい(言い換えれば、心拍数が小さいほど小さい)覚醒感を算出する。
快適成分算出部32Dは、表情特定部65が特定した被験者Uの表情に基づいて快適感を算出する。例えば、表情特定部65が特定した被験者Uの表情が笑顔である場合、快適感を比較的大きな値として算出する。
感情推定部33は、上記のように覚醒成分算出部31Dが算出した覚醒感、及び、快適成分算出部32Dが算出した快適感に基づいて、被験者Uの感情を推定する。
以上のように構成された感情推定装置10の処理について、以下で説明する。
図11は、本実施の形態に係る感情推定装置10により推定される感情の推定方法を示すフロー図である。
まず、感情推定装置10は、ステップS1(ステップS101〜S103)において被験者Uから生理学データを取得し、また、ステップS2(ステップS104〜S106)において被験者Uから生理学データ又は非生理学データを取得する。なお、ステップS1とS2とは、どちらが先に行われてもよいし、同時並行的に行われてもよい。
ステップS101において、生理学データ取得部21は、生理学センサにより被験者Uの生理学データを取得する。
ステップS102において、補正部37は、覚醒成分算出部31のパラメータ34の調整を行う。なお、ステップS102は必須の処理ステップではなく、実行されなくてもよい。
ステップS103において、覚醒成分算出部31は、ステップS101で取得した生理学データに基づいて覚醒感を算出する。
ステップS104において、データ取得部22は、生理学センサ又は非生理学センサにより被験者Uの生理学データ又は非生理学データを取得する。
ステップS105において、補正部37は、快適成分算出部32のパラメータ35の調整を行う。なお、ステップS105は必須の処理ステップではなく、実行されなくてもよい。
ステップS106において、快適成分算出部32は、ステップS104で取得した生理学データ又は非生理学データに基づいて快適感を算出する。
ステップS107において、補正部37は、感情推定部33のパラメータ36の調整を行う。なお、ステップS107は必須の処理ステップではなく、実行されなくてもよい。
ステップS108において、感情推定部33は、ステップS103で算出した覚醒感と、ステップS106で算出した快適感とに基づいて、被験者Uの感情を推定する。
ステップS109において、表示部41は、ステップS108で推定した被験者Uの感情を示す情報を表示する。
以上の一連の処理により、感情推定装置10は、被験者Uから取得する生理学データ及び非生理学データに基づいて被験者Uが抱いているさまざまな感情を推定する。
以降において、感情推定装置10が表示装置14に表示する画像等について説明する。
図12は、本実施の形態に係る取得部20がデータ取得に用いるセンサ13の選択、及び、取得するデータの選択をユーザから受け付けるための画像の説明図である。
図12に示される画像は、取得部20がデータ取得に用いるセンサ13の選択、及び、取得するデータの選択をユーザから受け付けるための画像であり、表示装置14に表示されるものである。この画像は、センサ13を示すボタン121を複数含んでおり、また、データ種別を示すボタン122を複数含んでいる。
センサ13を示すボタン121は、より具体的には、センサ13としてのカメラ、マイク、及び、赤外線カメラをそれぞれ示すボタン121A、121B、及び、121Cを含む。ユーザは、上記ボタンのうち、取得部20によるデータ取得に用いるセンサ13を示すボタンを操作(例えばタッチ)すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応するセンサ13を用いて取得部20がデータを取得するように制御する。
データ種別を示すボタン122は、より具体的には、データ種別としての顔の色、心拍数、及び、血圧をそれぞれ示すボタン122A、122B、及び、122Cを含む。ユーザは、上記ボタンのうち、取得部20により取得されるデータ種別を示すボタンを操作すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応するデータ種別のデータを取得部20が取得するように制御する。
なお、センサ13又はデータ種別は、複数選択されてよく、選択されるセンサ13の個数に上限又は下限が設けられていてもよい。また、センサ13及びデータ種別に互いに関連するものが含まれる場合、それらが連動して選択されてもよい。例えば、センサ13としてカメラが選択された場合に、カメラにより取得可能なデータ種別である顔の色と心拍数とが自動的に選択されるようにしてもよい。
図13は、本実施の形態に係る出力部40が出力する情報の選択をユーザから受け付けるための画像の説明図である。図13に示される画像は、出力部40が出力する情報の選択をユーザから受け付けるための画像であり、表示装置14に表示されるものである。この画像は、出力する情報を示すボタン131及び132を複数含んでいる。
ボタン131は、例えば一般ユーザ用のボタンであり、より具体的には、感情、覚醒感、快適感、及び、喜びレベルをそれぞれ示すボタン131A、131B、131C、及び、131Dを含む。ユーザが、上記ボタンのうち、出力部40により出力させる情報を示すボタンを操作すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応する情報を出力部40が出力するように制御する。例えば、ユーザがボタン131Aを操作した場合には、出力部40は、推定した被験者Uの感情を出力する。また、ユーザがボタン131Bを操作した場合には、出力部40は、被験者Uの覚醒感を出力する。
ボタン132は、例えば開発者用のボタンであり、より具体的には、3つの特別出力それぞれを示すボタン132A、132B、及び、132Cを含む。特別出力とは、覚醒感及び快適感の算出方法を試験的に調整するなどのために設けられる出力方法である。ユーザが、上記ボタンのうち、出力部40により出力させる情報を示すボタンを操作すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応する情報を出力部40が出力するように制御する。
なお、出力する情報は、複数選択されてよく、選択されるセンサ13の個数に上限又は下限が設けられていてもよい。
図14は、本実施の形態に係るセンサ13の設定をユーザから受け付けるための画像の説明図である。図14に示される画像は、センサ13の種別等についての設定をユーザから受け付けるための画像であり、表示装置14に表示されるものである。この画像は、センサ13の種別を示すボタン141、センサ13のハードウェア状態を示す表示領域142、覚醒感の信頼性を示す表示領域143、覚醒感の信頼性を調整するためのボタン144、快適感の信頼性を示す表示領域145、及び、快適感の信頼性を調整するためのボタン146を含む。
センサ13の種別を変更するときには、ユーザは、ボタン141を操作し、その後、変更後のセンサ13の種別を入力する操作を行う。この操作を操作入力IF15が受け付け、センサ13の種別を変更し、ボタン141に表示する文字列を変更後のセンサ13の種別に変更するよう制御する。
表示領域142は、センサ13が感情推定装置10に適切に接続されているか否かを示す情報を表示する表示領域である。センサ13が適切に接続されているときには「接続状態」と表示され、センサ13が適切に接続されていないときには「非接続状態」と表示される。
表示領域143及び145は、それぞれ、覚醒感及び快適感の信頼性を表示する表示領域である。ユーザがこの信頼性を調整する場合には、ユーザは、ボタン144又は146を操作し、その後、信頼性を変更する操作を行う。
図15は、本実施の形態に係るセンサ13の信頼性の調整をユーザから受け付けるための画像の説明図である。図15に示される画像は、センサ13の信頼性の調整(具体的には増加又は減少)についての設定をユーザから受け付けるための画像であり、表示装置14に表示されるものである。この画像は、例えば、図14のボタン144又は146に対するユーザによる操作を操作入力IF15が受け付けたときに表示される。
この画像は、覚醒感及び快適感のそれぞれの信頼性を表示する表示領域151及び154を含んでいる。また、覚醒感及び快適感のそれぞれの信頼性を増加させるボタン152及び155、並びに、覚醒感及び快適感のそれぞれの信頼性を減少させるボタン153及び156を含んでいる。
ユーザは、センサ13の覚醒感の信頼性を増加又は減少させるときには、それぞれ、ボタン152又は153を操作する。この操作を操作入力IF15が受け付けると、この操作に従って、センサ13の覚醒感の信頼性を増加又は減少させ、表示領域151に表示している覚醒感を示す数値を増加または減少させる。このようにして、感情推定装置10は、ユーザに快適感の信頼性を示す数値を提示しながら調整させることができる。なお、快適感についても上記と同様であるので説明を省略する。
図16は、本実施の形態に係る出力情報に関する計算式の設定のための画像の説明図である。図16に示される画像は、出力情報の1つである特別出力のための計算式の設定をユーザから受け付けるための画像であり、表示装置14に表示されるものである。この画像は、例えば、図13のボタン132A等に対するユーザによる操作を操作入力IF15が受け付けたときに表示される。
この画像は、計算式の表示領域161と、演算子の入力のための複数のボタン162と、計算式を決定するためのボタン163とを含んでいる。ボタン162に対するユーザによる操作がなされると、この操作を操作入力IF15が受け付け、表示領域161に表示される計算式を更新する。そして、ボタン163に対するユーザによる操作がなされると、この操作を操作入力IF15が受け付け、表示領域161に表示された計算式が特別出力1の計算式として決定される。
ユーザは、特別出力の内容を変更するときには、表示領域161に表示される計算式を視認するとともに、複数のボタン162を操作することにより計算式を変更することができる。
図17は、本実施の形態に係る出力情報に関する計算式の確認のための画像の説明図である。図17に示される画像は、出力情報の1つである特別出力のための計算式をユーザに閲覧させるための画像であり、表示装置14に表示されるものである。この画像は、例えば、図16のボタン163に対するユーザによる操作を操作入力IF15が受け付けたときに表示される。
この画像は、3つの特別出力の計算式のそれぞれを示す表示領域171、172及び173を含む。これらの表示領域には、例えば図16に示される画像に基づいてユーザが設定した計算式が表示される。ユーザは、3つの特別出力の計算式を1つの画像として閲覧することで、効率よく、これらの計算式同士の関係を把握したり、計算式の修正点を発見したりすることができる。
図18は、本実施の形態に係る感情を示す情報の出力の選択のための画像の説明図である。図18に示される画像は、感情推定装置10が、推定した感情として出力する情報を設定するための画像であり、表示装置14に表示されるものである。
この画像は、感情推定装置10が、推定した感情として出力する情報の候補を示すボタン181、182及び183を含む。これらのボタンそれぞれには、感情を示す文字列が付されており、ユーザによりボタンに対する操作がなされると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応する感情を、推定した感情として出力するか出力しないかを切り替えるよう制御する。例えば、ユーザによるボタン操作により、「Happy Levelを出力する」、「Surprised Levelを出力する」、及び、「Angry Levelを出力しない」ということが決定された場合、推定部30が被験者Uの感情として「Happy」及び「Surprised」を示す情報を出力することは許容されるが、「Angry」を示す情報を出力することは抑制される。
ユーザは、出力される感情を一部のものに限定することができる。これにより、ユーザは、例えば被験者Uにとって必要な推定結果のみを得ることができる、又は、ユーザ自身が被験者Uであって他人に見られることが想定される場合に他人に見せたくない推定結果を出力させないようにすることができるという利点がある。
図19は、本実施の形態に係る感情を示す情報の表現の設定のための画像の説明図である。図19に示される画像は、感情推定装置10が、推定した感情として出力する情報の表現を設定するための画像であり、表示装置14に表示されるものである。
この画像は、感情推定装置10が、推定した感情として出力する情報の表現の候補を示すボタン191、192、193及び194を含む。これらのボタンそれぞれには、喜びの感情又はこれに類似する感情を示す複数の表現の文字列が付されている。ユーザによりボタンに対する操作がなされると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応する表現を用いた情報を、出力部40が出力するよう制御する。例えば、ユーザによるボタン操作により、ボタン191の「Happy」を選択すると、喜びの感情を出力する場合に「Happy」という表現を出力する。
図20は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第一例の説明図である。
図20に示される画像は、推定部30が推定した感情として出力する情報を設定するための画像であり、表示装置14に表示されるものである。
この画像は、入力に関する画像を左側に含み、出力に関する情報を右側に含んでいる。
図20に示される画像のうちの左側には、生理学データとしての「顔の色」と、非生理学データとしての「表情」とを被験者Uから取得するか否かを選択するためのボタン201及び202、並びに、被験者Uから取得しているデータを示す画像203が含まれている。ユーザは、上記ボタンのうち、取得部20により取得するデータを示すボタンを操作すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応するデータを取得部20が取得するように制御する。図20では、取得部20が「顔の色」を取得するように制御されている状態であり、ボタン201の色が濃い色で示されている。また、実際に被験者Uから取得している顔の色が、画像203により示されている。
図20に示される画像のうちの右側には、推定部30が推定した被験者Uの感情を示す画像204と、覚醒感及び快適感それぞれを出力するか否かを選択するためのボタン205及び206とが含まれている。図20では、推定部30が覚醒感を用いて、また、快適感を用いずに、感情を推定する状態であり、ボタン205が濃い色で示されている。また、画像204では、推定部30が推定した感情を、覚醒感だけを用いて示している。
このように、ユーザ又は被験者Uは、被験者Uから取得されたデータと、そのデータに基づいて推定される感情とが並んだ1の画像を視認することで、直観的に被験者Uの感情の推定結果を把握することができる。
図21は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第二例の説明図である。図21に示される画像の全体的な構成は、図20に示される画像と同じであるが、図20に示される画像とは、被験者Uから取得する情報、及び、出力する情報が異なる。
図21に示される画像のうちの左側には、図20に示される画像と同様、「顔の色」と「表情」とを被験者Uから取得するか否かを選択するためのボタン211及び212、並びに、取得しているデータを示す画像213が含まれている。図21では、取得部20が「表情」を取得するように制御されている状態であり、ボタン212の色が濃い色で示されている。また、実際に被験者Uから取得している顔の色が、画像213により示されている。
図21に示される画像のうちの右側には、被験者Uの感情を示す画像214と、覚醒感及び快適感それぞれを出力するか否かを選択するためのボタン215及び216とが含まれている。図21では、推定部30が快適感を用いて、また、覚醒感を用いずに、感情を推定する状態であり、ボタン216が濃い色で示されている。また、画像214では、推定部30が推定した感情を、快適感だけを用いて示している。
図22は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第三例の説明図である。図22に示される画像の全体的な構成は、図20に示される画像と同じであるが、図20に示される画像とは、被験者Uから取得する情報、及び、出力する情報が異なる。
図22に示される画像のうちの左側には、図20に示される画像と同様、「顔の色」と「表情」とを被験者Uから取得するか否かを選択するためのボタン221及び222、並びに、取得しているデータを示す画像223及び224が含まれている。図22では、取得部20が「顔の色」及び「表情」を取得するように制御されている状態であり、ボタン221及び222の色が濃い色で示されている。また、実際に被験者Uから取得している顔の色及び表情が、画像223及び224により示されている。
図22に示される画像のうちの右側には、被験者Uの感情を示す画像225と、覚醒感及び快適感それぞれを出力するか否かを選択するためのボタン226及び227と、推定した感情を出力するか否かを選択するボタン228と、推定した感情を示す文字列229とが含まれている。図22では、推定部30が覚醒感及び快適感を用いて感情を推定する状態であり、ボタン226及び227が濃い色で示されている。画像225では、推定部30が推定した感情を、覚醒感及び快適感を用いて示している。
さらに、図22では、推定した感情を出力する状態であり、ボタン228が濃い色で示されている。この場合、推定した感情を示す文字列229が示されている。なお、ボタン228は、ボタン226及び227により、覚醒感及び快適感の両方を出力することが選択されているときにのみ表示されるようにしてもよい。覚醒感及び快適感の一方だけを出力する場合に、覚醒感及び快適感の両方から推定される感情を示すことは適当でないからである。
図23は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第四例の説明図である。図23に示される画像の上側の部分は、図22に示される画像と同じである。図23に示される画像の下側の部分は、取得部20が取得する生理学データ及び非生理学データ(入力データ)の信頼性を設定するための画像を含む。
入力データの信頼性を設定するための画像には、取得部20が取得する生理学データ及び非生理学データとしての「顔の色」及び「表情」それぞれの信頼性を表示する表示領域231及び234、並びに、上記信頼性を調整するためのボタン232、233、235及び236が含まれている。信頼性の調整方法は、図15におけるものと同じであるので説明を省略する。
図24は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第五例の説明図である。図24に示される画像の全体的な構成は、図20に示される画像と同じであるが、図20に示される画像とは、被験者Uから取得する情報、及び、出力する情報が異なる。
図24に示される画像のうちの左側は、図20におけるものと同じである。つまり、取得部20が「顔の色」を取得するように制御されている状態である。
図24に示される画像のうちの右側は、推定部30が覚醒感及び快適感を用いて感情を推定する状態であることを示しており、また、推定した感情を示す情報が表示されている。
また、図24に示される画像は、生理学データとしての「顔の色」から推定される快適感の信頼性が低いことを示す警告のための画像241を含む。
このように、出力部40は、覚醒感及び快適感から推定した感情を表示する一方で、その覚醒感及び快適感の少なくとも一方の信頼性が所定値より低い場合に、その旨を示す画像を表示する。ユーザ又は被験者Uは、この画像を視認すると、警告とともに出力されている感情は、それほど正しくないものであると判断することができる。
図25は、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第六例の説明図である。図25に示される画像の全体的な構成は、図22に示される画像と同じであるが、図22に示される画像とは、被験者Uから取得する生理学データを示す情報が異なる。
図25に示される画像のうちの左側には、生理学データとしての「心拍」を被験者Uから取得するか否かを設定するためのボタン251、及び、取得している心拍の波形の時系列データを示す画像252が含まれている。
このように、ユーザ又は被験者Uは、心拍と表情とに基づいて推定される被験者Uの感情を把握することができる。
図26Aは、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第七例の説明図である。図26Aに示される画像の全体的な構成は、図22に示される画像と同じであるが、図22に示される画像とは、被験者Uから取得する非生理学データを示す情報が異なる。
図26Aに示される画像のうちの左側には、非生理学データとしての音声及び言語表現を被験者Uから取得するか否かを設定するためのボタン261及び262、並びに、取得している音声の大きさの大小を示す画像263、及び、取得している言語表現の強弱を示す画像264が含まれている。
図26Bは、本実施の形態に係る推定部30が推定した感情を示す情報を含む画像の第八例の説明図である。図26Bに示される画像の全体的な構成は、図26Aに示される画像と同じであるが、図26Aに示される画像とは、被験者Uから取得する生理学データを示す情報が異なる。
図26Bに示される画像のうちの左側には、生理学データとしての心拍を被験者から取得するか否かを設定するためのボタン265、及び、取得している心拍の波形を示す画像266が含まれている。
このように、ユーザ又は被験者Uは、顔の色、音声、及び、言語表現に基づいて推定される被験者Uの感情を把握することができる。
図27は、本実施の形態に係る被験者情報の登録のための画像の説明図である。
図27に示される画像は、感情推定装置10により感情を推定する対象となる被験者Uに関する情報(被験者情報ともいう)を感情推定装置10に登録するための画像であり、表示装置14に表示されるものである。
この画像は、被験者Uに関する情報として、被験者Uの国籍、性別、年齢、平常時の平均心拍数、平常時の血圧、肌の色、及び、慢性疾患等についての登録のための操作をユーザから受け付けるための画像を含んでいる。ユーザは、上記の各情報が表示された領域に対して操作すると、この操作を操作入力IF15が受け付け、操作がなされたボタンに対応するデータを変更するよう制御する。データの変更の際には、設定し得る文字又は記号などの選択肢を表示しユーザに選択させる等、既知の方法が採用され得る。
図28は、本実施の形態に係る被験者Uの顔の登録のための画像の第一例の説明図である。
図28に示される画像は、感情推定装置10により感情を推定する対象となる被験者Uの顔を登録するための画像であり、表示装置14に表示されるものである。
この画像は、感情推定装置10に登録する被験者Uの顔を示す画像281、平常時の平均心拍数を示す表示領域282、平常時の平均呼吸数を示す表示領域283、及び、登録のためのボタン284を含む。画像281は、記憶媒体に保存されていたデータを読みだしたものであってもよいし、感情推定装置10がカメラを備えている場合にはカメラで撮影したものであってもよい。平均心拍数及び平均呼吸数は、ユーザにより入力されたものであってもよいし、センサ13によりユーザから取得したものであってもよい。
ボタン284に対するユーザによる操作がなされると、この操作を操作入力IF15が受け付け、操作がなされたときの画像281が、被験者Uの顔として登録される。このように登録された被験者Uの顔に基づいて、非生理学データとしての表情の分析がなされる。
図29は、本実施の形態に係る被験者Uの顔の登録のための画像の第二例の説明図である。
図29に示される画像は、感情推定装置10により感情を推定する対象となる被験者Uのさまざまな表情の顔を登録するための画像であり、表示装置14に表示されるものである。
この画像は、感情推定装置10に登録する被験者Uの顔を示す画像291、登録のためのボタン293、及び、被験者Uの表情を形成させるための画像294を含む。なお、感情推定装置10がカメラを備えている場合には、被験者Uにさまざまな表情をさせるためのメッセージ292を含んでもよい。
画像291は、記憶媒体に保存されていたデータを読みだしたものであってもよいし、感情推定装置10がカメラを備えている場合にはカメラで撮影したものであってもよい。
メッセージ292は、登録すべき被験者Uの表情(例えば、怒った表情)を被験者Uにさせるためのメッセージである。被験者Uは、メッセージ292を視認し、メッセージ292の内容に従って表情を形成する。
ボタン293に対するユーザによる操作がなされると、この操作を操作入力IF15が受け付け、操作がなされたときの画像291が、登録すべき表情の被験者Uの顔として登録される。このように登録された被験者Uの顔に基づいて、非生理学データとしての表情の分析がなされる。登録すべき表情は、複数あってもよいが、例えばラッセル円環モデル(図1)に含まれる感情のすべてに対応する表情それぞれを登録する必要はない。人の感情と表情との関連は、例えば特徴点の動き等を用いた方法等がすでに知られており、登録された被験者Uの顔に含まれる特徴点の位置を所定の関係に基づいて動かすことで、所定の感情の顔を形成することができるからである。
画像294は、被験者Uの表情を形成させるための画像である。例えば、画像294は、被験者Uに怒った表情をさせたい場合に、その表情の例として、被験者Uの顔の画像に基づいてコンピュータグラフィックスにより生成された被験者Uの怒った表情を示す画像である。なお、画像294は、被験者Uが自発的に表情を形成するように感情を抱かせる画像であってもよい。例えば、被験者Uの笑顔を登録したい場合に、被験者Uと異なる人物の笑顔を示す画像としてもよいし、動物の画像などにしてもよい。また、言葉又は文字表現(例えば、「とても美しいですね」というような言葉)を含んでもよい。
図30は、本実施の形態に係る被験者Uの顔から表情を検知する領域の選択の画像の第一例の説明図である。図30に示される画像は、取得部20により非生理学データとしての表情を取得する対象となる被験者Uの顔の領域を設定するための画像であり、表示装置14に表示されるものである。
この画像は、表情を取得する対象となる領域のパターンを被験者Uの顔に重畳させて示す画像301と、上記領域のパターンの候補を示す複数の画像302A、302B及び302Cと、カーソル303と、登録のためのボタン304とを含む。
画像301は、複数の画像302Aのうちカーソル303により指定される領域のパターンを被験者Uの顔に重畳させた画像である。領域のパターンの候補は、顔を特徴ある複数の部分に区分した上で、これらの部分の組み合わせのさまざまなパターンとして形成される。例えば、顔の目を含む部分、鼻及び頬を含む部分、鼻及び眉間を含む部分、及び、口を含む部分に区分した上で、これらの部分をさまざまに組み合わせることで、複数の画像302A等に示されるような上記複数の領域のパターンが形成される。
カーソル303は、複数の画像302Aのうちのいずれかを指定するカーソルであり、ユーザによる操作により移動され得る。
ボタン304に対するユーザによる操作がなされると、この操作を操作入力IF15が受け付け、操作がなされたときの画像301が、表情を取得する対象となる領域のパターンとして登録される。
図31は、本実施の形態に係る被験者Uの顔から表情を検知する領域の選択の画像の第二例の説明図である。図31に示される画像の全体的な構成及び役割は、図30に示される画像と同じである。
図31に示される画像311に含まる被験者Uの顔は、目を含む部分がサングラスにより覆われており、目の部分に基づく表情の分析が困難であると考えられる。このような場合には、目の部分を含まない領域のパターンである画像302Bに対応する領域のパターンを、表情を取得する対象となる領域のパターンとして登録するようにしてもよい。
なお、顔のしわの情報を含めると、感情推定装置10における顔の表情または感情の決定精度を向上させることができる。加えて、感情推定装置10が個人を識別する機能を有する場合、個人識別の精度をも向上させることができる。
図32は、感情推定装置10により顔の表情または感情を決定する際に、顔のしわの情報を用いるかどうかの選択をユーザに選択させるための画像の一例であり、表示装置14に表示されるものである。
図32に示される画像は、感情推定装置10により顔の表情または感情を決定する際に顔のしわの情報を用いないモード(しわ非使用モード)を選択するためのボタン321と、上記の際に顔のしわの情報を用いるモード(しわ使用モード)を選択するボタン322とを含む。ユーザは、これらのいずれかのボタンを操作することで、感情推定装置10により顔の表情または感情を決定する際に、顔のしわの情報を用いるかどうかを選択することができる。
なお、図32の例において、顔のしわの情報を用いることで顔の表情と感情の決定精度を向上させることが可能である旨をユーザに示してもよい。
(実施の形態の変形例)
本変形例において、人が抱いているさまざまな感情を推定する感情推定装置の別構成について説明する。なお、実施の形態と同じ構成要素には、同じ符号を付し、詳細な説明を省略する。
図33は、本変形例に係る感情推定装置10Eのハードウェア構成を示すブロック図である。
図33に示されるように、感情推定装置10Eは、CPU11と、メモリ12と、表示装置14と、操作入力IF15と、センサ入力IF16と、センサ17とを備える。感情推定装置10Eは、センサ13の代わりに、センサ入力IF16を備える点で、感情推定装置10と異なる。
センサ入力IF16は、人である被験者Uの生理学データ又は非生理学データを被験者Uから取得するセンサ17に接続されている。センサ17は、感情推定装置10のセンサ13と同等のものでよい。
感情推定装置10Eにおいて、取得部20は、センサ入力IF16を介してセンサ17から情報を取得し、実施の形態の感情推定装置10と同様の処理を行う。
この構成によれば、感情推定装置10Eは、自装置にセンサを備えることなく、感情推定装置10Eの外部のセンサ17から情報を取得し、被験者の感情を推定することができる。
以上のように、本実施の形態の感情推定装置は、被験者から取得した生理学データ又は非生理学データを含むであって、少なくとも1つの生理学データを含む2以上のデータを用いて、所定の対応付けに基づいて被験者の感情を推定することができる。ここで、感情推定装置は、上記2以上のデータを用いことで被験者の第一値(覚醒感)及び第二値(快適感)の2つの指標を算出することにより、被験者が抱いているさまざまな感情を適切に推定することができる。
また、感情推定装置は、被験者から取得した生理学データ及び非生理学データを用いて、所定の対応付けに基づいて被験者の感情を推定することができる。生理学データは覚醒感との相関が比較的大きく、非生理学データは快適感との相関が比較的大きい。よって、生理学データ及び非生理学データを用いることにより覚醒感及び快適感をより正確に算出し、その結果、被験者の感情をより正確に推定することができる。
また、感情推定装置は、被験者から取得した生理学データを用いて生理学データに相関が比較的大きい覚醒感を算出し、また、非生理学データを用いて非生理学データに相関が比較的大きい快適感を算出する。よって、被験者の覚醒感及び快適感をより正確に算出し、その結果、被験者の感情をより正確に推定することができる。
また、感情推定装置は、被験者の生理学データとしての心拍数と、非生理学データとしての表情とをともにカメラを用いて取得し、被験者の感情を推定する。このように、カメラという1つのデバイスを用いて生理学データ及び非生理学データの両方を取得して感情を推定することで、被験者の負担を削減するとともに、利便性が向上する。
また、感情推定装置は、被験者の覚醒感と快適感とを平面上の点として表現して出力する。これにより、ユーザ又は被験者は、被験者の感情を、被験者が取り得るさまざまな感情のうちのどれであるか、また、併せてその感情の強度を直観的に知ることができる。
また、感情推定装置は、被験者の覚醒感と快適感との少なくとも一方を出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、被験者が感じている覚醒感及び/又は快適感を知ることができる。
また、感情推定装置は、被験者の特定の感情(例えば、喜び)の強さ(言い換えれば、感情の度合い)を出力する。例えば、感情推定装置は、単に「喜び」という感情を出力するだけでなく、喜びの度合いを出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、その感情の強さ又は度合いを知ることができる。
また、感情推定装置は、推定した感情がどれだけ正しく被験者の感情を表しているかを信頼性として出力する。これにより、ユーザ又は被験者は、被験者の感情だけでなく、その感情がどれだけ正しく被験者の感情を表しているかを知ることができる。
また、感情推定装置は、複数の生理学データ及び非生理学データにより覚醒感又は快適感が算出され得る場合に、これら複数の生理学データ及び非生理学データを信頼性に基づいて適切に評価して、被験者の感情を推定することができる。
また、感情推定装置は、推定した感情が被験者の感情をそれほど正しく表していないと評価される場合に警告を出力する。これにより、ユーザ又は被験者は、推定された感情が被験者の感情をそれほど正しく表していないことを明確に知ることができる。
また、感情推定装置は、被験者の身体的特徴に関連する情報(例えば、性別又は年齢など)に基づいて覚醒感及び快適感の基準値を変動させることで、覚醒感及び快適感を被験者の身体的特徴に合わせて調整することができ、より適切に感情を推定することができる。
また、感情推定装置は、被験者の表情を取得するための顔の領域についての設定を受け付け、これを用いて被験者の表情を取得する。例えば被験者がサングラスを着用している場合には被験者の目の部分がサングラスにより隠されるので、目の部分から表情に関する情報を取得することができない。このような場合に、被験者の目の部分を除く部分から被験者の表情を取得するようにすることで、感情推定装置は、表情の検出をより適切に行うことができる。
また、感情推定装置は、顔の色などの生理学データを用いてより具体的に被験者が抱く感情を推定することができる。
また、感情推定装置は、表情などの非生理学データを用いてより具体的に被験者が抱く感情を推定することができる。
また、感情推定装置は、性別などの情報を用いてより具体的に被験者が抱く感情を推定することができる。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の感情推定装置などを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、被験者の感情を推定する感情推定装置における感情推定方法であって、生理学データに対応する第一データと、前記第一データとは異なる生理学データおよび非生理学データのうちの一方に対応する第二データとを前記被験者から取得し、取得した前記第一データと前記第二データとに基づいて、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出し、算出した前記第一値及び前記第二値から前記被験者の感情を、コンピュータのメモリに予め記憶された人の覚醒の度合い及び快適さの度合いと前記人の感情との所定の対応付けに基づいて推定し、推定した前記感情を示す情報を出力する感情推定方法を実行させる。
以上、一つまたは複数の態様に係る感情推定装置などについて、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
本開示は、人が抱いているさまざまな感情を推定する感情推定方法、感情推定装置などに利用可能である。
10、10A、10B、10C、10D、10E 感情推定装置
11 CPU
12 メモリ
13、17 センサ
14 表示装置
15 操作入力IF
16 センサ入力IF
20、20A、20B、20C、20D 取得部
21、21A、21B、22C 生理学データ取得部
22、2n データ取得部
22A、22B、22D 非生理学データ取得部
30、30A、30B、30D 推定部
31、31A、31B、31D 覚醒成分算出部
32、32A、32B、32D 快適成分算出部
33、33B 感情推定部
34、35、36 パラメータ
37 補正部
40 出力部
41 表示部
51、52、53、203、204、213、214、223、224、225、241、252、263、264、266、281、291、294、301、302A、302B、302C、311 画像
61 カメラ
62 解析部
63 心拍取得部
64 特徴点抽出部
65 表情特定部
121、121A、121B、121C、122、122A、122B、122C、131、131A、131B、131C、131D、132、132A、132B、132C、141、144、146、152、153、155、156、162、163、181、182、183、191、192、193、194、201、202、205、206、211、212、215、216、221、222、226、227、228、232、233、235、236、251、261、262、265、284、293、304、321、322 ボタン
142、143、145、151、154、161、171、172、173、231、234、282、283 表示領域
229 文字列
292 メッセージ
303 カーソル
AR、AR1、AR2 覚醒感
U 被験者
VA、VA1、VA2 快適感
r1、r2、r3、r4 信頼性

Claims (10)

  1. 被験者の感情を推定する感情推定装置における感情推定方法であって、
    (a)前記被験者の生体の機能に関するデータである生理学データに対応する第一データであって前記被験者の心拍数を少なくとも含む第一データと、(b)前記被験者の生体に関するデータのうち生理学データではないデータである非生理学データに対応する第二データであって前記被験者の表情を少なくとも含む第二データとを前記被験者から取得し、
    取得した前記第一データと前記第二データとに基づいて、前記第一データと所定の第一基準値との差異の大きさ、及び、前記第二データと所定の第二基準値との差異の大きさを利用して、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出し、
    算出した前記第一値及び前記第二値から前記被験者の感情を、メモリに予め記憶された人の覚醒の度合い及び快適さの度合いの組と前記人の感情とを対応付けた所定の対応付けに基づいて推定し、
    推定した前記感情を示す情報を出力し、
    前記算出において、さらに、
    当該第一値に基づいて推定される前記被験者の感情の正しさを示す指標である第一信頼性を、前記第一値の算出に用いられた前記第一データに含まれるノイズの量の大きさを利用して算出し、
    当該第二値に基づいて推定される前記被験者の感情の正しさを示す指標である第二信頼性を、前記第二値の算出に用いられた前記第二データに含まれるノイズの量の大きさを利用して算出し、
    前記感情を示す情報とともに、前記第一信頼性及び前記第二信頼性の少なくとも一方を示す情報を出力し、
    前記第一信頼性及び前記第二信頼性の少なくとも一方が所定の閾値より小さい場合には、警告を出力する
    感情推定方法。
  2. 前記算出において、
    前記第一データに基づいて、前記第一データと前記所定の第一基準値との差異の大きさを利用して、前記第一値を算出し、
    前記第二データに基づいて、前記第二データと前記所定の第二基準値との差異の大きさを利用して、前記第二値を算出する
    請求項1に記載の感情推定方法。
  3. 前記感情推定装置は、前記被験者の顔を撮像し、動画像データを生成するカメラを備え、
    前記取得において、
    前記カメラにより生成された前記動画像データに基づいて前記被験者の心拍数を前記第一データとして取得し、
    前記カメラにより生成された前記動画像データにおける前記被験者の顔の特徴点の位置に基づいて特定される前記被験者の表情を前記第二データとして取得する
    請求項に記載の感情推定方法。
  4. 前記出力において、前記第一値と前記第二値とを2つの座標軸とする平面上の点を前記被験者の感情を示す情報として前記感情推定装置が備える表示装置の表示画面に出力する
    請求項1に記載の感情推定方法。
  5. 前記出力において、前記第一値及び前記第二値の少なくとも一方を前記被験者の感情を示す情報として前記感情推定装置が備える表示装置の表示画面に出力する
    請求項1に記載の感情推定方法。
  6. 前記感情推定方法では、
    前記取得において、
    1以上の前記第一データおよび1以上の前記第二データを取得し、
    前記算出において、
    取得した1以上の前記第一データのそれぞれについて、第一値と、第一信頼性とを算出し、
    算出した前記第一値の前記第一信頼性を重みとした加重平均により、前記被験者の覚醒の度合いを示す第一値を算出し、
    取得した1以上の前記第二データのそれぞれについて、第二値と、第二信頼性とを算出し、
    算出した前記第二値の前記第二信頼性を重みとした加重平均により、前記被験者の快適さの度合いを示す第二値を算出する
    請求項1〜のいずれか1項に記載の感情推定方法。
  7. 前記感情推定方法は、さらに、
    前記被験者の身体的特徴に関連する情報を取得し、
    取得した前記被験者の身体的特徴に関連する情報に基づいて、前記所定の第一基準値又は前記所定の第二基準値を被験者の性別、国籍、年齢及び肌の色の少なくとも1つに基づいて算出することで調整する
    請求項1〜のいずれか1項に記載の感情推定方法。
  8. 前記感情推定方法では、さらに、
    人の顔の予め定められた複数の領域のうち、前記第二データとしての表情を取得するのに用いる領域の選択をユーザから受け付け、
    前記取得において、
    前記被験者の顔のうち前記領域に含まれる特徴点を前記第二データとして取得し、
    前記算出において、
    前記被験者の顔のうち前記領域に含まれる特徴点に基づいて前記第二値を算出する
    請求項3に記載の感情推定方法。
  9. (a)被験者の生体の機能に関するデータである生理学データに対応する第一データであって前記被験者の心拍数を少なくとも含む第一データと、(b)前記被験者の生体に関するデータのうち生理学データではないデータである非生理学データに対応する第二データであって前記被験者の表情を少なくとも含む第二データとを前記被験者から取得する取得部と、
    (i)取得した前記第一データと前記第二データとに基づいて、前記第一データと所定の第一基準値との差異の大きさ、及び、前記第二データと所定の第二基準値との差異の大きさを利用して、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出し、(ii)算出した前記第一値及び前記第二値から前記被験者の感情を、メモリに予め記憶された人の覚醒の度合い及び快適さの度合いの組と前記人の感情とを対応付けた所定の対応付けに基づいて推定する推定部と、
    推定した前記感情を示す情報を出力する出力部とを備え、
    前記推定部は、前記算出において、さらに、
    当該第一値に基づいて推定される前記被験者の感情の正しさを示す指標である第一信頼性を、前記第一値の算出に用いられた前記第一データに含まれるノイズの量の大きさを利用して算出し、
    当該第二値に基づいて推定される前記被験者の感情の正しさを示す指標である第二信頼性を、前記第二値の算出に用いられた前記第二データに含まれるノイズの量の大きさを利用して算出し、
    前記感情を示す情報とともに、前記第一信頼性及び前記第二信頼性の少なくとも一方を示す情報を出力し、
    前記第一信頼性及び前記第二信頼性の少なくとも一方が所定の閾値より小さい場合には、警告を出力する
    感情推定装置。
  10. コンピュータプログラムを記録した非一時的記録媒体であって、
    前記コンピュータプログラムは、コンピュータに、
    (a)被験者の生体の機能に関するデータである生理学データに対応する第一データであって前記被験者の心拍数を少なくとも含む第一データと、(b)前記被験者の生体に関するデータのうち生理学データではないデータである非生理学データに対応する第二データであって前記被験者の表情を少なくとも含む第二データとを前記被験者から取得するステップと、
    取得した前記第一データと前記第二データとに基づいて、前記第一データと所定の第一基準値との差異の大きさ、及び、前記第二データと所定の第二基準値との差異の大きさを利用して、前記被験者の覚醒の度合いを示す第一値と、前記被験者の快適さの度合いを示す第二値とを算出するステップと、
    算出した前記第一値及び前記第二値から前記被験者の感情を、メモリに予め記憶された人の覚醒の度合い及び快適さの度合いの組と前記人の感情とを対応付けた所定の対応付けに基づいて推定するステップと、
    推定した前記感情を示す情報を出力するステップとを実行させ、
    前記算出するステップにおいて、さらに、
    当該第一値に基づいて推定される前記被験者の感情の正しさを示す指標である第一信頼性を、前記第一値の算出に用いられた前記第一データに含まれるノイズの量の大きさを利用して算出し、
    当該第二値に基づいて推定される前記被験者の感情の正しさを示す指標である第二信頼性を、前記第二値の算出に用いられた前記第二データに含まれるノイズの量の大きさを利用して算出し、
    前記感情を示す情報とともに、前記第一信頼性及び前記第二信頼性の少なくとも一方を示す情報を出力し、
    前記第一信頼性及び前記第二信頼性の少なくとも一方が所定の閾値より小さい場合には、警告を出力する
    非一時的記録媒体。
JP2016196799A 2015-10-14 2016-10-04 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体 Active JP6985005B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562241374P 2015-10-14 2015-10-14
US62/241,374 2015-10-14
JP2016029363 2016-02-18
JP2016029363 2016-02-18

Publications (2)

Publication Number Publication Date
JP2017144222A JP2017144222A (ja) 2017-08-24
JP6985005B2 true JP6985005B2 (ja) 2021-12-22

Family

ID=57137897

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016196799A Active JP6985005B2 (ja) 2015-10-14 2016-10-04 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体

Country Status (4)

Country Link
US (1) US10863939B2 (ja)
EP (1) EP3155961A1 (ja)
JP (1) JP6985005B2 (ja)
CN (1) CN106580346B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025215785A1 (ja) * 2024-04-11 2025-10-16 Tpr株式会社 ロボット、情報処理システム、情報処理方法及びプログラム

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9558425B2 (en) * 2012-08-16 2017-01-31 The Penn State Research Foundation Automatically computing emotions aroused from images through shape modeling
CN106361270B (zh) * 2015-07-22 2021-05-07 松下电器(美国)知识产权公司 清醒度预测方法和清醒度预测装置
US10943596B2 (en) * 2016-02-29 2021-03-09 Panasonic Intellectual Property Management Co., Ltd. Audio processing device, image processing device, microphone array system, and audio processing method
US11195542B2 (en) 2019-10-31 2021-12-07 Ron Zass Detecting repetitions in audio data
US12249342B2 (en) 2016-07-16 2025-03-11 Ron Zass Visualizing auditory content for accessibility
US20180018987A1 (en) * 2016-07-16 2018-01-18 Ron Zass System and method for identifying language register
CN106649712B (zh) * 2016-12-20 2020-03-03 北京小米移动软件有限公司 输入表情信息的方法及装置
US10347244B2 (en) * 2017-04-21 2019-07-09 Go-Vivace Inc. Dialogue system incorporating unique speech to text conversion method for meaningful dialogue response
US10874309B2 (en) * 2017-05-01 2020-12-29 Samsung Electronics Company, Ltd. Determining emotions using camera-based sensing
JP6841167B2 (ja) * 2017-06-14 2021-03-10 トヨタ自動車株式会社 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
CN109124619A (zh) * 2017-06-16 2019-01-04 西南大学 一种使用多通道信息融合的个人情感唤醒度识别方法
US11217344B2 (en) 2017-06-23 2022-01-04 Abiomed, Inc. Systems and methods for capturing data from a medical device
US10592785B2 (en) * 2017-07-12 2020-03-17 Futurewei Technologies, Inc. Integrated system for detection of driver condition
US11331019B2 (en) 2017-08-07 2022-05-17 The Research Foundation For The State University Of New York Nanoparticle sensor having a nanofibrous membrane scaffold
JP7058383B2 (ja) * 2017-10-02 2022-04-22 日本電気株式会社 情動判定装置、情動判定方法、及びプログラム
JP6981277B2 (ja) * 2018-01-26 2021-12-15 富士フイルムビジネスイノベーション株式会社 検出装置、及び検出プログラム
US10322728B1 (en) 2018-02-22 2019-06-18 Futurewei Technologies, Inc. Method for distress and road rage detection
JP6966363B2 (ja) * 2018-03-14 2021-11-17 オムロン株式会社 推定システム、推定装置及び推定方法
CN111655149B (zh) * 2018-03-15 2024-08-23 松下知识产权经营株式会社 用于推断用户的心理状态的系统、记录介质以及方法
CN108765522B (zh) * 2018-05-15 2022-08-02 维沃移动通信有限公司 一种动态图像生成方法及移动终端
US10762356B2 (en) 2018-05-21 2020-09-01 Panasonic Intellectual Property Management Co., Ltd. Method and system for generating an output with respect to a group of individuals
WO2020049994A1 (ja) * 2018-09-03 2020-03-12 パナソニックIpマネジメント株式会社 電子密度推定方法、電子密度推定装置、及び電子密度推定プログラム
CN110012256A (zh) * 2018-10-08 2019-07-12 杭州中威电子股份有限公司 一种融合视频通信与体征分析的系统
CN109222987A (zh) * 2018-10-30 2019-01-18 思澜科技(成都)有限公司 一种呼吸努力识别设备及其应用装置
US10839201B2 (en) * 2018-11-09 2020-11-17 Akili Interactive Labs, Inc. Facial expression detection for screening and treatment of affective disorders
US11642038B1 (en) * 2018-11-11 2023-05-09 Kimchi Moyer Systems, methods and apparatus for galvanic skin response measurements and analytics
US11642039B1 (en) * 2018-11-11 2023-05-09 Kimchi Moyer Systems, methods, and apparatuses for analyzing galvanic skin response based on exposure to electromagnetic and mechanical waves
CN109350084A (zh) * 2018-12-04 2019-02-19 安徽阳光心健科技发展有限公司 一种心理测试装置及其测试方法
FR3091603B1 (fr) * 2019-01-07 2022-01-21 Valeo Systemes Thermiques Système interactif
JP7384558B2 (ja) * 2019-01-31 2023-11-21 株式会社日立システムズ 有害行為検出システムおよび方法
DE112019006823T5 (de) 2019-02-04 2021-10-21 Mitsubishi Electric Corporation Emotionsschätzvorrichtung und Emotionsschätzverfahren
KR102871649B1 (ko) * 2019-02-19 2025-10-16 현대자동차주식회사 전자 장치 및 그 제어 방법
JP7370531B2 (ja) * 2019-02-26 2023-10-30 株式会社日立製作所 応答装置および応答方法
JP7385892B2 (ja) * 2019-05-14 2023-11-24 学校法人 芝浦工業大学 感情推定システム、および感情推定装置
CN113841205A (zh) * 2019-05-17 2021-12-24 大金工业株式会社 热应激的影响推定装置、热应激的影响推定方法以及计算机程序
CN110755092B (zh) * 2019-09-02 2022-04-12 中国航天员科研训练中心 具有跨媒体信息融合功能的非接触式情绪监测方法
WO2021060310A1 (ja) 2019-09-26 2021-04-01 富士フイルム株式会社 情報処理システム及び方法並びに情報処理装置
CN112656401B (zh) * 2019-10-15 2023-08-22 梅州市青塘实业有限公司 一种智能监护方法、装置及设备
CN110779149A (zh) * 2019-11-14 2020-02-11 宁波奥克斯电气股份有限公司 一种空调控制方法、装置及空调器
CN113140312A (zh) * 2020-01-19 2021-07-20 Oppo广东移动通信有限公司 用户数据处理、会话数据处理方法和装置、电子设备
JP7264079B2 (ja) * 2020-02-05 2023-04-25 トヨタ自動車株式会社 感情推定装置、方法、プログラムおよび車両
JP7415796B2 (ja) * 2020-05-25 2024-01-17 オムロン株式会社 生体判定装置および生体判定方法
CN113296432A (zh) * 2020-06-03 2021-08-24 史秋虹 用于新能源汽车的驾驶习惯大数据分析系统
KR20210153386A (ko) * 2020-06-10 2021-12-17 삼성전자주식회사 멀티미디어 컨텐츠를 생성하는 디스플레이 장치 및 그 동작방법
JP7571399B2 (ja) 2020-06-24 2024-10-23 オムロン株式会社 感情判定装置および感情判定方法
CN111951930B (zh) * 2020-08-19 2021-10-15 中食安泓(广东)健康产业有限公司 一种基于大数据的情绪鉴定系统
CN111956243A (zh) * 2020-08-20 2020-11-20 大连理工大学 一种用于柜台的紧张情绪评估系统
CN114098729B (zh) * 2020-08-27 2023-11-10 中国科学院心理研究所 基于心脏间期的情绪状态客观测量方法
WO2022113380A1 (ja) * 2020-11-26 2022-06-02 パナソニックIpマネジメント株式会社 感情判定システム、感情判定方法及びプログラム
CN112597938B (zh) * 2020-12-29 2023-06-02 杭州海康威视系统技术有限公司 一种表情检测方法、装置、电子设备及存储介质
JP7500452B2 (ja) * 2021-01-27 2024-06-17 株式会社Nttドコモ 心理状態管理装置
JP7594254B2 (ja) * 2021-02-03 2024-12-04 国立大学法人 東京大学 情動推定装置、情動推定システムおよび情動推定プログラム
JP7592508B2 (ja) * 2021-02-12 2024-12-02 生夫 本間 呼吸モニタリングシステム
CN113017634B (zh) * 2021-03-22 2022-10-25 Oppo广东移动通信有限公司 情绪评估方法、装置、电子设备和计算机可读存储介质
CN113143274B (zh) * 2021-03-31 2023-11-10 中国科学院心理研究所 基于摄像头的情绪预警方法
CN113221821A (zh) * 2021-05-28 2021-08-06 中国工商银行股份有限公司 业务数据的推送方法、装置和服务器
CN113349778B (zh) * 2021-06-03 2023-02-17 杭州回车电子科技有限公司 基于经颅直流电刺激的情绪分析方法、装置和电子装置
US12340791B1 (en) * 2021-06-10 2025-06-24 Amazon Technologies, Inc. Enhanced voice-based presentation of user sentiment
CN114936843B (zh) * 2022-05-20 2025-01-21 量心科技(深圳)有限公司 一种人员与岗位匹配程度的评估方法及装置
US12015865B2 (en) * 2022-06-04 2024-06-18 Jeshurun de Rox System and methods for evoking authentic emotions from live photographic and video subjects
CN114970641A (zh) * 2022-06-24 2022-08-30 中国工商银行股份有限公司 情感类别的识别方法、装置、处理器及电子设备
EP4331483B1 (en) 2022-08-29 2025-10-01 ASICS Corporation Emotion estimating device, emotion estimating system, and emotion estimating method
EP4596071A1 (en) 2022-09-29 2025-08-06 Nitto Denko Corporation Robot, learning device, control method, and program
CN116257816B (zh) * 2023-01-06 2025-07-18 北京建筑大学 一种陪护机器人情绪识别方法、装置、存储介质及设备
US12400478B2 (en) * 2023-02-03 2025-08-26 Meta Platforms Technologies, Llc Short range radar for face tracking
WO2024181250A1 (ja) * 2023-02-28 2024-09-06 株式会社Jvcケンウッド 情報処理装置、情報処理方法およびプログラム
CN116763312B (zh) * 2023-08-21 2023-12-05 上海迎智正能文化发展有限公司 一种基于可穿戴设备的异常情绪识别方法及系统
CN117315745B (zh) * 2023-09-19 2024-05-28 中影年年(北京)科技有限公司 基于机器学习的面部表情捕捉方法及系统
TWI883730B (zh) * 2023-12-22 2025-05-11 技嘉科技股份有限公司 電子系統及生理監控方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030009078A1 (en) * 1999-10-29 2003-01-09 Elena A. Fedorovskaya Management of physiological and psychological state of an individual using images congnitive analyzer
JP2006006355A (ja) 2004-06-22 2006-01-12 Sony Corp 生体情報の処理装置および映像音響再生装置
JP4081686B2 (ja) * 2004-07-05 2008-04-30 ソニー株式会社 生体情報の処理装置および映像音響再生装置
US8224431B2 (en) * 2004-11-02 2012-07-17 Medtronic, Inc. Techniques for selective channel processing and data retention in an implantable medical device
JP4946005B2 (ja) 2005-11-02 2012-06-06 トヨタ自動車株式会社 運転者心理状態判定装置及び運転者心理状態判定システム
CN101512574A (zh) * 2006-09-07 2009-08-19 宝洁公司 用于测量情绪响应和选择偏好的方法
AU2007327315B2 (en) * 2006-12-01 2013-07-04 Rajiv Khosla Method and system for monitoring emotional state changes
US7629889B2 (en) * 2006-12-27 2009-12-08 Cardiac Pacemakers, Inc. Within-patient algorithm to predict heart failure decompensation
CN101677772B (zh) * 2007-06-08 2011-12-28 松下电器产业株式会社 设备控制装置以及设备控制方法
US8462996B2 (en) * 2008-05-19 2013-06-11 Videomining Corporation Method and system for measuring human response to visual stimulus based on changes in facial expression
JPWO2010001512A1 (ja) * 2008-07-03 2011-12-15 パナソニック株式会社 印象度抽出装置および印象度抽出方法
US9295806B2 (en) * 2009-03-06 2016-03-29 Imotions A/S System and method for determining emotional response to olfactory stimuli
US20110077996A1 (en) * 2009-09-25 2011-03-31 Hyungil Ahn Multimodal Affective-Cognitive Product Evaluation
US20140221866A1 (en) * 2010-06-02 2014-08-07 Q-Tec Systems Llc Method and apparatus for monitoring emotional compatibility in online dating
US8700009B2 (en) * 2010-06-02 2014-04-15 Q-Tec Systems Llc Method and apparatus for monitoring emotion in an interactive network
US9220444B2 (en) * 2010-06-07 2015-12-29 Zephyr Technology Corporation System method and device for determining the risk of dehydration
US20110301433A1 (en) 2010-06-07 2011-12-08 Richard Scott Sadowsky Mental state analysis using web services
JP2012059107A (ja) * 2010-09-10 2012-03-22 Nec Corp 感情推定装置、感情推定方法およびプログラム
KR101830767B1 (ko) * 2011-07-14 2018-02-22 삼성전자주식회사 사용자의 감정 인식 장치 및 방법
JP5828111B2 (ja) * 2011-07-28 2015-12-02 パナソニックIpマネジメント株式会社 心理状態評価装置、心理状態評価システムおよびプログラム
JP5768667B2 (ja) 2011-11-07 2015-08-26 富士通株式会社 非言語情報解析装置および非言語情報解析プログラム並びに非言語情報解析方法
US11006874B2 (en) * 2012-08-13 2021-05-18 Tata Consultancy Services Limited Real-time stress determination of an individual
WO2014085910A1 (en) * 2012-12-04 2014-06-12 Interaxon Inc. System and method for enhancing content using brain-state data
JP6389831B2 (ja) * 2013-03-06 2018-09-12 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. バイタルサイン情報を決定するためのシステム及び方法
WO2014159320A1 (en) * 2013-03-12 2014-10-02 The Cleveland Clinic Foundation System and method for identifying a focal area of abnormal network interactions in the brain
US10512407B2 (en) * 2013-06-24 2019-12-24 Fitbit, Inc. Heart rate data collection
KR102154912B1 (ko) * 2013-10-11 2020-09-11 인터디지탈 패튼 홀딩스, 인크 시선 구동 증강 현실
US20160042648A1 (en) * 2014-08-07 2016-02-11 Ravikanth V. Kothuri Emotion feedback based training and personalization system for aiding user performance in interactive presentations
CN104856704B (zh) * 2015-03-31 2018-03-23 鲍崇智 主客观相结合的心理测评方法及系统
US10165949B2 (en) * 2015-06-14 2019-01-01 Facense Ltd. Estimating posture using head-mounted cameras
US10478131B2 (en) * 2015-07-16 2019-11-19 Samsung Electronics Company, Ltd. Determining baseline contexts and stress coping capacity

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025215785A1 (ja) * 2024-04-11 2025-10-16 Tpr株式会社 ロボット、情報処理システム、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US20170105662A1 (en) 2017-04-20
US10863939B2 (en) 2020-12-15
CN106580346B (zh) 2021-09-14
JP2017144222A (ja) 2017-08-24
CN106580346A (zh) 2017-04-26
EP3155961A1 (en) 2017-04-19

Similar Documents

Publication Publication Date Title
JP6985005B2 (ja) 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体
Alnaggar et al. Video-based real-time monitoring for heart rate and respiration rate
US11986273B2 (en) Detecting alcohol intoxication from video images
US8878922B2 (en) Video image information processing apparatus and video image information processing method
US11699529B2 (en) Systems and methods for diagnosing a stroke condition
JP5958825B2 (ja) 感性評価システム、感性評価方法、およびプログラム
Lamonaca et al. Health parameters monitoring by smartphone for quality of life improvement
JP6268193B2 (ja) 脈波測定装置、携帯機器、医療機器システム、及び生体情報コミュニケーションシステム
US11301775B2 (en) Data annotation method and apparatus for enhanced machine learning
Cernea et al. A survey of technologies on the rise for emotion-enhanced interaction
JP2020185138A (ja) 感情推定システム、および感情推定装置
US11515043B1 (en) Method and device for hair loss prediction and personalized scalp care
CN116807476B (zh) 基于界面式情感交互的多模态心理健康评估系统及方法
CN106999062A (zh) 基于人体微动而提取心脏信息的方法
JP2007229218A (ja) 覚醒度推定装置及びシステム並びに方法
TWI646438B (zh) 情緒偵測系統及方法
JP7724446B2 (ja) 情報処理方法、情報処理システム及びプログラム
JP7599478B2 (ja) 情報処理方法、コンピュータプログラム、情報処理装置及び情報処理システム
JP2019024608A (ja) 視線検出校正方法、システム、及びコンピュータプログラム
KR102543337B1 (ko) 아바타를 생성한 사용자의 생체정보 기반 색채힐링콘텐츠를 제공하기 위한 사용자 맞춤 색채힐링콘텐츠 제공 시스템 및 방법
EP4462444A1 (en) Visually conveying future state of physiological state of patient
Maurya et al. Deep Learning-Based Multimodal Fusion for Heart Rate and Stress Estimation using remote PPG
Ma Towards a Contactless Vital Sign System
Wampfler Multimodal Affective State Prediction in Mobile Settings
WO2023153418A1 (ja) 対象の脳波の強度を推定するシステム、方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211125

R150 Certificate of patent or registration of utility model

Ref document number: 6985005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150