JP2019208576A - Emotion data acquisition device and emotion operation device - Google Patents
Emotion data acquisition device and emotion operation device Download PDFInfo
- Publication number
- JP2019208576A JP2019208576A JP2018104556A JP2018104556A JP2019208576A JP 2019208576 A JP2019208576 A JP 2019208576A JP 2018104556 A JP2018104556 A JP 2018104556A JP 2018104556 A JP2018104556 A JP 2018104556A JP 2019208576 A JP2019208576 A JP 2019208576A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- user
- input
- operation amount
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 263
- 230000007613 environmental effect Effects 0.000 claims description 62
- 230000006872 improvement Effects 0.000 claims description 46
- 230000037007 arousal Effects 0.000 claims description 43
- 238000011156 evaluation Methods 0.000 claims description 42
- 238000012937 correction Methods 0.000 claims description 4
- 230000002996 emotional effect Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 description 40
- 230000008569 process Effects 0.000 description 32
- 230000006870 function Effects 0.000 description 23
- 238000012854 evaluation process Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 11
- 241000207199 Citrus Species 0.000 description 10
- 230000006399 behavior Effects 0.000 description 10
- 235000020971 citrus fruits Nutrition 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 230000007704 transition Effects 0.000 description 9
- 206010062519 Poor quality sleep Diseases 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 239000003205 fragrance Substances 0.000 description 5
- 206010041349 Somnolence Diseases 0.000 description 4
- 238000004378 air conditioning Methods 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 101000979001 Homo sapiens Methionine aminopeptidase 2 Proteins 0.000 description 2
- 101000969087 Homo sapiens Microtubule-associated protein 2 Proteins 0.000 description 2
- 101000969594 Homo sapiens Modulator of apoptosis 1 Proteins 0.000 description 2
- 102100021118 Microtubule-associated protein 2 Human genes 0.000 description 2
- 102100021440 Modulator of apoptosis 1 Human genes 0.000 description 2
- 230000036760 body temperature Effects 0.000 description 2
- 230000003749 cleanliness Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 235000006679 Mentha X verticillata Nutrition 0.000 description 1
- 235000002899 Mentha suaveolens Nutrition 0.000 description 1
- 235000001636 Mentha x rotundifolia Nutrition 0.000 description 1
- 206010033799 Paralysis Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 235000013361 beverage Nutrition 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 244000222991 cardamomo Species 0.000 description 1
- 235000005300 cardamomo Nutrition 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 235000019615 sensations Nutrition 0.000 description 1
- 230000008786 sensory perception of smell Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Psychology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- Child & Adolescent Psychology (AREA)
- Psychiatry (AREA)
- Hematology (AREA)
- Anesthesiology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Acoustics & Sound (AREA)
- Social Psychology (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- User Interface Of Digital Computer (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
この明細書における開示は、感情データ取得装置および感情操作装置に関する。 The disclosure in this specification relates to an emotion data acquisition device and an emotion operation device.
特許文献1は、携帯電話機に備えられたセンサによって利用者の感情を示す情報を検出する技術を開示している。特許文献2は、乗り物を利用する複数の利用者の感情をモニタしている。特許文献2は、運転者の感情変化の要因を、同乗者に適用する技術を開示している。従来技術として列挙された先行技術文献の記載内容は、この明細書における技術的要素の説明として、参照により援用される。
従来技術では、利用者の感情を検出するために、ひとつまたは複数のセンサを利用している。ところが、感情をデータとして表現する場合、その不確実性が大きい。このような感情データに基づいて、利用者の感情に働きかける要素を操作する場合、適切な結果が提供されない場合がある。例えば、多くの利用者に対して適合可能な装置および/または方法を提供することが困難である。 In the prior art, one or more sensors are used to detect the user's emotions. However, when expressing emotions as data, the uncertainty is large. When an element that works on a user's emotion is operated based on such emotion data, an appropriate result may not be provided. For example, it is difficult to provide an apparatus and / or method that is adaptable to many users.
上述の観点において、または言及されていない他の観点において、感情データ取得装置および感情操作装置にはさらなる改良が求められている。 In the above-mentioned viewpoints or other viewpoints not mentioned, further improvement is required for the emotion data acquisition device and the emotion operation device.
開示されるひとつの目的は、ヒトの感情に関する不確実な要素を抑制しながら、ヒトの感情を取得することができる感情データ取得装置を提供することである。 One disclosed object is to provide an emotion data acquisition device that can acquire human emotions while suppressing uncertain elements related to human emotions.
開示される他のひとつの目的は、ヒトの感情に関する不確実な要素を抑制しながら、ヒトの感情を操作することができる感情操作装置を提供することである。 Another object of the disclosure is to provide an emotion manipulation device that can manipulate human emotions while suppressing uncertain elements related to human emotions.
ここに開示された感情データ取得装置は、利用者に覚醒度と快適度との入力を求める入力部(34、434)と、入力部から、利用者の感情を示す覚醒度データと快適度データとを取得する感情取得部(166、466)とを備える。 The emotion data acquisition device disclosed herein includes an input unit (34, 434) for requesting the user to input an arousal level and a comfort level, and the arousal level data and comfort level data indicating the user's emotion from the input unit. And an emotion acquisition unit (166, 466).
開示される感情データ取得装置によると、利用者の感情を覚醒度と快適度とを含む2軸入力によって取得することができる。利用者から直接的に利用者の感情を入力できるため、利用者の負担を抑制しながら、正確な感情を取得することができる。よって、ヒトの感情に関する不確実な要素を抑制しながら、ヒトの感情を取得することができる。 According to the disclosed emotion data acquisition apparatus, a user's emotion can be acquired by biaxial input including arousal level and comfort level. Since the user's emotion can be directly input from the user, it is possible to acquire an accurate emotion while suppressing the burden on the user. Therefore, human emotions can be acquired while suppressing uncertain elements related to human emotions.
ここに開示された感情操作装置は、上記感情データ取得装置と、利用者の感情を変化させるための操作を提供するアクチュエータ(11)と、感情取得部によって取得された覚醒度データおよび快適度データに基づいてアクチュエータの操作量を制御する制御部(168、169、364、464、469、470)とを備える。 The emotion operation device disclosed herein includes the emotion data acquisition device, an actuator (11) that provides an operation for changing a user's emotion, and arousal level data and comfort level data acquired by the emotion acquisition unit. Control units (168, 169, 364, 464, 469, 470) for controlling the operation amount of the actuator based on the above.
ここに開示された感情操作装置によると、利用者から直接的に取得された感情のデータを用いて、利用者の感情を変化させるように、アクチュエータが制御される。よって、ヒトの感情に関する不確実な要素を抑制しながら、ヒトの感情を操作することができる。 According to the emotion manipulation device disclosed herein, the actuator is controlled so as to change the emotion of the user using emotion data directly acquired from the user. Therefore, human emotions can be manipulated while suppressing uncertain elements related to human emotions.
この明細書における開示された複数の態様は、それぞれの目的を達成するために、互いに異なる技術的手段を採用する。請求の範囲およびこの項に記載した括弧内の符号は、後述する実施形態の部分との対応関係を例示的に示すものであって、技術的範囲を限定することを意図するものではない。この明細書に開示される目的、特徴、および効果は、後続の詳細な説明、および添付の図面を参照することによってより明確になる。 The disclosed embodiments of the present specification employ different technical means to achieve each purpose. The reference numerals in parentheses described in the claims and this section exemplify the correspondence with the embodiments described later, and are not intended to limit the technical scope. The objects, features, and advantages disclosed in this specification will become more apparent with reference to the following detailed description and accompanying drawings.
図面を参照しながら、複数の実施形態を説明する。複数の実施形態において、機能的におよび/または構造的に対応する部分および/または関連付けられる部分には同一の参照符号、または百以上の位が異なる参照符号が付される場合がある。対応する部分および/または関連付けられる部分については、他の実施形態の説明を参照することができる。 A plurality of embodiments will be described with reference to the drawings. In embodiments, functionally and / or structurally corresponding parts and / or associated parts may be assigned the same reference signs or reference signs that differ by more than a hundred. For the corresponding parts and / or associated parts, the description of other embodiments can be referred to.
第1実施形態
図1において、感情入力装置2は、利用者1が自ら認識して、携帯端末に入力する感情を取得する。以下、感情は、気分とも呼ばれる。感情入力装置2は、乗り物のための環境制御装置10の一部である。環境制御装置10は、利用者の感情を操作する感情操作装置でもある。ここで、乗り物の語は、広義に解釈されるべきであり、車両、船舶、および航空機などを含む移動体、並びにアミューズメント機器、及びシミュレーション機器などを含む固定物を含む概念である。環境制御装置10は、利用者の感情に影響を与える環境を調節する。環境制御装置10は、例えば、乗り物の乗員室の温度を制御する空調装置である。環境制御装置10は、例えば、乗り物の乗員室に香り成分を供給する香り供給装置である。この実施形態では、環境制御装置10は、香り供給装置である。香り供給装置は、乗り物を利用する複数の乗員のそれぞれに対して調節された香りを供給する。よって、この実施形態における環境制御装置10は、座席別環境制御装置とも呼ばれる。
1st Embodiment In FIG. 1, the
環境制御装置10は、入力装置3を備える。入力装置3は、利用者が所持する個人端末、乗り物に属する機器、または、乗り物に固定された機器でもよい。入力装置3は、例えば、乗り物に装着されているナビゲーション機器でもよい。この実施形態では、入力装置3は、利用者が所持する個人端末によって提供される。個人端末の典型的な例は、スマートフォンと呼ばれるコンピュータである。個人端末は、利用者に所有された機器でもよい。個人端末は、利用者が体に装着するウェアラブル端末でもよい。
The environment control device 10 includes an
入力装置3は、利用者を、個人で特定するための個人情報を取得する個人情報取得部を提供する場合がある。例えば、入力装置3が、利用者1が所持する個人端末である場合、個人を特定する情報は比較的容易に得られる。例えば、ID番号、電話機能の番号などを利用することができる。また、利用者1は、入力装置3を利用する場合に、個人情報を入力する場合がある。
The
入力装置3のそれぞれは、少なくとも入力装置として機能するインターフェース31を有する。インターフェース31は、入出力装置としてのタッチディスプレイパネルによって提供されている。入力装置3のそれぞれは、演算処理装置(CPU)32を備える。入力装置3のそれぞれは、カメラ、複数のスイッチ、利用者の心拍を検出する脈波センサ、利用者の体温を検出する温度センサ、地磁気センサなど複数のセンサ(SEN)33を備える。センサ33は、利用者1の感情を示す顔画像、体温、心拍などを検出してもよい。よって、入力装置3は、利用者の感情を手動操作によって入力する入力部として利用できる。さらに、入力装置3は、利用者の感情をセンサ33によって自動的に検出する検出部としても利用できる。入力装置3は、複数の利用者1a、1bのそれぞれに所持された複数の個人端末3a、3bを含む場合がある。
Each of the
環境制御装置10は、環境を操作するためのアクチュエータ11(L−ACT)を備える。アクチュエータ11は、利用者1がおかれた環境に設置されている。この実施形態では、アクチュエータ11は、香り供給装置である。香り供給装置は、複数の利用者1a、1bのそれぞれに向けて香り成分を含む空気を供給する個別ダクトを備える場合がある。これに代えて、アクチュエータ11は、温度調節装置であってもよい。アクチュエータ11は、利用者1の感情を変化させるための操作を提供する。
The environment control device 10 includes an actuator 11 (L-ACT) for operating the environment. The actuator 11 is installed in an environment where the
環境制御装置10は、感情データに応じてアクチュエータ11を制御する制御システム(CNT)12を備える。制御システム12は、典型的な一例では、電子制御装置(Electronic Control Unit)によって提供される。制御システム12は、入力装置3の制御機能によって提供されてもよい。ここで、環境制御装置10が制御する「環境」は、利用者の五感のいずれかひとつを刺激することにより、利用者の感情に影響を与える要素である。環境制御装置10が制御する「環境」は、例えば、視覚を刺激する照明の色、聴覚を刺激する音楽、嗅覚を刺激する空気の香り、味覚を刺激する飲料の味、触覚を刺激するマッサージなどの少なくともひとつを含むことができる。環境制御装置10が制御する「環境」の典型的な例は、室内の空気温度、室内の空気湿度、利用者の肌に当たる風速、利用者の座席の温度などの空調環境を含むことができる。さらに、利用者が個人だけで感得できる環境であることが好ましい。
The environment control device 10 includes a control system (CNT) 12 that controls the actuator 11 according to emotion data. In a typical example, the
制御システム12は、少なくともひとつの演算処理装置13(CPU)と、プログラムとデータとを記憶する記憶媒体としての少なくともひとつのメモリ装置14(MMR)とを有する。制御システムは、コンピュータによって読み取り可能な記憶媒体を備えるマイクロコンピュータによって提供される。記憶媒体は、コンピュータによって読み取り可能なプログラムを非一時的に格納する非遷移的実体的記憶媒体である。記憶媒体は、半導体メモリまたは磁気ディスクなどによって提供されうる。制御システム12は、ひとつのコンピュータ、またはデータ通信装置によってリンクされた一組のコンピュータ資源によって提供されうる。制御システム12は、例えば、乗り物に設置されたローカルコントローラ(L−CNT)15だけ、ローカルコントローラ15と遠隔に設置されたリモートコンローラ(R−CNT)16との両方、または、リモートコンローラ16だけによって提供することができる。制御システム12は、例えば、クラウドと呼ばれる部分を含む場合がある。クラウドは、例えば、個人に関連付けられたデータおよび/またはプログラムを、複数の乗り物から利用可能に提供するために有効である。プログラムは、制御システム12によって実行されることによって、制御システム12をこの明細書に記載される装置として機能させ、この明細書に記載される方法を実行するように制御システム12を機能させる。
The
制御システム12が提供する手段および/または機能は、実体的なメモリ装置に記録されたソフトウェアおよびそれを実行するコンピュータ、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの組合せによって提供することができる。例えば、制御システム12は、if−then−else形式と呼ばれるロジック、または機械学習によってチューニングされたニューラルネットワークによって提供することができる。代替的に、例えば、制御システム12がハードウェアである電子回路によって提供される場合、それは多数の論理回路を含むデジタル回路、またはアナログ回路によって提供することができる。
The means and / or functions provided by the
制御システム12に含まれる制御装置と信号源と制御対象物とは、多様な要素を提供する。それらの要素の少なくとも一部は、機能を実行するためのブロックと呼ぶことができる。別の観点では、それらの要素の少なくとも一部は、構成として解釈されるモジュール、またはセクションと呼ぶことができる。さらに、制御システムに含まれる要素は、意図的な場合にのみ、その機能を実現する手段ともよぶことができる。
The control device, the signal source, and the control target included in the
環境制御装置10は、乗り物の利用者1自身による操作から感情データを取得する。感情データは、利用者が所持する入力装置3によって入力される。入力された感情データは、入力装置3から制御システム12に供給される。これにより、環境制御装置10は、利用者の感情データを取得する。環境制御装置10は、感情データ取得装置を提供し、感情データ取得方法を実行する。制御システム12は、利用者1の感情を、快適度と覚醒度とを含む2軸入力から、取得する。制御システム12は、利用者1が入力した感情を、個人、環境状態、および操作量と関連付けて蓄積する。蓄積機能は、学習とも呼ばれる。蓄積された情報は、自動制御などに利用される。自動制御は、既定の制御特性に基づく作動であって、既定値作動とも呼ばれる。また、自動制御は、利用者1からの感情の入力がない無指定目標による制御とも呼ばれる。
The environment control device 10 acquires emotion data from an operation by the
環境制御装置10は、制御システム12によって、感情データを処理する。制御システム12は、感情データに基づいてアクチュエータ11の操作量を演算する。操作量は、利用者の感情に影響を与えるための「アクチュエーション」とも呼ばれる。この実施形態では、香りが供給される。ただし、ヒトの感覚は、香りに対して麻痺する場合、または慣れる場合がある。このため、香りの継続的供給から、断続的供給への変化が、利用者1の感情を変化させる場合がある。また、ある種別の香りの供給が停止されると、利用者1は、乗り物本来の香り、または外界の香りを感受するから、利用者1の感情を変化させる場合がある。このような観点から、「香りの供給」の語は、継続的供給からの停止も含む。以下の説明では、理解を助けるために、「香りの供給」の語が用いられるが、「香りの供給」の語は、「香りの操作」を示す語として解釈されるべきである。同様に、「アクチュエーション」の語は、ヒトの感情に影響を与えるような操作を示す語として解釈されるべきである。
The environment control device 10 processes emotion data by the
制御システム12は、感情データに応じた操作量の設定を、予め設定されている制御特性に基づいて実行する。この制御特性は、いわゆるif−then−else形式のプログラムによって、または、学習済みモデルによって提供することができる。操作量は、アクチュエータ11によって利用者の感情に変化を与えるための変数、コマンド、または指令として与えられている。この実施形態では、操作量は、香り成分の種類、強度(濃度)、供給継続時間、供給インターバルの少なくともひとつである。環境制御装置10は、感情操作装置を提供し、感情操作方法を実行する。
The
この実施形態の環境制御装置10は、複数の利用者が利用するバス車両、鉄道車両、またはライドシェア車両において利用される。この環境制御装置10は、複数の利用者1a、1bのそれぞれの感情を良くするように環境を調節する。なお、ヒトの感情を示すひとつの指標として、「ラッセルの円環モデル」が知られている。ラッセルの円環モデルとは、ヒトの全ての感情は「快−不快」、「覚醒−眠気」の2次元平面で表されるとするものである。この実施形態では、「ラッセルの円環モデル」を感情の入力、感情の分析、感情の評価において利用する。「快−不快」の軸は、快適度、快適度軸、またはx軸と呼ばれる。「覚醒−眠気」の軸は、覚醒度、覚醒度軸、またはy軸と呼ばれる。
The environment control device 10 of this embodiment is used in a bus vehicle, a railroad vehicle, or a ride share vehicle used by a plurality of users. The environment control device 10 adjusts the environment so as to improve the emotions of the plurality of
図2において、制御システム12が実行する基本処理160が示されている。ステップ161では、入力装置3が入力画面を表示する。入力画面は、ポップアップ表示として提供される。
In FIG. 2, a
図3は、インターフェース31の入力画面を示す。インターフェース31は、2軸入力のための入力部34を提供する。入力部34は、利用者に覚醒度と快適度との入力を求める。入力部34は、覚醒度の入力と、快適度の入力とを別々に求める。入力部34は、覚醒度を入力するための覚醒度入力部34aと、快適度を入力するための快適度入力部34bとを備える。覚醒度入力部34aと快適度入力部34bとは、共に、−2から+2を選択する度数選択部によって提供されている。インターフェース31は、自動制御または手動操作を選択するためのコマンド入力部35を提供する。コマンド入力部35は、感情を入力することなく自動的に環境を制御することを求めるための自動制御入力部35aを有する。コマンド入力部35は、手動操作によってアクチュエータ11を制御する手動操作入力部35bを有する。
FIG. 3 shows an input screen of the
利用者1は、自分が感じている感情を、覚醒度、および快適度の両面から評価し、それぞれの度数を選択し、覚醒度入力部34aと快適度入力部34bとを操作する。制御システム12は、この操作によって特定された覚醒度の度数と、快適度の度数とを取得する。選択された覚醒度の度数は、覚醒度情報または覚醒度データとも呼ばれる。選択された快適度の度数は、快適度情報または快適度データとも呼ばれる。これら覚醒度情報および快適度情報は、利用者1の感情を示すこととなる。
The
なお、「覚醒度は?」、「快適度は?」といった表示は、多様な言語表示によって提供することができる。例えば、「覚醒度は?」との問いかけは、「お疲れですか?」、「意識は明瞭ですか?」、「眠気はありませんか?」といった問いかけに置き換えることができる。「快適度は?」との問いかけは、「今の気分は?」、「良い感じですか?」、「不快ではありませんか?」といった問いかけに置き換えることができる。また、これらの表示を、図形、絵文字、キャラクターなど絵によって表示してもよい。例えば、覚醒度および快適度をわかりやすく表示する図形を用いることができる。 It should be noted that displays such as “How arousal is?” And “How comfortable is?” Can be provided in various language displays. For example, the question “What is arousal level?” Can be replaced with the following questions: “Are you tired?”, “Is consciousness clear?”, “Do you feel sleepy?” The question “How comfortable is it?” Can be replaced with questions like “How do you feel now?”, “Are you feeling good?”, “Are you uncomfortable?” Further, these displays may be displayed by pictures such as figures, pictograms, and characters. For example, a graphic that displays the awakening level and the comfort level in an easily understandable manner can be used.
図2に戻り、ステップ162では、利用者1による入力装置3に対する入力操作が取得される。ステップ163では、コマンド入力部35の操作に応答するための分岐処理が実行される。ここでは、自動制御が選択された場合に、YESへ分岐する。自動制御が選択された場合、制御システム12は、予め設定されている制御特性に基づいてアクチュエータ11を制御する。ステップ164では、複数のセンサ33から、環境状態が取得される。環境状態は、気温、気圧、および気流の少なくともひとつを含む。ステップ165では、自動制御に基づいてアクチュエータ11の操作量が設定される。ここでは、「利用者が入力した感情」がないから、専ら環境状態に基づいて操作量が設定される。ステップ163における分岐は、ステップ161から所定時間にわたって入力がない場合に、自動制御に分岐してもよい。自動制御では、予め学習された個人の好みを示す個人データに基づいて操作量が設定される。個人データは、過去の操作に基づいて蓄積されている。この実施形態では、蓄積量が所定量を超えることによって信頼性が高いとみなすことができる操作量が再現される。ここでは、感情の入力がない場合でも、個人の好みと、環境状態とをパラメータとして、過去の学習によって蓄積されたデータが検索される。この検索によって得られた操作量が、再現される。例えば、個人が特定の利用者であり、環境状態が気圧の「低」である場合には、過去の履歴に基づいて柑橘系の香りが弱い強度で提供される。
Returning to FIG. 2, in
図4において、「ラッセルの円環モデル」が示されている。一般的に、環境制御装置10には、利用者の感情を改善すること、すなわち感情を良くすることが求められている。よって、ある時点での感情(現在の感情)を、太い矢印で示されるように、右方向へ推移させることが望ましい。この場合、「ラッセルの円環モデル」が示す感情は、3つの挙動を示す。3つの挙動は、(1)覚醒度は維持しながら、快適度を上昇させる挙動、(2)覚醒度も快適度も上昇させる挙動、(3)覚醒度を低下させながら、快適度を上昇させる挙動を含む。この実施形態は、適用対象が乗り物である。そこで、(4)覚醒度を上昇させ、快適度を維持する挙動が追加的に利用される場合がある。なお、「現在の感情」は、制御における初期の感情でもある。 In FIG. 4, “Russell's ring model” is shown. Generally, the environment control device 10 is required to improve the user's emotion, that is, improve the emotion. Therefore, it is desirable to shift the emotion at a certain point in time (current emotion) to the right as indicated by the thick arrow. In this case, the emotion indicated by the “Russell's ring model” exhibits three behaviors. The three behaviors are (1) a behavior that increases the comfort level while maintaining the arousal level, (2) a behavior that increases both the arousal level and the comfort level, and (3) a comfort level that increases while decreasing the arousal level. Including behavior. In this embodiment, the application target is a vehicle. Therefore, (4) a behavior of increasing the arousal level and maintaining the comfort level may be additionally used. The “current emotion” is also an initial emotion in the control.
多くの場合、覚醒度を高めることが求められる。この場合、感情を右上へ推移させること(上記(2)の挙動)が望ましい。香りによってヒトの感情を変える場合、個別の好みの影響が大きい。しかし、自動制御では、一般的な傾向に基づいて供給される香りの種別の初期値が設定されている。また、自動制御では、一般的な傾向に基づいて、供給される香りの強度(濃度)、継続時間、供給インターバルが設定されている。さらに、この実施形態では、個人の好みに適合するために、後述の学習で得られた情報に応じて自動制御の特性が修正される。 In many cases, it is required to increase the arousal level. In this case, it is desirable to move the emotion to the upper right (behavior (2) above). When changing human emotions with scents, the influence of individual preferences is great. However, in the automatic control, an initial value of the type of fragrance supplied based on a general tendency is set. In the automatic control, the intensity (concentration), duration, and supply interval of the scent to be supplied are set based on a general tendency. Furthermore, in this embodiment, in order to adapt to personal preference, the characteristics of automatic control are corrected according to information obtained by learning described later.
図2に戻り、2軸入力によって利用者の感情が入力された場合、処理はステップ166へ進む。ステップ166では、ある時点における感情を示す入力データが取得される。ある時点における利用者の感情は、現在の感情とも呼ばれる。また、入力データは、入力値とも呼ばれる。ステップ166は、入力部34から、利用者1の感情を示す覚醒度データと快適度データとを取得する感情取得部を提供する。すなわち、覚醒度の度数と、快適度の度数とが、数値として取得される。利用者が快適度と覚醒度とを入力することにより、「ラッセルの円環モデル」に基づいて利用者の感情が把握される。さらに、制御システム12は、「利用者が入力した感情」と「個人」とを関連付けてメモリ装置に格納する。個人を示す情報は、入力装置としての個人端末から取得される。
Returning to FIG. 2, if the user's emotion is input by 2-axis input, the process proceeds to step 166. In
なお、ステップ161、162、166の処理は、利用者が乗り物に乗車する前に実行されても、利用者が乗り物に乗車した後に実行されてもよい。利用者は、例えば、乗り物に乗車する前に、予め感情を入力してもよい。
Note that the processing of
ステップ167では、複数のセンサ33から、環境状態が取得される。環境状態は、気温、気圧、および気流の少なくともひとつを含む。この実施形態では、環境状態は、少なくとも気圧を含む。環境状態は、センサ33から取得することなく、入力装置3の通信機能を利用して取得されてもよい。環境状態は、例えば、個人端末としてのスマートフォンを経由して、天気予報サイトから取得されてもよい。ステップ167は、利用者1が置かれている環境を示す環境状態を取得する環境情報取得部を提供する。なお、環境状態は、数個の典型的な状態に分類することができる。例えば、気圧は、低:950(HPa)、中1000(HPa)、高:1050(HPa)の3段階に分類することができる。この分類数、および各分類が占める範囲は、ヒトの感情への影響に応じて設定されている。
In
図5において、環境状態に応じて感情を学習するモデルが示されている。利用者の感情は、環境状態の影響を受ける。例えば、多くの場合、低い気圧は、ヒトの感情を不快方向へ偏位させる。制御システム12は、「利用者が入力した感情」と「気圧」とを関連付けてメモリ装置に格納する。装置が複数回にわたって利用されると、環境状態に応じた感情が学習される。例えば、多くの場合に、ヒトがもつ傾向が破線で示され、初期値として設定されている場合に、学習の結果、特定の個人の好みが太い実線で示される特性に修正される。このような学習は、自動制御の場合には、個人と環境状態とに適合した操作量の設定を可能とする。言い換えると、特定の個人の好みが再現される。こうして学習されたデータは、再び同じ気圧が発生した場合に、操作量の設定に利用される。
FIG. 5 shows a model for learning emotions according to environmental conditions. User emotions are affected by environmental conditions. For example, in many cases, low atmospheric pressure will shift human emotions in an uncomfortable direction. The
図2に戻り、ステップ168では、ステップ166で得られた「利用者が入力した感情」に基づいて、アクチュエータ11の操作量が設定される。操作量は、例えば、「利用者が入力した感情」が「不快」であれば、利用者の感情を快適方向へ推移させるように設定される。しかも、例えば、「強い不快度」を示す場合と、「軽い不快度」を示す場合とでは、異なる操作量を設定することができる。操作量は、例えば、「ラッセルの円環モデル」の上における推移距離に応じて設定することができる。このような操作量の設定は、「利用者が入力した感情」を「初期の感情」とする場合に可能となる。推移距離は、例えば、「初期の感情」と「目標の感情」との間の距離である。
Returning to FIG. 2, in
ステップ169では、実際にアクチュエータ11が操作される。アクチュエータ11の操作量は、ステップ165またはステップ168で設定された操作量である。これにより、利用者には、所定の種別の香りが、所定の強度(濃度)で与えられる。ステップ169は、制御部を提供する。制御部は、感情取得部によって取得された覚醒度データおよび快適度データに基づいてアクチュエータ11の操作量を制御する。
In
ステップ170では、実際に提供された操作を蓄積する。この処理は学習でもある。ステップ170では、「個人−感情−環境状態−操作量」の関係が蓄積される。この結果、個人の好みが操作量に反映される。また、環境状態に応じた個人の感情の傾向が反映される。ステップ170は、学習部を提供する。ひとつの観点では、学習部は、個人情報と入力された感情と操作量との少なくとも3つを含む情報を関連付けて蓄積することにより、個人と感情と操作量の関係を学習する。別の観点では、学習部は、環境状態と入力された感情と操作量との少なくとも3つを含む情報を関連付けて蓄積することにより、環境状態と感情と操作量との関係を学習する。さらに、学習部は、個人情報と入力された環境状態と感情と操作量との4つを含む情報を関連付けて蓄積することにより、個人と環境状態と感情と操作量との関係を学習する。
In
ステップ171では、利用者による入力操作に対して報酬が提供される。この報酬は、お礼としてのものである。この報酬は、「ありがとう」の言葉だけ、クラウドからの有益情報、または無料の追加機能のいずれかを含むことができる。報酬は、ネットワークを通じて提供されるクーポン、ショピングにおけるポイントでもよい。ステップ171は、報酬提供部を提供する。報酬提供部は、利用者1から感情を示す覚醒度と快適度とが入力された場合に、利用者1に対して報酬を提供する。
In
図6は、報酬を提供する画面の一例である。報酬としての情報表示37は、入力操作に対するお礼の言葉を含む。情報表示37は、例えば、おすすめ情報へのアクセス許可37aを含む場合がある。情報表示37は、無料の追加機能、例えば、新しい種別の香りを供給する機能を含む場合がある。この実施形態は、利用者1の入力によって感情を正確に取得している。よって、報酬を提供することは、正確な感情の取得に貢献する。
FIG. 6 is an example of a screen for providing a reward. The
図2に戻り、ステップ161−163において、手動操作入力部35bが操作された場合、処理は、手動操作に移行する。
Returning to FIG. 2, when the manual
図7は、手動操作処理260を示す。ステップ261では、手動操作のための入力画面が表示される。ステップ262では、入力操作が取得される。ステップ263では、利用者が求める操作量が取得される。ステップ264では、環境状態が取得される。ステップ265では、「個人−感情−環境状態−操作量」の関係が学習される。ステップ266では、入力操作に対して報酬が提供される。
FIG. 7 shows the
図8において、手動操作のための入力画面の一例が示されている。この例では、操作量の入力部36は、香りの種別入力部36aと、香りの強度入力部36bとを含む。種別は、例えば、柑橘、カルダモン、ミントなどに対応する。
FIG. 8 shows an example of an input screen for manual operation. In this example, the operation
図9において、手動操作のための入力画面の一例が示されている。この例では、利用者1に感情の入力を求めるための覚醒度入力部34a、および快適度入力部34bを備える。
FIG. 9 shows an example of an input screen for manual operation. In this example, a
図10において、手動入力の学習を説明する説明図が示されている。上述のように、操作量と感情との両方を手動操作することで、個人の好みをより強く反映させることができる。MAP1は、手動操作前の学習値を示し、MAP2は手動操作後の学習値を示す。例えば、MAP1は、柑橘系の香りCTRが図示される円筒シンボルの位置(感情)の場合に、円筒シンボルの大きさが示す強度で利用されることを示している。この場合、手動操作は、柑橘系の香りCTRの利用を、矢印で示されるように変更する。MAP2は、柑橘系の香りCTRが、図示される円筒シンボルの位置(感情)の場合に、円筒シンボルの大きさが示す強度で利用されることを示している。手動操作による操作量は、制御システム12に蓄積され、ステップ165およびステップ168における操作量の設定において利用される。具体的な利用は、ステップ165およびステップ168における制御特性の修正、または、ステップ165およびステップ168における手動操作の再現によって実現される。
In FIG. 10, an explanatory diagram for explaining learning of manual input is shown. As described above, the personal preference can be more strongly reflected by manually operating both the operation amount and the emotion. MAP1 indicates a learning value before manual operation, and MAP2 indicates a learning value after manual operation. For example, MAP1 indicates that, when the citrus scent CTR is the position (emotion) of the cylindrical symbol illustrated, the citrus scent CTR is used at the intensity indicated by the size of the cylindrical symbol. In this case, the manual operation changes the use of the citrus scent CTR as indicated by the arrow. MAP2 indicates that the citrus scent CTR is used at the strength indicated by the size of the cylindrical symbol in the case of the cylindrical symbol position (emotion) illustrated. The operation amount by the manual operation is accumulated in the
この実施形態によると、利用者の感情を覚醒度と快適度とを含む2軸入力によって取得することができる。利用者から直接的に利用者の感情を入力できるため、利用者の負担を抑制しながら、正確な感情を取得することができる。しかも、覚醒度と、快適度とに分けているから、利用者に「感情の入力」を強く意識させることなく、利用者の感情と示す情報を取得することができる。また、「入力された感情」と、「個人」とを関連付けて学習しているから、「個人」の好みを操作量に反映することができる。具体的には、同じ個人に対してその個人の好みに適合した操作が提供される。また、「入力された感情」と、「環境状態」とを関連付けて学習しているから、「環境状態」による感情の傾向を操作量に反映することができる。具体的には、「気圧」の変化による感情の変化の傾向が、操作量に反映される。 According to this embodiment, the user's emotion can be acquired by biaxial input including the arousal level and the comfort level. Since the user's emotion can be directly input from the user, it is possible to acquire an accurate emotion while suppressing the burden on the user. Moreover, since the degree of arousal and the degree of comfort are divided, information indicating the user's emotion can be acquired without making the user strongly aware of “input of emotion”. Since learning is performed by associating “input emotion” with “individual”, the preference of “individual” can be reflected in the operation amount. Specifically, an operation suitable for the personal preference is provided to the same individual. Further, since learning is performed by associating “input emotion” with “environmental state”, it is possible to reflect the tendency of emotion due to “environmental state” in the operation amount. Specifically, the tendency of the emotional change due to the change of the “atmospheric pressure” is reflected in the operation amount.
この実施形態によると、利用者の感情が、利用者自身の感覚を経由して取得されるから、利用者の感情を確実に操作することができる。具体的には、利用者の感情を、快適度を高める方向、すなわち良くする方向へ操作することができる。しかも、香りの提供によって利用者の感情を良くすることができる。 According to this embodiment, since a user's emotion is acquired via a user's own sense, a user's emotion can be operated reliably. Specifically, the user's emotion can be manipulated in the direction of increasing the comfort level, that is, in the direction of improving. In addition, the user's emotion can be improved by providing the scent.
第2実施形態
この実施形態は、先行する実施形態を基礎的形態とする変形例である。上記実施形態では、利用者の感情に影響すると思われる環境状態、すなわち気象情報が取得される。これに代えて、この実施形態では、環境状態として、利用者が置かれた環境における交通の渋滞度が取得され、利用される。
Second Embodiment This embodiment is a modified example based on the preceding embodiment. In the above embodiment, environmental conditions that are thought to affect the user's emotion, that is, weather information, are acquired. Instead, in this embodiment, the traffic congestion degree in the environment where the user is placed is acquired and used as the environmental state.
図11は、渋滞処理360を示すフローチャートである。先行する実施形態のステップと同じステップには、同じ符号を付している。この実施形態は、乗り物が、渋滞に巻き込まれた場合に、利用者の感情を安定化、沈静化することを目指している。この環境制御装置は、交通情報などから渋滞情報が得られた場合に起動される。
FIG. 11 is a flowchart showing the
ステップ361では、環境状態として、気圧と渋滞度が取得される。渋滞度は、渋滞の度合いを示し、例えば、渋滞が深刻であるほど大きい指数が付与される。渋滞度は、乗り物のナビゲーション装置、または速度変化の分析によって特定される。ステップ362では、気圧と渋滞度とを含む環境状態と、自動制御特性とに基づいて操作量が設定される。ステップ362では、利用者が入力した感情と、気圧と渋滞度とを含む環境状態とに基づいて、操作量が設定される。
In
ステップ363では、環境状態として、気圧と渋滞度が取得される。ステップ364では、利用者1が入力した感情を示すデータに基づいて、操作量が設定される。ステップ364は、先行する実施形態のステップ168と類似である。ただし、ステップ364では、感情、気圧、および渋滞度に基づいて、操作量が設定される。例えば、渋滞度が高く、利用者1が期待する交通機能が発揮されていない場合、利用者1の感情は悪いと考えられる。この場合、利用者1の感情は改善されにくいと考えられる。そこで、渋滞度が高くなるほど、利用者1の感情が良くなるように、操作量を調節することが考えられる。
In
図12において、渋滞度に対する感情の一例が示されている。複数の利用者のうちの特定の利用者、すなわち個人の感情は、渋滞度ごとに変化することがある。この実施形態によると、実際に発生した渋滞度ごとに、特定の利用者の傾向が学習される。学習された結果は、再び同様の渋滞度が発生した場合に、操作量を設定するために利用される。 FIG. 12 shows an example of feelings regarding the degree of congestion. A specific user among a plurality of users, that is, an individual's emotion may change for each degree of traffic jam. According to this embodiment, the tendency of a specific user is learned for each actual congestion level. The learned result is used to set the operation amount when the same degree of congestion occurs again.
この実施形態によると、乗り物の利用者の感情に強く影響する交通の渋滞度に応じて、利用者の感情を良くするアクチュエーションを提供することができる。なお、この実施形態では、環境状態に含まれる気象情報と渋滞情報との両方をパラメータとして学習を実行している。これに代えて、気象情報または渋滞情報だけをパラメータとして学習を実行してもよい。 According to this embodiment, it is possible to provide an actuation that improves the user's emotion according to the degree of traffic congestion that strongly affects the user's emotion of the vehicle. In this embodiment, learning is performed using both weather information and traffic jam information included in the environmental state as parameters. Alternatively, learning may be executed using only weather information or traffic jam information as parameters.
第3実施形態
この実施形態は、先行する実施形態を基礎的形態とする変形例である。上記実施形態では、利用者の現在の感情が入力される。これに代えて、この実施形態では、利用者の現在の感情だけでなく、利用者1が希望する目標の感情が入力される。「希望する感情」は、「目標の感情」でもある。現在の感情と目標の感情とが示す感情の推移は、改善の量および改善の方向を示す。
Third Embodiment This embodiment is a modification in which the preceding embodiment is a basic form. In the above embodiment, the user's current emotion is input. Instead, in this embodiment, not only the user's current emotion but also the target emotion desired by the
図13は、感情改善方向処理460を示すフローチャートを示す。ステップ162、166、167、169、170、171は、先行する実施形態に相当と同じである。ステップ461では、利用者に感情の入力を求めるために、入力画面を表示する。
FIG. 13 is a flowchart showing emotion
図14は、現在の感情を入力するための画面を示す。入力部434は、2軸で示される平面における位置として覚醒度と快適度との入力を一括して求める。利用者1は、「ラッセルの円環モデル」に相当する画像の上を指でタップする。タップした位置の一例が丸印で示されている。縦軸方向の座標入力によって、覚醒度入力部434aが提供される。横軸方向の座標入力によって、快適度入力部434bが提供される。
FIG. 14 shows a screen for inputting the current emotion. The
図13に戻り、ステップ462では、利用者1による操作に応じて分岐する。操作が、「自動制御」を示すAUTOであった場合、ステップ463へ進む。操作が「現在の感情」の入力を示すVALUEであった場合、ステップ464へ進む。操作が、「次へ」を示すSKIPであった場合、ステップ465へ進む。ステップ463では、自動制御が提供される。この自動制御は、上記ステップ164、165を利用することができる。ステップ464では、ステップ167で取得された覚醒度データと快適度データとを「ラッセルの円環モデル」の上に位置付ける。これにより、利用者1の現在の感情が取得される。ステップ464は、感情取得部によって利用者1の現在における現在感情を取得する現在感情取得部を提供する。
Returning to FIG. 13, in
ステップ465では、利用者に対して、利用者が希望する目標の感情の改善方向の入力を求めるために、入力画面を表示する。利用者が自らの感情の改善を希望する場合、上述の(1)、(2)、(3)または(4)を選択することができる。このステップ465では、利用者が希望する希望改善方向の入力を少なくとも求める。ステップ466では、入力値が取得される。ここでは、希望改善方向を示すデータが取得される。
In
図15は、改善方向を入力するための入力画面の一例を示す。この例では、「覚醒」の語で示される覚醒度の改善を示す改善方向入力部434fが用いられている。「覚醒」の語は、上述の(2)または(4)に対応する。この実施形態では、利用者1が(4)の挙動を強く求めているものとする。この例では、「リラッスク」の語で示される快適度の改善を示す改善方向入力部434gが用いられている。「リラックス」の語は、上述の(1)、(2)または(3)に対応する。この実施形態では、利用者1が(1)の挙動を強く求めているものとする。こうして、制御システム12は、利用者1から、利用者1が希望する希望改善方向のデータを取得する。この場合、上述の挙動は、感情の推移とも呼ばれる。
FIG. 15 shows an example of an input screen for inputting the improvement direction. In this example, an improvement
図16は、改善方向を入力するための入力画面の他の例を示す。この例では、利用者1は、目標の感情を「ラッセルの円環モデル」によって指定する。この場合、先に入力された「現在の感情」から、後で入力された「目標の感情」への感情の推移が希望改善方向を示す。例えば、図14と同様に、利用者1は「ラッセルの円環モデル」に相当する画像の上を指でタップする。この場合も、2軸で示される平面における位置として感情が入力される。「現在の感情」と「目標の感情」とは、入力画面上における指先の移動によって特定されてもよい。この場合、スワイプと呼ばれる操作によって、「現在の感情」と、利用者が求める改善方向とが入力される。別の観点では、スワイプと呼ばれる操作によって、利用者が求める改善方向と、到達点としての「目標の感情」が入力される。縦方向の座標入力によって、覚醒度入力部34aが提供される。横軸方向の座標入力によって、快適度入力部34bが提供される。こうして、制御システム12は、利用者1から、利用者1が希望する希望改善方向のデータを取得する。図16の場合、目標の感情を入力するために入力部434が利用される。
FIG. 16 shows another example of the input screen for inputting the improvement direction. In this example, the
図17は、改善方向を説明する説明図である。この実施形態では、太い矢印で示されるように、「現在の感情」から「目標の感情」へ向かう希望改善方向を利用している。自動制御における制御特性は、上述の(1)、(2)または(3)に初期設定することができる。 FIG. 17 is an explanatory diagram for explaining the improvement direction. In this embodiment, as indicated by a thick arrow, a desired improvement direction from “current emotion” to “target emotion” is used. The control characteristics in the automatic control can be initially set in the above (1), (2) or (3).
図18は、インターフェース31における入力のためのスイッチ34mの配置の一例を示す。「ラッセルの円環モデル」に利用可能なスイッチ34mの配置の一例を示している。インターフェース31は、複数のスイッチ34mを提供する。複数のスイッチ34mは、丸印によって示されている。例えば、眠気に対応するスイッチ34nが操作された場合、円と直線軸との交点のデータが、申告値となる。複数のスイッチ34mの配置は、この明細書に開示された複数の実施形態において利用可能である。
FIG. 18 shows an example of the arrangement of the
図13に戻り、ステップ467では、手動操作(MANUAL)が指示されたか否かが判定される。手動操作が指示された場合(YES)、ステップ468へ進む。ステップ468では、手動操作が提供される。手動操作は、手動操作処理260によって提供することができる。ステップ467における分岐は、ステップ465の表示から所定時間にわたって入力がない場合にも、NOへ分岐してもよい。
Returning to FIG. 13, in
ステップ467において手動操作が選択されていない場合(NO)、ステップ469へ分岐する。ステップ469では、ステップ466で取得された入力値を「ラッセルの円環モデル」の上に位置付ける。ここでは、ステップ166で取得された「現在の感情」を始点として、ステップ466で取得された希望改善方向のデータが「ラッセルの円環モデル」の上に反映される。この結果、現在の感情から目標の感情への推移が特定される。ステップ469は、希望改善方向取得部を提供する。希望改善方向取得部は、利用者が希望する希望改善方向を少なくとも取得する。
If manual operation is not selected in step 467 (NO), the process branches to step 469. In
ステップ470では、ステップ469で特定された感情推移に基づいて、アクチュエータ11の操作量が設定される。ステップ469は、制御部を提供する。制御部は、現在感情取得部により取得された現在感情と、希望改善方向取得部により取得された希望改善方向とに基づいてアクチュエータ11の操作量を制御する。図16を利用して、「現在の感情」と「目標の感情」との両方が取得される場合がある。この場合、制御部は、「現在の感情」から「目標の感情」への感情の推移に基づいてアクチュエータ11の操作量を制御する。ステップ470は、改善の方向を制御する方向制御部を提供する。ステップ470では、覚醒度データ、快適度データ、および希望改善方向に基づいてアクチュエータの操作量が制御される。
In
図19は、評価処理560を示すフローチャートである。評価処理560は、環境制御装置10による環境制御の終了時に起動される。評価処理560は、利用者1が乗り物から離れた後に、利用者1の指示に応答して起動されてもよい。評価処理560は、利用者1が環境制御装置10による制御を評価し、制御を調整するための処理である。
FIG. 19 is a flowchart showing the
ステップ561では、環境制御の終了時における感情の入力が求められる。利用者1は、求めに応じて、環境制御の終了時における感情を入力する。この終了時の感情は、環境制御に対する評価でもある。ステップ562では、利用者1の最終的な感情が取得される。最終的な感情とは、環境制御の終了時における感情である。ステップ562は、評価部を提供する。評価部は、制御部による制御の後に、利用者1による操作量の評価を取得する。
In
図20において、評価を入力するための入力画面の一例が示されている。「終了時の感情(評価)は?」という問いかけは、利用者1に対して評価の入力を促す。利用者1は、2軸で示される平面における位置として覚醒度と快適度とを入力する。
FIG. 20 shows an example of an input screen for inputting an evaluation. The question “What is the emotion at the end (evaluation)?” Prompts the
図21において、評価を入力するための入力画面の他の例が示されている。評価は、「悪い」、「中間」、「良い」といった評価度によって入力されてもよい。 FIG. 21 shows another example of an input screen for inputting an evaluation. The evaluation may be input according to evaluation degrees such as “bad”, “intermediate”, and “good”.
図19に戻り、ステップ563では、ステップ562で取得された評価に応じて制御システム12による制御特性が修正される。ここでは、「個人−感情−感情状態−操作量」の関係が修正される。言い換えると、制御システム12による学習制御の結果が修正される。例えば、学習値が学習によって正規の値から偏っている場合、評価が悪い場合、学習値は偏りを抑制する方向へ修正される。また、評価が良い場合、学習値は偏りを増加させる方向へ修正される。ステップ563は、修正部を提供する。修正部は、評価部によって取得された評価に基づいて、学習された関係を修正する。
Returning to FIG. 19, in
修正特性の一例は、ステップ564およびステップ565によって実行される。ステップ564では、評価が重みに変換される。ステップ565では、変換された重みに応じて、操作量の設定特性、および/または初期値が修正される。ステップ565では、例えば、自動制御における制御特性が、重みに応じて修正される。ステップ565では、例えば、ステップ168、470における設定特性が修正される。
An example of a correction characteristic is performed by
図22は、評価プロセスの一例を示す。利用者1の感情が、例えば、環境制御装置10による環境制御の開始時において初期の感情の位置にあり、利用者1が希望する感情が目標の感情の位置である場合を想定する。環境制御装置10による環境制御の終了時に、利用者1の感情が終了時に感情に到達している場合、実線矢印で示される改善効果EF(xy)が得られる。ただし、破線矢印で示されるように、不足分として、偏差DF(xy)が残されている。
FIG. 22 shows an example of the evaluation process. For example, it is assumed that the emotion of the
図23は、評価プロセスの他の例を示す。初期の感情と、目標の感情とが示す改善方向が、二点鎖線の矢印で示されている。一方、実際に発生した効果が実線の矢印である。この場合、改善効果EF(xy)は、二点鎖線の矢印に対する長さとして評価されることが望ましい。この場合、終了時の感情を、目標の感情に変化させるために、破線矢印で示されるように、不足分として、偏差DF(xy)が残されている。 FIG. 23 shows another example of the evaluation process. The improvement direction indicated by the initial emotion and the target emotion is indicated by a two-dot chain arrow. On the other hand, the effect actually generated is a solid arrow. In this case, it is desirable that the improvement effect EF (xy) is evaluated as the length with respect to the two-dot chain line arrow. In this case, in order to change the emotion at the end to the target emotion, the deviation DF (xy) is left as an insufficiency, as indicated by the dashed arrow.
図24において、評価を重みに変換する特性がグラフによって示されている。改善効果EF(xy)は、正の傾斜をもつ関数によって重みK1に変換される。よって、改善効果EF(xy)が大きいほど、重みK1が大きく設定される。 In FIG. 24, the characteristic for converting the evaluation into the weight is shown by a graph. The improvement effect EF (xy) is converted into the weight K1 by a function having a positive slope. Therefore, the greater the improvement effect EF (xy), the larger the weight K1 is set.
図25において、評価を重みに変換する特性がグラフによって示されている。偏差DF(xy)は、残留偏差でもある。偏差DF(xy)は、負の傾斜をもつ関数によって重みK1に変換される。よって、偏差DF(xy)が大きいほど、重みK2が小さく設定される。 In FIG. 25, the characteristic for converting the evaluation into the weight is shown by a graph. The deviation DF (xy) is also a residual deviation. The deviation DF (xy) is converted to a weight K1 by a function having a negative slope. Therefore, the larger the deviation DF (xy), the smaller the weight K2 is set.
図26において、評価と操作量との関係が示されている。図において、球、立方体、円柱のシンボルは、操作量を示している。例えば、球、立方体、円柱の形状は、操作の種別を示す。例えば、供給される香りの種別を示す。球、立方体、円柱の大きさは、操作の大きさを示す。例えば、供給される香りの強度である。特定の香りとして柑橘系の香りCTRを示している。環境制御装置10によって柑橘系の香りCTRが供給されていた場合、ステップ562で得られる評価は、柑橘系の香りCTRに対する評価である。この場合、評価を示す改善効果EF(xy)および偏差DF(xy)は、柑橘系の香りCTRの強度を下式の評価関数に基づいて設定する。ここでは、改善効果EF(xy)が大きいほど、操作量が大きくされる。偏差DF(xy)が大きいほど、操作量は小さくされる。なお、f( )は、所定の関数を意味している。
In FIG. 26, the relationship between the evaluation and the operation amount is shown. In the figure, the symbols of sphere, cube, and cylinder indicate the operation amount. For example, the shape of a sphere, cube, or cylinder indicates the type of operation. For example, the type of scent to be supplied is shown. The size of the sphere, cube, or cylinder indicates the size of the operation. For example, the intensity of the supplied scent. A citrus scent CTR is shown as a specific scent. When the citrus scent CTR is supplied by the environment control apparatus 10, the evaluation obtained in
St(n)=K1・f(EF(xy))−K2・f(DF(xy))
この実施形態では、手動操作を選択することによって操作量を変更することができる。例えば、利用者1は、手動操作を選択することにより種別を手動によって設定することができる。その上で、上述の学習によってデータが積上げられた後は、学習による操作量を利用することができる。例えば、操作量Stが高い香りを優先的に作動させることができる。
St (n) = K1 · f (EF (xy)) − K2 · f (DF (xy))
In this embodiment, the operation amount can be changed by selecting manual operation. For example, the
この実施形態によると、現在の感情と、少なくとも希望改善方向とが取得され、これらに基づいて操作量が設定される。このため、予め設定された改善方向のみならず、利用者が指定した改善方向へ向けて操作量を提供することができる。しかも、環境制御装置10による環境制御の後に、利用者1からの評価が実行される。環境制御装置10は、次回の操作量を調節するように、利用者1からの評価に基づいて制御特性を修正している。徐々に利用者1の好みに適合した制御への自動調整が可能である。特に、評価処理は、初期の感情と、目標の感情と、実際に到達した終了時の感情とに基づいて、多様な偏差および重み付けに基づいて、自動制御のための制御特性、係数、初期値を調節する。このため、過去の制御履歴を未来の制御に反映して、制御による効果が高められる。特に、多様な偏差は、未来の操作量を変化させる重みをプラス方向へ変化させる改善効果EF(xy)と、未来の操作量を変化させる重みをマイナス方向へ変化させる残留偏差DF(xy)とを含む。このため、制御が繰り返されるほど、利用者の感情が良くなる方向への帰還的効果が得られる。
According to this embodiment, the current emotion and at least the desired improvement direction are acquired, and the operation amount is set based on these. For this reason, the operation amount can be provided not only in the improvement direction set in advance but also in the improvement direction designated by the user. Moreover, after the environmental control by the environmental control device 10, the evaluation from the
第4実施形態
この実施形態は、先行する実施形態を基礎的形態とする変形例である。上記実施形態では、前の制御において複数の利用者のそれぞれのデータが学習され、後の制御において利用される。これに加えて、特定の利用者に関するデータが所定量以上に蓄積された場合、先の制御を少なくとも部分的に再現する後の自動制御が実行されてもよい。
Fourth Embodiment This embodiment is a modified example based on the preceding embodiment. In the above-described embodiment, each data of a plurality of users is learned in the previous control and used in the subsequent control. In addition to this, when data regarding a specific user is accumulated in a predetermined amount or more, automatic control after at least partially reproducing the previous control may be executed.
図27は、個人適合自動制御処理660を示すフローチャートである。この処理は、自動制御(AUTO)が選択された場合に実行される。ステップ660では、今回の利用者に関する個人マップが完成しているか否かが判定される。個人マップは、図10に示されるような利用者個人の好みが反映された学習データを指す。ステップ661において、個人マップが完成していない場合は、通常処理に進む。通常処理は、先行する実施形態で説明された処理160、460である。これらの処理160、460は、個人マップの完成度を高めるための蓄積処理を提供する。
FIG. 27 is a flowchart showing the personal adaptation
ステップ167からステップ169の制御では、利用者1が好む制御が再現される。例えば、利用者1が改善方向を指示すると、利用者1が好む香りが供給される。ステップ167からステップ169を経由した後に、利用者1の評価を入力するための評価処理560が実行される。評価処理560は、環境制御装置10によって一定量のアクチューションが提供された後に実行される。評価処理560は、例えば、乗り物の継続的な利用時間が所定時間を上回った場合に実行されてもよい。評価処理560は、例えば、環境制御装置10による環境制御が終了した場合に実行されてもよい。評価処理560において入力される利用者の感情は、制御の後の最終感情とも呼ぶことができる。
In the control from
ステップ662では、残留した偏差DF(xy)が、閾値THを上回るか否かが判定される。TH<DF(xy)が成立する場合(YES)、ステップ663へ進む。TH<DF(xy)が成立しない場合(NO)、ステップ171へ進む。ステップ662の処理は、目標の感情と、制御の結果を示す最終の感情との乖離度を評価する評価処理とも呼ぶことができる。偏差DF(xy)は、乖離度を示す。閾値THは、許容しうる乖離度と、許容できない乖離度との境界を規定している。ステップ663では、個人マップの完成度を高めるように、ステップ661における判定条件を設定する。ステップ663では、次の制御において、通常処理へ分岐するようにステップ661における判定条件が設定される。言い換えると、偏差DF(xy)が、閾値THを上回る場合、利用者1による評価が悪いと考えられる。これは、個人マップの学習が不十分であることが原因として考えられる。そこで、ステップ663では、個人マップの学習を増加させる。例えば、ステップ663を経由した後の制御では、ステップ661から通常処理としての処理160、460へ分岐する。少なくとも1回以上にわたってこの分岐が繰り返されることにより、個人マップの完成度が高められる。一方、偏差DF(xy)が、閾値THを下回る場合、利用者1による評価が良いと考えられる。この場合、利用者1の個人マップに基づく制御を継続する。
In
図28は、ひとりの利用者(個人)に関して、学習された操作量を説明する説明図である。マップに設定されている初期値が破線で示されている。所定数の学習を繰り返した後の個人マップに相当する特性が太い実線で示されている。環境状態(気圧)ごとに、特定の利用者(個人)の感情Z1、Z2、Z3が異なる。この傾向は、特定の利用者、すなわち個人の傾向と見ることができる。目標の感情a1、a2、a3が設定される場合、異なるアクチュエ―ションZ1−a1、Z1−a2、Z3−a3が提供される。これらアクチュエーションZ1−a1、Z1−a2、Z3−a3は、現在の感情が異なる。これらアクチュエーションZ1−a1、Z1−a2、Z3−a3は、感情の推移のベクトルが異なるといえる。これらアクチュエーションZ1−a1、Z1−a2、Z3−a3を提供するための香りの操作量(例えば、種別と強度とを含む)は、蓄積された個人マップから選び出される。蓄積された個人マップは、過去の評価によって重み付けされたデータを反映しているから、特定の利用者1に対して最適な操作量が設定される。目標の感情b1、b2、b3が設定された場合も、同様にして、それぞれのアクチュエーションに対応して、最適な操作量が設定される。
FIG. 28 is an explanatory diagram for explaining the learned operation amount for one user (individual). The initial value set in the map is indicated by a broken line. The characteristic corresponding to the personal map after repeating a predetermined number of learning is indicated by a thick solid line. The emotions Z1, Z2, and Z3 of a specific user (individual) are different for each environmental state (atmospheric pressure). This tendency can be regarded as a tendency of a specific user, that is, an individual. When the target emotions a1, a2, a3 are set, different actions Z1-a1, Z1-a2, Z3-a3 are provided. These actions Z1-a1, Z1-a2, and Z3-a3 have different current emotions. It can be said that these actuations Z1-a1, Z1-a2, and Z3-a3 have different emotion transition vectors. The scent operation amount (including the type and intensity, for example) for providing these actuations Z1-a1, Z1-a2, and Z3-a3 is selected from the stored personal map. Since the accumulated personal map reflects data weighted by past evaluations, an optimum operation amount is set for a
第5実施形態
この実施形態は、先行する実施形態を基礎的形態とする変形例である。上記実施形態では、ひとつの乗り物に属するひとつの環境制御装置10が例示されている。これに代えて、この実施形態では、複数の乗り物のそれぞれに属する複数の環境制御装置10a、10bが、利用者1に関連付けられた個人データに適合するように制御される。
Fifth Embodiment This embodiment is a modified example based on the preceding embodiment. In the said embodiment, the one environmental control apparatus 10 which belongs to one vehicle is illustrated. Instead, in this embodiment, the plurality of
図29において、感情入力装置2は、利用者1が自ら認識して、携帯端末3に入力する感情を取得する。遠隔に設置されたひとつまたは複数のリモートコントローラ(R−CNT)16は、クラウドと呼ばれるシステムを構成している。クラウドは、複数の乗り物VH−A、VH−Bから、データおよび/またはプログラムを格納するシステムとして、共通に利用される。クラウドは、例えば、個人データを格納する。乗り物VH−Aと、乗り物VH−Bとは、クラウドに格納された個人データを利用することができる。乗り物VH−A、乗り物VH−Bは、移動機能に関して互いに異なる。乗り物VH−A、乗り物VH−Bは、例えば、互いに独立して移動することができる。乗り物VH−A、乗り物VH−Bは、機能に関して異なっていてもよい。乗り物VH−A、乗り物VH−Bは、例えば、室内の広さ、利用可能人数、提供されるアクチュエーションなどの少なくともひとつが異なる。ここでは、不特定多数の利用者が利用可能な複数の乗り合い自動車によって、乗り物VH−A、VH−Bが提供されている。
In FIG. 29, the
乗り物VH−Aは、ローカルコントローラ15aを有する。乗り物VH−Aは、複数の利用者のそれぞれに対して異なるアクチュエーションを提供するための複数のアクチュエータ11a、11aを備えることができる。乗り物VH−Bは、ローカルコントローラ15bを有する。乗り物VH−Bは、複数の利用者のそれぞれに対して異なるアクチュエーションを提供するための複数のアクチュエータ11b、11b、11bを備えることができる。アクチュエータ11a、11bは、例えば、ひとつのシートを利用している利用者に対して、香り、空調、マッサージなどの個人的操作を提供する。
The vehicle VH-A has a
個人データは、個人に対するアクチェ―ションの経歴、個人の好みを示す記録とを含む。クラウドは、大量の利用者に関する大量の個人データを格納するメモリ装置を提供する。ローカルコントローラ15a、15b、および入力装置3も、対応する乗り物VH−A、VH−Bを利用する利用者に関する個人データを格納するメモリ装置を有する。入力装置3は、個人端末としてのスマートフォンと呼ばれる電話端末である。入力端末3は、それ自身が演算機能と、データ格納機能とを有している。
Personal data includes a history of the activism of the individual and a record indicating the personal preference. The cloud provides a memory device that stores a large amount of personal data regarding a large number of users. The
図示の場合、利用者1は、乗り物VH−Aを利用している。この間に、利用者1に対する操作量が個人データとして学習される。個人データは、入力端末3および/またはクラウドに格納される。利用者1が乗り物VH−Aを繰り返し利用することにより、個人データは、多くの情報量を獲得する。こうして、乗り物VH−Aにおいて、利用者1の好みが実現される。
In the case of illustration, the
太い矢印が示すように、利用者1が乗り物VH−Aから乗り物VH−Bへ乗り換える場合がある。この場合、例えば、利用者1は、破線の位置へ移動する。乗り物VH−Bのローカルコントローラ15bは、データ通信を経由して、クラウドから利用者1の個人データを取得する。ローカルコントローラ15bは、クラウドを経由する制御方法を実行する。制御方法は、入力装置3によって個人を認識する段階と、利用者1の個人データをクラウドに要求する段階と、クラウドから個人データを受信する段階と、個人データを利用して、アクチュエータ11bを制御する段階とを有する。ローカルコントローラ15bは、前の乗り物VH−Aにおいて蓄積された個人データに基づいて、利用者1に対してアクチュエーションを提供することができる。
As indicated by the thick arrow, the
代替的に、入力装置3が個人データを格納してもよい。この場合、ローカルコントローラ15bは、入力装置3が乗り物VH−Aから乗り物VH−Bへ移動することによって、入力装置3から利用者1の個人データを取得する。
Alternatively, the
この実施形態では、利用者1は、乗り物VH−Aを利用した場合も、乗り物VH−Bを利用した場合も、利用者1の感情に応じたアクチュエーションを受けることができる。また、ローカルコントローラ15a、15bの記憶容量に制限されることなく、登録された個人データをもつ多数の利用者に対してアクチュエーションを提供することができる。クラウドを経由することによって、大容量の個人データを取り扱うことができる。
In this embodiment, the
他の実施形態
この明細書および図面等における開示は、例示された実施形態に制限されない。開示は、例示された実施形態と、それらに基づく当業者による変形態様を包含する。例えば、開示は、実施形態において示された部品および/または要素の組み合わせに限定されない。開示は、多様な組み合わせによって実施可能である。開示は、実施形態に追加可能な追加的な部分をもつことができる。開示は、実施形態の部品および/または要素が省略されたものを包含する。開示は、ひとつの実施形態と他の実施形態との間における部品および/または要素の置き換え、または組み合わせを包含する。開示される技術的範囲は、実施形態の記載に限定されない。開示されるいくつかの技術的範囲は、請求の範囲の記載によって示され、さらに請求の範囲の記載と均等の意味及び範囲内での全ての変更を含むものと解されるべきである。
Other Embodiments The disclosure in this specification, the drawings, and the like is not limited to the illustrated embodiments. The disclosure includes the illustrated embodiments and variations thereof by those skilled in the art based thereon. For example, the disclosure is not limited to the combinations of parts and / or elements shown in the embodiments. The disclosure can be implemented in various combinations. The disclosure may have additional parts that can be added to the embodiments. The disclosure includes those in which parts and / or elements of the embodiments are omitted. The disclosure encompasses the replacement or combination of parts and / or elements between one embodiment and another. The technical scope disclosed is not limited to the description of the embodiments. The several technical scopes disclosed are indicated by the description of the claims, and should be understood to include all modifications within the meaning and scope equivalent to the description of the claims.
明細書および図面等における開示は、請求の範囲の記載によって限定されない。明細書および図面等における開示は、請求の範囲に記載された技術的思想を包含し、さらに請求の範囲に記載された技術的思想より多様で広範な技術的思想に及んでいる。よって、請求の範囲の記載に拘束されることなく、明細書および図面等の開示から、多様な技術的思想を抽出することができる。 The disclosure in the specification and drawings is not limited by the description of the scope of claims. The disclosure in the specification and drawings includes the technical idea described in the claims, and further covers a wider variety of technical ideas than the technical idea described in the claims. Therefore, various technical ideas can be extracted from the disclosure of the specification, drawings, and the like without being restricted by the description of the scope of claims.
上記実施形態では、アクチュエーションは、香りの供給によって実行される。これに代えて、アクチュエーションは、空調装置の風量、温度、シートのマッサージ機能、シートの空調機能によって提供されてもよい。利用者の感情は、例えば、その利用者が感じる風量に影響されると考えられる。また、利用者が着座しているシートが備える機能(マッサージまたはシート空調)は、特定の利用者の感情だけに影響を与えると考えられるから、有効な場合がある。さらに、アクチュエーションは、音(放送または音楽)の供給、ナビゲーション画面への画像の供給、またはウインドシールドへの画像の供給によって実現されてもよい。さらに、乗り物を利用者が運転操作する場合と、乗り物を利用者以外の運転者またはコンピュータが運転している場合とで、操作量に差を与えてもよい。 In the above embodiment, the actuation is performed by supplying a scent. Alternatively, the actuation may be provided by the air volume, temperature, seat massage function, and seat air conditioning function of the air conditioner. The user's emotion is considered to be influenced by, for example, the air volume felt by the user. In addition, the function (massage or seat air conditioning) provided in the seat on which the user is seated may be effective because it is considered to affect only the emotion of the specific user. Further, the actuation may be realized by supplying sound (broadcast or music), supplying images to the navigation screen, or supplying images to the windshield. Furthermore, a difference may be given in the amount of operation between when the user operates the vehicle and when a driver other than the user or a computer is driving the vehicle.
上記実施形態では、環境状態として、気象状態だけ、または気象状態と渋滞状態との両方が利用される。これに代えて、環境状態は、大気の清浄度、大気の湿度、季節、月、週、曜日、時間帯、乗り物における混雑度、同乗者の数などの少なくともひとつを利用することができる。大気の清浄度は、PM2.5と呼ばれる微小成分の濃度、または花粉濃度によって提供することができる。さらに、この明細書に開示された環境状態のひとつだけ、または複数の組み合わせを利用してもよい。 In the above embodiment, only the weather condition or both the weather condition and the traffic jam condition are used as the environmental condition. Instead, at least one of the cleanliness of the atmosphere, the humidity of the atmosphere, the season, the month, the week, the day of the week, the time zone, the degree of congestion in the vehicle, the number of passengers, and the like can be used as the environmental state. The cleanliness of the atmosphere can be provided by the concentration of a minor component called PM2.5, or the pollen concentration. Further, only one or a combination of environmental conditions disclosed in this specification may be used.
上記実施形態では、利用者からの入力だけで、利用者の感情を取得している。これに代えて、センサなどから自動的に検出された利用者の感情を追加的に取得し、利用してもよい。この場合、「利用者が入力した感情」と「検出された感情」とに基づいて操作量が設定される。 In the above embodiment, the user's emotion is acquired only by the input from the user. Instead of this, the user's emotion automatically detected from a sensor or the like may be additionally acquired and used. In this case, the operation amount is set based on “emotion input by the user” and “detected emotion”.
1 利用者、
2 感情入力装置、
10 環境制御装置、
11 アクチュエータ、 12 制御システム、
13 演算処理装置、 14 メモリ装置、
15 ローカルコントローラ、 16 リモートコントローラ、
3 入力装置、 31 インターフェース、
32 演算処理装置、 33 センサ。
1 user,
2 Emotion input device,
10 Environmental control device,
11 Actuator, 12 Control system,
13 arithmetic processing units, 14 memory units,
15 local controller, 16 remote controller,
3 input devices, 31 interfaces,
32 arithmetic processing unit, 33 sensor.
Claims (10)
前記入力部から、前記利用者の感情を示す覚醒度データと快適度データとを取得する感情取得部(166、466)とを備える感情データ取得装置。 An input unit (34, 434) for prompting the user to input the arousal level and the comfort level;
An emotion data acquisition apparatus comprising: an emotion acquisition unit (166, 466) that acquires arousal level data indicating comfort of the user and comfort level data from the input unit.
前記利用者の感情を変化させるための操作を提供するアクチュエータ(11)と、
前記感情取得部によって取得された前記覚醒度データおよび前記快適度データに基づいて前記アクチュエータの操作量を制御する制御部(168、169、364、464、469、470)とを備える感情操作装置。 The emotion data acquisition device according to any one of claims 1 to 3,
An actuator (11) for providing an operation for changing the emotion of the user;
An emotion operation device comprising: a control unit (168, 169, 364, 464, 469, 470) that controls an operation amount of the actuator based on the arousal level data and the comfort level data acquired by the emotion acquisition unit.
前記覚醒度データおよび前記快適度データが示す前記利用者の現在感情を取得する現在感情取得部(464)と、
前記利用者が希望する希望改善方向を少なくとも取得する希望改善方向取得部(469)と、
前記覚醒度データ、前記快適度データ、および前記希望改善方向に基づいて前記アクチュエータの操作量を制御する方向制御部(470)とを備える請求項4に記載の感情操作装置。 The controller is
A current emotion acquisition unit (464) for acquiring a current emotion of the user indicated by the arousal level data and the comfort level data;
A desired improvement direction acquisition unit (469) for acquiring at least a desired improvement direction desired by the user;
The emotion operating device according to claim 4, further comprising: a direction control unit (470) that controls an operation amount of the actuator based on the arousal level data, the comfort level data, and the desired improvement direction.
前記個人情報と前記感情と前記操作量との3つを含む情報を関連付けて蓄積することにより、前記個人と前記感情と前記操作量の関係を学習する学習部(170)を備える請求項4または請求項5に記載の感情操作装置。 Furthermore, a personal information acquisition unit for acquiring personal information for identifying the user individually,
The learning section (170) which learns the relationship between the said individual, the said emotion, and the said operation amount by associating and accumulating the information including the said personal information, the said emotion, and the said operation amount. The emotion operating device according to claim 5.
前記環境状態と前記感情と前記操作量との3つを含む情報を関連付けて蓄積することにより、前記環境状態と前記感情と前記操作量との関係を学習する学習部(170)とを備える請求項4または請求項5に記載の感情操作装置。 Furthermore, an environmental information acquisition unit (167) that acquires an environmental state indicating an environment in which the user is placed;
A learning unit (170) that learns a relationship between the environmental state, the emotion, and the operation amount by associating and storing information including the environmental state, the emotion, and the operation amount. The emotion operation device according to claim 4 or claim 5.
前記個人情報と前記環境状態と前記感情と前記操作量との4つを含む情報を関連付けて蓄積することにより、前記個人と前記環境状態と前記感情と前記操作量との関係を学習する学習部(170)とを備える請求項7に記載の感情操作装置。 Furthermore, a personal information acquisition unit for acquiring personal information for identifying the user individually,
A learning unit that learns the relationship between the individual, the environmental state, the emotion, and the operation amount by associating and storing information including the personal information, the environmental state, the emotion, and the operation amount. The emotion operating device according to claim 7, comprising: (170).
前記評価部によって取得された前記評価に基づいて、学習された前記関係を修正する修正部(563)とを備える請求項6から請求項9のいずれかに記載の感情操作装置。 Furthermore, after the control by the control unit, an evaluation unit (562) for obtaining an evaluation of the operation amount by the user;
The emotion operating device according to any one of claims 6 to 9, further comprising: a correction unit (563) that corrects the learned relationship based on the evaluation acquired by the evaluation unit.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018104556A JP2019208576A (en) | 2018-05-31 | 2018-05-31 | Emotion data acquisition device and emotion operation device |
| PCT/JP2019/019523 WO2019230426A1 (en) | 2018-05-31 | 2019-05-16 | Emotional data acquisition device and emotional operation device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018104556A JP2019208576A (en) | 2018-05-31 | 2018-05-31 | Emotion data acquisition device and emotion operation device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2019208576A true JP2019208576A (en) | 2019-12-12 |
Family
ID=68697486
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018104556A Pending JP2019208576A (en) | 2018-05-31 | 2018-05-31 | Emotion data acquisition device and emotion operation device |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP2019208576A (en) |
| WO (1) | WO2019230426A1 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021261123A1 (en) * | 2020-06-25 | 2021-12-30 | ソニーグループ株式会社 | Content presentation system, content presentation device and content presentation method |
| JP2022071800A (en) * | 2020-10-28 | 2022-05-16 | 株式会社日本総合研究所 | Information processing device and emotion guidance method |
| JPWO2022201364A1 (en) * | 2021-03-24 | 2022-09-29 | ||
| WO2023276636A1 (en) * | 2021-06-29 | 2023-01-05 | パナソニックIpマネジメント株式会社 | Environment control apparatus, environment control method, and environment control program |
| JP2023072467A (en) * | 2021-11-12 | 2023-05-24 | パナソニックIpマネジメント株式会社 | Information processing method, information processing system and program |
| JP2024002120A (en) * | 2022-06-23 | 2024-01-11 | 株式会社センシング | Programs and information processing equipment |
| JP2025049101A (en) * | 2023-09-20 | 2025-04-03 | ソフトバンクグループ株式会社 | system |
| JP2025051715A (en) * | 2023-09-22 | 2025-04-04 | ソフトバンクグループ株式会社 | system |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021172553A1 (en) * | 2020-02-28 | 2021-09-02 | アステラス製薬株式会社 | Wearable appliance, information processing device, information processing system, and program |
| CN112138261A (en) * | 2020-07-21 | 2020-12-29 | 上海海洋大学 | Biologically induced psychological stress adjustment work system and its operation method |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5241598B2 (en) * | 2009-05-14 | 2013-07-17 | パナソニック株式会社 | Psychological state evaluation device |
| JP2016088497A (en) * | 2014-10-30 | 2016-05-23 | 株式会社デンソー | Work capability control system |
| JP6649060B2 (en) * | 2015-11-30 | 2020-02-19 | 株式会社人間と科学の研究所 | Mental and physical condition diagnosis support device and biological information management system |
| JP6838902B2 (en) * | 2016-09-12 | 2021-03-03 | 三徳コーポレーション株式会社 | Pseudo-experience providing device, simulated experience providing method, simulated experience providing system, and program |
-
2018
- 2018-05-31 JP JP2018104556A patent/JP2019208576A/en active Pending
-
2019
- 2019-05-16 WO PCT/JP2019/019523 patent/WO2019230426A1/en not_active Ceased
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11983305B2 (en) | 2020-06-25 | 2024-05-14 | Sony Group Corporation | Content presentation system, content presentation device, and content presentation method |
| WO2021261123A1 (en) * | 2020-06-25 | 2021-12-30 | ソニーグループ株式会社 | Content presentation system, content presentation device and content presentation method |
| JP2023027783A (en) * | 2020-10-28 | 2023-03-02 | 株式会社日本総合研究所 | Information processing device and emotion derivation method |
| JP2022071800A (en) * | 2020-10-28 | 2022-05-16 | 株式会社日本総合研究所 | Information processing device and emotion guidance method |
| JP7470171B2 (en) | 2020-10-28 | 2024-04-17 | 株式会社日本総合研究所 | Information processing device and emotion induction method |
| WO2022201364A1 (en) * | 2021-03-24 | 2022-09-29 | 日本電気株式会社 | Information processing device, control method, and storage medium |
| JPWO2022201364A1 (en) * | 2021-03-24 | 2022-09-29 | ||
| JP7601206B2 (en) | 2021-03-24 | 2024-12-17 | 日本電気株式会社 | Information processing device, control method, and program |
| WO2023276636A1 (en) * | 2021-06-29 | 2023-01-05 | パナソニックIpマネジメント株式会社 | Environment control apparatus, environment control method, and environment control program |
| JP2023072467A (en) * | 2021-11-12 | 2023-05-24 | パナソニックIpマネジメント株式会社 | Information processing method, information processing system and program |
| JP7724446B2 (en) | 2021-11-12 | 2025-08-18 | パナソニックIpマネジメント株式会社 | Information processing method, information processing system, and program |
| JP2024002120A (en) * | 2022-06-23 | 2024-01-11 | 株式会社センシング | Programs and information processing equipment |
| JP2025049101A (en) * | 2023-09-20 | 2025-04-03 | ソフトバンクグループ株式会社 | system |
| JP2025051715A (en) * | 2023-09-22 | 2025-04-04 | ソフトバンクグループ株式会社 | system |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2019230426A1 (en) | 2019-12-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2019230426A1 (en) | Emotional data acquisition device and emotional operation device | |
| US11243613B2 (en) | Smart tutorial for gesture control system | |
| CN109416733A (en) | Portable personalization | |
| CN110877586B (en) | Method for operating a virtual assistant of a motor vehicle and corresponding backend system | |
| CN107074061B (en) | Method and apparatus for regulating thermal comfort | |
| CN111720974A (en) | Operation control method, control panel, air conditioning equipment and computer storage medium | |
| JP7470171B2 (en) | Information processing device and emotion induction method | |
| US10065504B2 (en) | Intelligent tutorial for gestures | |
| US10095473B2 (en) | Intent managing system | |
| WO2015165811A1 (en) | Communication system and related method | |
| EP3166833A1 (en) | System and method for automated device control for vehicles using driver emotion | |
| US20250341330A1 (en) | Air conditioner, air conditioner control method, and air conditioner control system | |
| CN110958750A (en) | Lighting equipment control method and device | |
| US20220360641A1 (en) | Dynamic time-based playback of content in a vehicle | |
| CN118778481B (en) | Multi-scenario adjustment control method and system for intelligent electric bed based on artificial intelligence | |
| CN110726222B (en) | Air conditioner control method and device, storage medium and processor | |
| JP6958982B2 (en) | Electronic devices with awakening function, awakening programs and awakening methods | |
| CN110154048B (en) | Robot control method and device and robot | |
| US20220335292A1 (en) | Information processing device, information processing method, and program | |
| US12242256B2 (en) | Systems and methods for providing time-based user experiences for an industrial automation system | |
| CN115830724A (en) | Vehicle-mounted recognition interaction method and system based on multi-modal recognition | |
| CN118790185B (en) | Vehicle cabin adjusting method | |
| US20230093660A1 (en) | Systems and methods for providing context-based data for an industrial automation system | |
| WO2019224905A1 (en) | Control device and control method for vehicle-mounted equipment | |
| CN117864046A (en) | System and method for detecting vehicle operator stress and/or anxiety and implementing remedial measures through the vehicle cabin environment |