[go: up one dir, main page]

FR3070591A1 - METHOD AND MODULE ADAPTED TO IDENTIFY AND QUANTIFY EMOTIONS RELATED BY AT LEAST ONE INDIVIDUAL - Google Patents

METHOD AND MODULE ADAPTED TO IDENTIFY AND QUANTIFY EMOTIONS RELATED BY AT LEAST ONE INDIVIDUAL Download PDF

Info

Publication number
FR3070591A1
FR3070591A1 FR1758256A FR1758256A FR3070591A1 FR 3070591 A1 FR3070591 A1 FR 3070591A1 FR 1758256 A FR1758256 A FR 1758256A FR 1758256 A FR1758256 A FR 1758256A FR 3070591 A1 FR3070591 A1 FR 3070591A1
Authority
FR
France
Prior art keywords
individual
emotional
emotions
calibration
relating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1758256A
Other languages
French (fr)
Inventor
Romain Trachel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ironova
Original Assignee
Ironova
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ironova filed Critical Ironova
Priority to FR1758256A priority Critical patent/FR3070591A1/en
Publication of FR3070591A1 publication Critical patent/FR3070591A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • A61B5/02055Simultaneously evaluating both cardiovascular condition and temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Cardiology (AREA)
  • Developmental Disabilities (AREA)
  • Hospice & Palliative Care (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Signal Processing (AREA)
  • Educational Technology (AREA)
  • Fuzzy Systems (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

La présente invention a trait à des moyens pour identifier et quantifier les émotions ressenties par au moins un individu impliqué dans une expérience interactive, immersive et/ou sensorielle, en: - collectant, au cours de l'expérience, des mesures relatives à un ensemble de caractéristiques physiologiques de l'individu; - extrayant un ensemble de grandeurs caractéristiques relatives aux caractéristiques physiologiques, en fonction des mesures relatives aux caractéristiques physiologiques; - déterminant, pour chacune des classes émotionnelles d'une classification d'émotions, d'une intensité ressentie par l'individu obtenue en calculant l'image de l'ensemble de grandeurs caractéristiques d'une fonction filtre spécifique audit au moins un individu et à ladite classe émotionnelle.The present invention relates to means for identifying and quantifying the emotions felt by at least one individual involved in an interactive, immersive and / or sensory experience, by: - collecting, during the experiment, measurements relating to a set physiological characteristics of the individual; extracting a set of characteristic quantities relating to the physiological characteristics, as a function of the measurements relating to the physiological characteristics; determining, for each of the emotional classes of an emotion classification, an intensity perceived by the individual obtained by calculating the image of the set of characteristic quantities of a filter function specific to said at least one individual and to said emotional class.

Description

La présente invention se rapporte au domaine des moyens d'identification et de représentation d’émotions ressenties par une personne. L’invention trouve plus particulièrement application dans les outils de mesure et de visualisation graphique des émotions ressenties, lors d'une expérience sensorielle, par des individus, notamment lorsque ces derniers interagissent avec un environnement immersif généré par un programme d'ordinateur de réalité virtuelle, ou assistent en tant que spectateurs à une projection audiovisuelle.The present invention relates to the field of means for identifying and representing emotions felt by a person. The invention more particularly finds application in tools for measuring and graphical visualization of the emotions felt, during a sensory experience, by individuals, in particular when the latter interact with an immersive environment generated by a virtual reality computer program. , or attend as spectators to an audiovisual projection.

L'évaluation des émotions revêt une importance particulière pour les concepteurs, scénaristes, et programmeurs d'expériences interactives, immersives et/ou sensorielles. En effet, il est notamment souhaitable, lors de la phase de conception, de vérifier si l'intensité des émotions ressenties par les individus à un instant donné correspond à celle que l'expérience est supposée susciter.The evaluation of emotions is of particular importance for designers, screenwriters, and programmers of interactive, immersive and / or sensory experiences. In fact, it is particularly desirable, during the design phase, to check whether the intensity of the emotions felt by individuals at a given time corresponds to that which the experience is supposed to arouse.

Aussi, à cette fin, des appareils portatifs de type bracelets, montres intelligentes ou encore casques de réalité virtuelle peuvent être employés pour mesurer les caractéristiques physiologiques relatives à l’activité électrophysiologique cardiaque, dermale, et/ou cérébrale des individus, partie à l'expérience. À partir des mesures collectées, il est alors possible de distinguer l'état émotionnel d’un individu en fonction d'une classification préétablie, par exemple en déterminant une probabilité pour chaque état de la classification en fonction des mesures collectées. Des dispositifs de captation visuelle et de traitement peuvent également être utilisés pour identifier l'état émotionnel d’un individu.Also, for this purpose, portable devices such as bracelets, smart watches or even virtual reality headsets can be used to measure the physiological characteristics relating to the cardiac, dermal, and / or cerebral electrophysiological activity of individuals, part of the experience. From the measures collected, it is then possible to distinguish the emotional state of an individual according to a pre-established classification, for example by determining a probability for each state of the classification according to the measures collected. Visual sensing and processing devices can also be used to identify an individual's emotional state.

Ainsi, un dispositif photographique peut être utilisé pour capturer l’expression d'un visage, puis être interprétée par un dispositif de traitement pour identifier un état émotionnel parmi ceux de la classification. Toutefois, aucun de ces dispositifs ne permet de quantifier une intensité associée à cet état émotionnel.Thus, a photographic device can be used to capture the expression of a face, then be interpreted by a processing device to identify an emotional state among those of the classification. However, none of these devices makes it possible to quantify an intensity associated with this emotional state.

En outre, ces dispositifs sont principalement destinés à discriminer l'état émotionnel primaire dominant, et ne sont pas adaptés à discerner ni à représenter les états émotionnels secondaires également pertinents. En outre, plus la classification comporte un nombre élevé d’états émotionnels, plus l'identification, la discrimination et la représentation des états émotionnels secondaires associés pertinents s'avèrent délicates.Furthermore, these devices are mainly intended to discriminate the dominant primary emotional state, and are not adapted to discern or represent the equally relevant secondary emotional states. In addition, the higher the number of emotional states in the classification, the more difficult it is to identify, discriminate and represent the relevant associated secondary emotional states.

Il est encore connu de représenter l'état émotionnel d’un individu au moyen d'un modèle multidimensionnel, comme le modèle de Plutchik comportant des émotions primaires dont dérivent des émotions secondaires. Toutefois, une telle représentation est obtenue à partir de données subjectives collectées auprès de chaque individu, lors d'une étape longue et fastidieuse d’annotation manuelle des émotions ressenties, lors de l'expérience.It is also known to represent the emotional state of an individual using a multidimensional model, such as the Plutchik model comprising primary emotions from which secondary emotions are derived. However, such a representation is obtained from subjective data collected from each individual, during a long and tedious step of manual annotation of the emotions felt, during the experience.

C’est pourquoi il existe encore un besoin pour des moyens automatisés d'identification et de représentation des différents états émotionnels et de leur intensité respective, relatifs à un individu impliqué dans une expérience interactive, immersive et/ou sensorielle.This is why there is still a need for automated means of identification and representation of the different emotional states and their respective intensity, relating to an individual involved in an interactive, immersive and / or sensory experience.

Un des objets de l'invention est de permettre d'identifier et de quantifier des émotions ressenties par au moins un individu impliqué dans une expérience interactive, immersive et/ou sensorielle.One of the objects of the invention is to make it possible to identify and quantify the emotions felt by at least one individual involved in an interactive, immersive and / or sensory experience.

Un objet de l'invention est de fournir des moyens adaptés à l'annotation de contenus, rapides et efficaces, utilisant des moyens de collecte de caractéristiques physiologiques objectives, tel que des dispositifs portatifs de type bracelets, montres intelligentes ou encore casques de réalité virtuelle.An object of the invention is to provide means suitable for the annotation of content, fast and efficient, using means for collecting objective physiological characteristics, such as portable devices of the bracelets, smart watches or even virtual reality headsets type. .

Un objet de l'invention est de fournir des moyens adaptés à caractériser une expérience en fonction de données physiologiques.An object of the invention is to provide means adapted to characterize an experience as a function of physiological data.

Un autre objet de l'invention est de fournir des moyens fiables pour identifier les éléments d'un contenu susceptible de faire ressentir des émotions et d'en quantifier l'intensité.Another object of the invention is to provide reliable means for identifying the elements of content capable of causing emotions to be felt and of quantifying their intensity.

Un autre objet de l'invention est de fournir des moyens de visualisation optimisés en termes de clarté et de fidélité pour afficher un ensemble d'émotions suscitées par une expérience interactive, immersive et/ou sensorielle.Another object of the invention is to provide means of visualization optimized in terms of clarity and fidelity to display a set of emotions aroused by an interactive, immersive and / or sensory experience.

Un autre objet de l'invention est de fournir des moyens additionnels pour améliorer la recherche de contenu, de sorte en particulier à permettre l'organisation des résultats d'une requête selon l'intensité des émotions qu'ils ont suscitées sur un groupe d'individus.Another object of the invention is to provide additional means to improve the search for content, in particular to allow the organization of the results of a request according to the intensity of the emotions they aroused on a group of 'people.

Un autre objet de l'invention est de permettre la modulation de l’impact émotionnel d'une expérience, selon certaines caractéristiques d'un individu, tel que son âge.Another object of the invention is to allow the modulation of the emotional impact of an experience, according to certain characteristics of an individual, such as his age.

Un ou plusieurs de ces objets sont remplis par le procédé et le dispositif selon l'invention.One or more of these objects are fulfilled by the method and the device according to the invention.

Plus particulièrement, selon un premier aspect, l’invention se rapporte à un procédé adapté pour identifier et quantifier les émotions ressenties par au moins un individu impliqué dans une expérience interactive, immersive et/ou sensorielle. Le procédé comporte les étapes suivantes:More particularly, according to a first aspect, the invention relates to a suitable method for identifying and quantifying the emotions felt by at least one individual involved in an interactive, immersive and / or sensory experience. The process includes the following steps:

- une étape de collecte, au cours de l'expérience, de mesures relatives à un ensemble de caractéristiques physiologiques de l'individu;- a step of collecting, during the experiment, measurements relating to a set of physiological characteristics of the individual;

- une étape d'extraction d'un ensemble de grandeurs caractéristiques relatives aux caractéristiques physiologiques, en fonction des mesures;a step of extracting a set of characteristic quantities relating to the physiological characteristics, as a function of the measurements;

- une étape de détermination, pour chacune des classes émotionnelles d'une classification d'émotions, d'une intensité ressentie par l'individu obtenue en calculant l'image de l'ensemble de grandeurs caractéristiques d'une fonction filtre spécifique audit au moins un individu et à ladite classe émotionnelle.a step of determining, for each of the emotional classes of a classification of emotions, an intensity felt by the individual obtained by calculating the image of the set of quantities characteristic of a filter function specific to said audit at least an individual and said emotional class.

Le procédé peut en outre comporter une étape de production et d'affichage d'une représentation de l'intensité ressentie pour chacune des classes émotionnelles de la classification d'émotions.The method can also include a step of producing and displaying a representation of the intensity felt for each of the emotional classes of the classification of emotions.

La représentation de l'intensité ressentie pour chacune des classes émotionnelles de la classification d'émotions peut être une représentation bidimensionnelle, adapté à être visualisée notamment au moyen d'un dispositif d'affichage bidimensionnel, tel un écran 2D. Ainsi, la représentation bidimensionnelle peut être un diagramme en radar comportant un axe radial pour chacune des classes émotionnelles de la classification d'émotions, l'intensité ressentie par l'utilisateur pour chacune des classes émotionnelles étant alors reportée sur l'axe correspondant. La représentation bidimensionnelle peut encore être un diagramme en barre, où l'énoncé décrivant chacune des classes émotionnelles est annoté de manière visible selon un axe horizontal, et où l'axe vertical est utilisé pour représenter l'intensité ressentie pour la classe émotionnelle correspondante, le niveau d’intensité le plus bas étant typiquement situé au niveau de l'axe horizontal.The representation of the intensity felt for each of the emotional classes of the classification of emotions can be a two-dimensional representation, adapted to be viewed in particular by means of a two-dimensional display device, such as a 2D screen. Thus, the two-dimensional representation can be a radar diagram comprising a radial axis for each of the emotional classes of the classification of emotions, the intensity felt by the user for each of the emotional classes then being transferred to the corresponding axis. The two-dimensional representation can also be a bar diagram, where the statement describing each of the emotional classes is visibly annotated along a horizontal axis, and where the vertical axis is used to represent the intensity felt for the corresponding emotional class, the lowest intensity level being typically located at the horizontal axis.

La représentation de l'intensité ressentie pour chacune des classes émotionnelles de la classification d'émotions peut aussi être une représentation tridimensionnelle, adaptée à être visualiser dans un système de représentation tridimensionnel, tel un dispositif d'affichage pour environnement virtuel ou encore d'un dispositif de projection d'hologrammes tridimensionnels.The representation of the intensity felt for each of the emotional classes of the classification of emotions can also be a three-dimensional representation, adapted to be visualized in a three-dimensional representation system, such as a display device for virtual environment or even of a three-dimensional hologram projection device.

Avantageusement, les fonctions filtre, associées à chacune des classes émotionnelles de la classification d'émotions, comprennent chacune un ensemble de paramètres obtenus et/ou mis à jour lors d'une phase de calibration.Advantageously, the filter functions, associated with each of the emotional classes of the classification of emotions, each include a set of parameters obtained and / or updated during a calibration phase.

Plus particulièrement, l'ensemble de paramètres obtenus et/ou mis à jour lors d'une phase de calibration pour chacune des fonctions filtres comprend:More particularly, the set of parameters obtained and / or updated during a calibration phase for each of the filter functions comprises:

- un coefficient pour chaque grandeur caractéristique de l'ensemble de grandeurs caractéristiques; et,- a coefficient for each characteristic quantity of the set of characteristic quantities; and,

- un biais.- bias.

A titre d’exemple non limitatif, les fonctions filtre, associées aux classes émotionnelles de la classification d'émotions, sont des transformations linéaires.As a non-limiting example, the filter functions, associated with the emotional classes of the classification of emotions, are linear transformations.

Selon un mode de réalisation, au cours de la phase de calibration:According to one embodiment, during the calibration phase:

- on collecte, pour ledit au moins un individu, au cours d'une expérience de calibrage, des mesures relatives aux caractéristiques physiologiques de l'individu ainsi que des informations temporelles relatives auxdites mesures, et au moins un enregistrement d'une représentation de ladite expérience de calibrage;- We collect, for said at least one individual, during a calibration experiment, measurements relating to the physiological characteristics of the individual as well as temporal information relating to said measurements, and at least one recording of a representation of said calibration experience;

- on collecte, des informations subjectives relatives, pour chacune des classes émotionnelles de la classification d'émotions, à l'intensité de l'émotion correspondante ressentie par ledit au-moins individu, lors d'au moins une période temporelle de l'expérience de calibrage, les informations subjectives étant produites par ledit au moins individu et/ou par un observateur à la suite de la visualisation de l'enregistrement de la représentation de l'expérience de calibrage;- subjective information is collected relating, for each of the emotional classes of the classification of emotions, to the intensity of the corresponding emotion felt by said at least individual, during at least one temporal period of the experience calibration, the subjective information being produced by said at least individual and / or by an observer following viewing of the recording of the representation of the calibration experience;

- on détermine, en fonction des informations subjectives collectées et des mesures relatives aux caractéristiques physiologiques de l'individu correspondant aux informations subjectives collectées, l'ensemble de paramètres des fonctions filtre des classes émotionnelles de la classification d'émotions.- on the basis of the subjective information collected and of the measures relating to the physiological characteristics of the individual corresponding to the subjective information collected, the set of parameters of the functions filters the emotional classes of the classification of emotions.

Les informations subjectives sont par exemple collectées au moyen d'une interface utilisateur, apte à permettre la saisie sur une représentation (par exemple une représentation bidimensionnelle ou tridimensionnelle) de l'intensité ressentie pour chacune des classes émotionnelles de la classification d'émotions correspondant à un spectre émotionnel, pour au moins une période temporelle de l'expérience de calibrage.The subjective information is, for example, collected by means of a user interface, capable of allowing input on a representation (for example a two-dimensional or three-dimensional representation) of the intensity felt for each of the emotional classes of the classification of emotions corresponding to an emotional spectrum, for at least one time period of the calibration experience.

Les informations subjectives peuvent être collectées pour au moins un instant clé de l'expérience de calibrage, ledit au moins instant clé étant prédéterminé avant ladite expérience de calibrage. Alternativement, les informations subjectives peuvent être collectées pour au moins un instant clé de l'expérience de calibrage, ledit au moins instant clé étant sélectionné (par exemple lors de l’enregistrement de l'expérience), soit de manière subjective par ledit au moins un individu, soit par un observateur externe.The subjective information can be collected for at least one key instant of the calibration experiment, said at least key instant being predetermined before said calibration experiment. Alternatively, the subjective information can be collected for at least one key instant of the calibration experiment, said at least key instant being selected (for example during the recording of the experiment), either subjectively by said at least an individual, either by an external observer.

Alternativement, les informations subjectives peuvent être collectées pour au moins un instant clé de l'expérience de calibrage, ledit au moins instant clé étant sélectionné, de manière automatique, en fonction des mesures collectées lors de l'expérience de calibration et/ou de données comportementales relatives audit au moins individu.Alternatively, the subjective information can be collected for at least one key instant of the calibration experiment, said at least key instant being selected, automatically, according to the measurements collected during the calibration experiment and / or of data. behavior relating to said at least individual.

Selon un deuxième aspect, l'invention se rapporte encore à un module adapté à mettre en œuvre le procédé selon le premier aspect. Plus particulièrement, le module adapté pour identifier et quantifier les émotions ressenties par au moins un individu impliqué dans une expérience interactive, immersive et/ou sensorielle, comporte:According to a second aspect, the invention also relates to a module suitable for implementing the method according to the first aspect. More specifically, the module adapted to identify and quantify the emotions felt by at least one individual involved in an interactive, immersive and / or sensory experience, includes:

- un module adapté à collecter, au cours de l'expérience, des mesures relatives à un ensemble de caractéristiques physiologiques de l'individu;- a module adapted to collect, during the experiment, measures relating to a set of physiological characteristics of the individual;

- un module adapté à extraire un ensemble de grandeurs caractéristiques relatives aux caractéristiques physiologiques, en fonction des mesures;- a module adapted to extract a set of characteristic quantities relating to physiological characteristics, as a function of the measurements;

- un module adapté à déterminer, pour chacune des classes émotionnelles d'une classification d'émotions, une intensité ressentie par l'individu obtenue en calculant l'image de l'ensemble de grandeurs caractéristiques d'une fonction filtre spécifique audit au moins un individu et à ladite classe émotionnelle.a module adapted to determine, for each of the emotional classes of a classification of emotions, an intensity felt by the individual obtained by calculating the image of the set of quantities characteristic of a filter function specific to said at least one individual and to said emotional class.

D’autres particularités et avantages de la présente invention apparaîtront, dans la description ci-après de modes de réalisation, en référence aux dessins annexés, dans lesquels :Other features and advantages of the present invention will appear in the following description of embodiments, with reference to the accompanying drawings, in which:

- la figure 1 est un diagramme représentant les étapes d'un procédé d'identification et de quantification d'émotions ressenties par au moins un individu impliqué dans une expérience interactive, immersive et/ou sensorielle;- Figure 1 is a diagram representing the steps of a process for identifying and quantifying emotions felt by at least one individual involved in an interactive, immersive and / or sensory experience;

- la figure 2 est un schéma d'un système d'annotation adapté à mettre en œuvre un procédé de calibration des fonctions filtres f, de l'ensemble F, utilisé lors de la quatrième étape du procédé d'identification et de quantification d'émotions;FIG. 2 is a diagram of an annotation system suitable for implementing a method for calibrating the filter functions f, of the set F, used during the fourth step of the method of identification and quantification of emotions;

- la figure 3 montre une représentation graphique du spectre émotionnel S correspondant à un diagramme en barre;- Figure 3 shows a graphic representation of the emotional spectrum S corresponding to a bar diagram;

- La figure 4 montre une représentation graphique du spectre émotionnel S correspondant à un diagramme en radar;- Figure 4 shows a graphic representation of the emotional spectrum S corresponding to a radar diagram;

- La figure 5 est un schéma de principe d'un système d'annotation, selon un mode de réalisation de l'invention multisites et multi-utilisateur.- Figure 5 is a block diagram of an annotation system, according to an embodiment of the invention multi-site and multi-user.

On se réfère à la figure 1, sur laquelle sont représentées les étapes d'un procédé d'identification et de quantification émotions ressenties par au moins un individu impliqué dans une expérience interactive, immersive et/ou sensorielle.We refer to FIG. 1, on which are represented the stages of a process of identification and quantification of emotions felt by at least one individual involved in an interactive, immersive and / or sensory experience.

Au cours d'une première étape 110, on collecte des mesures brutes Mb relatives à un ensemble de caractéristiques physiologiques Cp.jde l'individu, j étant un nombre entier compris entre 1 et une borne supérieure entière K. Les mesures brutes Mb sont par exemple obtenues au moyen d'un ou plusieurs dispositifs portatifs de type bracelets, montres intelligentes ou encore casques de réalité virtuelle aptes à mesurer les caractéristiques physiologiques Cp.j telles que l’activité électrophysiologique cardiaque, dermale, et/ou cérébrale de l'individu. Un tel dispositif est notamment décrit dans la demande de brevet français n°16/61569, et permet en particulier d'obtenir des mesures brutes Mb relatives à la réponse électrodermale, aux battements cardiaques, à l'accélération des mouvements de l'individu, et à la température au niveau du poignet de l'individu.During a first step 110, raw measurements Mb are collected relating to a set of physiological characteristics Cp.j of the individual, j being an integer between 1 and an integer upper bound K. The raw measurements Mb are by example obtained by means of one or more portable devices of the bracelets, smart watches or even virtual reality headsets capable of measuring the physiological characteristics Cp.j such as the cardiac, dermal, and / or cerebral electrophysiological activity of the individual . Such a device is described in particular in French patent application No. 16/61569, and makes it possible in particular to obtain raw measurements Mb relating to the electrodermal response, to the heartbeat, to the acceleration of the movements of the individual, and the temperature at the individual's wrist.

Les mesures brutes Mb sont obtenues au cours de l'expérience dans laquelle est impliqué l'individu. Ces mesures brutes Mb peuvent être obtenues en temps réel, et/ou pour une ou plusieurs périodes de l'expérience. Des marqueurs temporels peuvent en outre être utilisés pour repérer dans le temps les mesures brutes Mb ainsi collectées.The raw Mb measurements are obtained during the experiment in which the individual is involved. These raw Mb measurements can be obtained in real time, and / or for one or more periods of the experiment. In addition, time markers can be used to locate the raw measurements Mb thus collected over time.

Au cours d'une deuxième étape 120 optionnelle, les mesures brutes Mb sont filtrées de sorte à optimiser leur fiabilité. Plus particulièrement, les mesures brutes Mb peuvent notamment être lissées temporellement, et/ou encore faire l'objet de correction par décomposition en composante principale ou indépendante pour atténuer les artefacts liés aux mouvements, tel que décrit par exemple dans le document de brevet US 2005 0058456 A1, ou dans l’article « Motion artifact removal from photoplethysmographic signais by combining temporally constrained independent component analysis and adaptive filter », Peng et al., Biomed Eng Online. 2014; 13: 50, Published online 2014 Apr 24. doi: 10.1186/1475-925X-13-50, PMCID: PMC4021027.During an optional second step 120, the raw measurements Mb are filtered so as to optimize their reliability. More particularly, the raw measurements Mb can in particular be smoothed temporally, and / or even be subject to correction by decomposition into a main or independent component to attenuate the artefacts linked to the movements, as described for example in the patent document US 2005 0058456 A1, or in the article "Motion artifact removal from photoplethysmographic signais by combining temporally constrained independent component analysis and adaptive filter", Peng et al., Biomed Eng Online. 2014; 13:50, Published online 2014 Apr 24. doi: 10.1186 / 1475-925X-13-50, PMCID: PMC4021027.

Les mesures brutes Mb peuvent également faire l'objet d'un traitement de réduction du bruit, par exemple en appliquant des traitements de réduction de bruit dans le domaine fréquentiel.The raw measurements Mb can also be subject to noise reduction processing, for example by applying noise reduction processing in the frequency domain.

Au cours d'une troisième étape 130, des grandeurs caractéristiques relatives aux caractéristiques physiologiques Cp sont déterminées, en fonction des mesures brutes Mb, avantageusement filtrées. Plus particulièrement, à chacune des caractéristiques physiologiques Cp.j est associée une variable Vj dont la valeur est notée Xj. La valeur Xj est déterminée en calculant l'image d'une fonction Fj à partir des mesures brutes Mb, avantageusement filtrées, ou d'un sous-ensemble des mesures brutes Mb pertinentes quant aux caractéristiques physiologiques Cp.j.During a third step 130, characteristic quantities relating to the physiological characteristics Cp are determined, as a function of the raw measurements Mb, advantageously filtered. More particularly, to each of the physiological characteristics Cp.j is associated a variable Vj whose value is denoted Xj. The value Xj is determined by calculating the image of a function Fj from the raw measurements Mb, advantageously filtered, or from a subset of the raw measurements Mb relevant to the physiological characteristics Cp.j.

Ainsi, pour la caractéristique physiologique correspondant à la réponse électrodermale, la valeur Xj correspondante peut être déterminée en calculant la valeur d'une fonction Fj de type dérivée sur une fenêtre temporelle déterminée pour les mesures filtrées fournies par les capteurs mesurant l'activité électrique en surface de la peau de l'individu. Plus généralement, à titre d'exemple non limitatif, la fonction Fj peut correspondre à une moyenne, une variance, une pente, une dérivée temporelle, une fonction relative à la puissance d'un signal contenue dans une bande de fréquence, une fonction apte à déterminer une fréquence, une cohérence, une variabilité, et/ou une combinaison des fonctions précédemment citées. Ainsi, à l'issue de la troisième étape 130, il est alors possible de déterminer un vecteur scalaire X de grandeurs caractéristiques relatives aux caractéristiques physiologiques Cp, tel que:Thus, for the physiological characteristic corresponding to the electrodermal response, the corresponding value Xj can be determined by calculating the value of a function Fj of derived type over a determined time window for the filtered measurements provided by the sensors measuring the electrical activity in surface of the individual's skin. More generally, by way of nonlimiting example, the function Fj can correspond to an average, a variance, a slope, a time derivative, a function relating to the power of a signal contained in a frequency band, a suitable function. to determine a frequency, consistency, variability, and / or a combination of the previously mentioned functions. Thus, at the end of the third step 130, it is then possible to determine a scalar vector X of characteristic quantities relating to the physiological characteristics Cp, such as:

Au cours d'une quatrième étape 140, une intensité e, est déterminée pour chaque classe émotionnelle E, d'une classification Cl en fonction des grandeurs caractéristiques relatives aux caractéristiques physiologiques Cp, obtenues au cours de la troisième étape 130. La 5 classification Cl comporte un nombre entier N de classes émotionnelles E,, correspondant chacune à un état émotionnel de l'individu. Plus particulièrement, au cours d'une quatrième étape 140, pour chaque classe émotionnelle E,, on détermine l'intensité e, au moyen d'une fonction filtre f,, propre à ladite classe émotionnelle E,, appliquée au vecteur scalaire X de 10 grandeurs caractéristiques relatives aux caractéristiques physiologiques Cp.During a fourth step 140, an intensity e, is determined for each emotional class E, of a classification Cl as a function of the characteristic quantities relating to the physiological characteristics Cp, obtained during the third step 130. The classification Cl has an integer N of emotional classes E ,, each corresponding to an emotional state of the individual. More particularly, during a fourth step 140, for each emotional class E ,, the intensity e is determined, by means of a filter function f ,, specific to said emotional class E ,, applied to the scalar vector X of 10 characteristic quantities relating to physiological characteristics Cp.

Ainsi, si l'on note l'ensemble de filtres F = {f,} î=i...n , alors fj(X)=ej . L'ensemble des intensités {e,} î=i...n ainsi obtenues décrit alors un spectre émotionnel S, telle que représenté sur la figure 3.Thus, if we note the set of filters F = {f,} î = i ... n, then fj (X) = ej. The set of intensities {e,} î = i ... n thus obtained then describes an emotional spectrum S, as shown in FIG. 3.

Le tableau suivant décrit un exemple de classification comportant un nombre N égal à 20 de classes émotionnelles Ej:The following table describes an example of classification comprising a number N equal to 20 of emotional classes Ej:

i i Classe émotionnelle E, Emotional class E, Filtre associé fi(X) Associated filter fi (X) 1 1 Intérêt Interest f Intérêt f Interest 2 2 Amusement Fun fAmusement fAmusement 3 3 Fierté Pride fFierté fFierté 4 4 Joie Joy fjoie fjoie 5 5 Plaisir Pleasure fpiaisir fpiaisir 6 6 Contentement Satisfaction fcontentement fcontentement 7 7 Amour Love fAmour famour 8 8 Admiration Admiration fAdmiration fAdmiration 9 9 Soulagement Relief fsoulagement fsoulagement 10 10 Compassion Compassion fcompassion fcompassion 11 11 Tristesse Sadness fïristesse fïristesse 12 12 Culpabilité Guilt fculpabilité fculpabilité 13 13 Regret Regret f Regret f regret 14 14 Honte Shame fhlonte fhlonte 15 15 Déception Disappointment fDéception fDéception 16 16 Peur Fear fpeur fpeur 17 17 Dégoût Disgust füégoût füégoût 18 18 Mépris Contempt flVIépris flVIépris 19 19 Haine Hatred fhlaine fhlaine 20 20 Colère Anger fcolère fcolère

Les fonctions filtres f, de l'ensemble F = {f,} î=i...n comportent typiquement des paramètres, obtenus ou mis à jour lors d'une phase de calibration. Ainsi, à titre d'exemple non limitatif, le filtre f, pour la classe émotionnelle E, peut correspondre à une transformation linéaire décrite par l'expression mathématique suivante:The filter functions f, of the set F = {f,} î = i ... n typically include parameters, obtained or updated during a calibration phase. Thus, by way of nonlimiting example, the filter f, for the emotional class E, can correspond to a linear transformation described by the following mathematical expression:

e, = fj(X) = x . e,’ + b, avec ci’ = {A) j=i ...k un vecteur transposé contenant des coefficients pour grandeurs caractéristiques relatives aux caractéristiques physiologiques Cp ;e, = fj (X) = x. e, '+ b, with c i' = {A) j = i ... k a transposed vector containing coefficients for characteristic quantities relating to physiological characteristics Cp;

b, un biais, tel que bj = êj - x. c/ avec êj une intensité moyenne relative à la classe émotionnelle E, et x un vecteur scalaire moyen à travers les observations;b, a bias, such that bj = êj - x. c / with êj an average intensity relative to the emotional class E, and x an average scalar vector through the observations;

e,’ et b, étant obtenus ou mis à jour lors d'une ou plusieurs phases de calibration.e, ’and b, being obtained or updated during one or more calibration phases.

Cette expression mathématique est ainsi obtenue en normalisant les grandeurs caractéristiques du vecteur scalaire X - typiquement en considérant une moyenne nulle et un écart-type égal à 1 pour le vecteur scalaire X à travers toutes les observations - et en estimant les coefficients c,’ en posant b=0. Le biais b, est alors estimé en calculant la moyenne du vecteur scalaire X avant normalisation et de l’intensité des émotions.This mathematical expression is thus obtained by normalizing the characteristic quantities of the scalar vector X - typically by considering a zero mean and a standard deviation equal to 1 for the scalar vector X across all observations - and by estimating the coefficients c, 'in setting b = 0. The bias b, is then estimated by calculating the average of the scalar vector X before normalization and the intensity of the emotions.

Dans un mode de réalisation du procédé selon l'invention avantageux en particulier lorsque ce dernier est mis en œuvreœuvre dans un dispositif autonome, un modèle de régression linéaire multiple est utilisé pour déterminer l'ensemble des intensités {e,} î=i...n décrivant le spectre émotionnelIn an advantageous embodiment of the method according to the invention, in particular when the latter is implemented in an autonomous device, a multiple linear regression model is used to determine the set of intensities {e,} î = i .. .n describing the emotional spectrum

S. Un exemple de modèle de régression linéaire multiple adapté est par exemple décrit dans le document intitulé Christopher M. Bishop: Pattern Récognition and Machine Learning, Springer, 2006.An example of an adapted multiple linear regression model is for example described in the document entitled Christopher M. Bishop: Pattern Recognition and Machine Learning, Springer, 2006.

Les algorithmes utilisés pour la détermination du modèle de régression linéaire multiple ayant une complexité faible, et nécessitant un temps d'exécution faible, s'avèrent donc très adaptés à leur mise en œuvre dans une unité de traitement pour appareil mobile. Le délai entre l'obtention des mesures brutes Mb et l’estimation du spectre émotionnel S est alors suffisamment réduit pour permettre l'affichage de ce dernier en temps réel, y compris sur un appareil disposant d'une faible puissance de calcul.The algorithms used for determining the multiple linear regression model having a low complexity and requiring a low execution time therefore prove to be very suitable for their implementation in a processing unit for a mobile device. The time between obtaining the raw measurements Mb and the estimation of the emotional spectrum S is then reduced enough to allow the display of the latter in real time, including on a device having a low computing power.

Dans un mode de réalisation du procédé selon l'invention avantageux en particulier lorsque la quatrième étape est mise en œuvre dans un dispositif distant, des techniques d’apprentissage complexes, telles que l'utilisation de réseaux de neurones récurrents ou convolutionnels, sont utilisées pour déterminer l'ensemble des intensités {e,} î=i...n décrivant le spectre émotionnel S. Un exemple de techniques d’apprentissage complexes est par exemple décrit dans le document intitulé lan Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.In an embodiment of the method according to the invention advantageous in particular when the fourth step is implemented in a remote device, complex learning techniques, such as the use of recurrent or convolutional neural networks, are used to determine the set of intensities {e,} î = i ... n describing the emotional spectrum S. An example of complex learning techniques is for example described in the document entitled lan Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning , MIT Press, 2016.

La latence du traitement n’étant pas prioritaire, il est possible d'employer des méthodes d'analyses plus fines et/ou précises.Since processing latency is not a priority, it is possible to use finer and / or precise analysis methods.

Au cours d'une cinquième étape optionnelle, une représentation de l'ensemble des intensités {e,} î=i...n et des classes émotionnelles E, correspondant au spectre émotionnel S est générée, et avantageusement, affichée.During a fifth optional step, a representation of the set of intensities {e,} î = i ... n and of the emotional classes E, corresponding to the emotional spectrum S is generated, and advantageously, displayed.

La figure 4 illustre, selon un premier mode de réalisation, une représentation graphique du spectre émotionnel S correspondant à un diagramme en radar, où chaque axe radial est utilisé pour quantifier l'intensité e, d'une des classes émotionnelles E,. Le niveau d’intensité le plus bas, c'est-àdire e, = 0, est situé au point central du diagramme en radar. Cette représentation graphique est notamment adaptée pour présenter le spectre émotionnel S lorsque le nombre N de classes émotionnelles E, est strictement supérieur à 1.FIG. 4 illustrates, according to a first embodiment, a graphic representation of the emotional spectrum S corresponding to a radar diagram, where each radial axis is used to quantify the intensity e, of one of the emotional classes E ,. The lowest intensity level, e, = 0, is located at the center point of the radar diagram. This graphical representation is notably adapted to present the emotional spectrum S when the number N of emotional classes E, is strictly greater than 1.

La figure 3 illustre, selon un deuxième mode de réalisation, une représentation graphique du spectre émotionnel S correspondant à un diagramme en barre, où l'énoncé décrivant une des classes émotionnelles E, est annoté de manière visible selon un axe horizontal, et où l'axe vertical est utilisé pour représenter l'intensité e, de la classe émotionnelle E, correspondante. Le niveau d’intensité le plus bas, c'est-à-dire e, = 0, est situé au niveau de l'axe horizontal.FIG. 3 illustrates, according to a second embodiment, a graphic representation of the emotional spectrum S corresponding to a bar diagram, where the statement describing one of the emotional classes E, is annotated visibly along a horizontal axis, and where l the vertical axis is used to represent the intensity e, of the corresponding emotional class E. The lowest intensity level, i.e. e, = 0, is located at the horizontal axis.

Alternativement, cette représentation graphique peut être utilisée pour présenter le spectre émotionnel S lorsque ce dernier ne comportent qu’une seule émotion, c’est-à-dire lorsque le nombre N de classes émotionnelles E, est égal à 1: la représentation graphique ne comporte alors qu’une barre verticale sur l’axe horizontal.Alternatively, this graphic representation can be used to present the emotional spectrum S when the latter have only one emotion, that is to say when the number N of emotional classes E, is equal to 1: the graphic representation does not then has a vertical bar on the horizontal axis.

Selon le premier ou le deuxième mode de réalisation, l’ordre et l'énoncé des axes du diagramme doivent préférablement correspondre à celle du spectre émotionnel S, afin d'optimiser l'interprétation des représentations et faciliter leur utilisation dans une interface utilisateur.According to the first or second embodiment, the order and the statement of the axes of the diagram should preferably correspond to that of the emotional spectrum S, in order to optimize the interpretation of the representations and facilitate their use in a user interface.

Les représentations peuvent en outre comporter une pluralité de spectres émotionnels, par exemple pour comparer simultanément plusieurs individus ou plusieurs situations.The representations can also include a plurality of emotional spectra, for example to simultaneously compare several individuals or several situations.

On se réfère désormais à la figure 2 sur laquelle est représenté, un système d'annotation adapté à mettre en œuvre un procédé de calibration des fonctions filtres f, de l'ensemble F, utilisé lors de la quatrième étape 140 du procédé d'identification et de quantification d'émotions précédemment décrit. Le système d'annotation permet d'ajuster le modèle décrit par les fonctions filtres f, pour estimer le spectre émotionnel.Referring now to FIG. 2 in which is represented, an annotation system adapted to implement a method for calibrating the filter functions f, of the set F, used during the fourth step 140 of the identification method and quantification of emotions previously described. The annotation system makes it possible to adjust the model described by the filter functions f, to estimate the emotional spectrum.

Le système d'annotation comporte typiquement une unité de traitement 310, une unité de stockage 320, une unité d’affichage 330 et une interface utilisateur 340 pour permettre la saisie de rapports subjectifs. Le système d'annotation peut comporter des moyens informatiques fixes ordinateur personnel, station de travail, serveur, etc - ou mobiles - téléphone intelligent, tablette, ordinateur portable, etc.The annotation system typically includes a processing unit 310, a storage unit 320, a display unit 330 and a user interface 340 to allow entry of subjective reports. The annotation system can include fixed computing means personal computer, workstation, server, etc. - or mobile - smartphone, tablet, laptop, etc.

L'unité de traitement 310 du système d'annotation est configurée pour collecter des mesures relatives aux caractéristiques physiologiques Cpj d'un individu ainsi que des informations temporelles relatives aux mesures, pendant que ce dernier est impliqué dans une expérience interactive, immersive et/ou sensorielle, puis enregistrer ces dernières dans l'unité de stockage 320.The processing unit 310 of the annotation system is configured to collect measurements relating to the physiological characteristics Cpj of an individual as well as temporal information relating to the measurements, while the latter is involved in an interactive, immersive and / or sensory, then record these in storage unit 320.

L'unité de traitement 310 est également configurée pour obtenir ou déterminer une représentation d'un enregistrement de l'expérience ayant induit les émotions, de sorte à permettre leur annotation a posteriori. La représentation correspond par exemple à un extrait vidéo du film que l'individu a regardé, une séquence de captures d'écran prises pendant que l'individu jouait à un jeu vidéo ou qu’il vivait une expérience de réalité virtuelle, ou bien un enregistrement vidéo du parcours réalisé pendant la conduite du véhicule.The processing unit 310 is also configured to obtain or determine a representation of a recording of the experience having induced the emotions, so as to allow their annotation a posteriori. The representation corresponds, for example, to a video extract from the film that the individual watched, a sequence of screenshots taken while the individual was playing a video game or having a virtual reality experience, or a video recording of the route taken while driving the vehicle.

L'interface utilisateur 340 est arrangée de manière à permettre la saisie d'une information apte à identifier les classes émotionnelles E, correspondant aux émotions ressenties au cours de l'expérience, ainsi que leur intensité. L'interface utilisateur 340 comporte par exemple des moyens de saisie par commandes motrices - dispositif de pointage, clavier, dispositif tactile ou vocales. Les commandes vocales comprennent par exemple une indication du nom de l'émotion ressentie et une description de l'intensité telle que j’ai eu très peur, je ne suis pas content, je suis triste.The user interface 340 is arranged so as to allow the entry of information capable of identifying the emotional classes E, corresponding to the emotions felt during the experience, as well as their intensity. The user interface 340 includes, for example, input means by motor commands - pointing device, keyboard, tactile or voice device. The voice commands include, for example, an indication of the name of the emotion felt and a description of the intensity such that I was very afraid, I am not happy, I am sad.

L'unité d'affichage 330 comporte un module de lecture apte à afficher la représentation de l'enregistrement de l'expérience passée ayant induit les émotions. Le module de lecture comporte un marqueur temporel, appelé tête de lecture, pointant sur l’instant correspondant à l'affichage courant de la représentation.The display unit 330 includes a reading module capable of displaying the representation of the recording of the past experience having induced the emotions. The reading module includes a time marker, called a reading head, pointing to the instant corresponding to the current display of the representation.

La tête de lecture est synchronisée temporellement avec les mesures enregistrées pour permettre l'identification des mesures enregistrées correspondant à l'émotion décrite au moyen de l'interface utilisateur 340 et correspondant à l'affichage courant de la représentation.The read head is temporally synchronized with the recorded measurements to allow the identification of the recorded measurements corresponding to the emotion described by means of the user interface 340 and corresponding to the current display of the representation.

Le module de lecture est typiquement pourvu d'un module de transport de type lecture / pause / arrêt / avance et retour rapide couplé à l'affichage de la représentation. Le module de lecture peut également comporter des moyens de réglage du volume audio de la représentation.The reading module is typically provided with a reading / pause / stop / forward / fast reverse type transport module coupled to the display of the representation. The playback module can also include means for adjusting the audio volume of the representation.

L'unité d'affichage 330 comporte encore un ensemble de boutons pour déplacer la tête de lecture à des instants clés de la représentation de l'enregistrement de l'expérience passée. Ces boutons peuvent être figurés par une image miniature de la représentation de l'enregistrement correspondant à l’instant clé correspondant.The display unit 330 also has a set of buttons for moving the read head at key moments in the representation of the recording of the past experience. These buttons can be represented by a miniature image of the representation of the recording corresponding to the corresponding key moment.

Dans un mode de fonctionnement préétabli, les images clés peuvent être sélectionnées avant l’enregistrement : elles correspondent alors à des instants qui sont a priori susceptibles d'induire des émotions significatives. Par exemple, les images clés préétablies peuvent correspondre au début des scènes les plus marquantes d’un film ou au moment où le joueur a perdu sa partie.In a pre-established operating mode, the key images can be selected before recording: they then correspond to moments which are a priori likely to induce significant emotions. For example, the preset keyframes can correspond to the start of the most striking scenes of a film or to the moment when the player lost his game.

Dans un mode de fonctionnement manuel, les images clés sont sélectionnées lors de l’enregistrement de l'expérience, soit de manière subjective par l'individu, soit par un observateur externe par exemple sur la base d’une étude comportementale de l'individu. Les images clés peuvent ainsi correspondre à des scènes marquantes d’un jeu vidéo identifier par le joueur en appuyant sur un bouton de sa manette.In a manual operating mode, the key images are selected during the recording of the experience, either subjectively by the individual, or by an external observer for example on the basis of a behavioral study of the individual . The keyframes can thus correspond to striking scenes of a video game identified by the player by pressing a button on his controller.

Dans un mode de fonctionnement automatique, les images clés sont sélectionnées de manière automatique, en fonction des mesures obtenues et/ou de données comportementales. Le mode de fonctionnement automatique est adapté pour améliorer la performance d’un modèle déjà entraîné, en sélectionnant les images clés dont le spectre émotionnel S dépasse un seuil d'intensité qui peut être réglé manuellement ou automatiquement. Ce mode de fonctionnement permet en outre d’ajuster le modèle en minimisant, pour toute image clé introduite automatique, la différence entre le spectre émotionnel rapporté de manière subjective sur l’équaliseur émotionnel et le spectre estimé à partir des mesures enregistrées.In an automatic operating mode, the key images are selected automatically, as a function of the measurements obtained and / or of behavioral data. The automatic operating mode is adapted to improve the performance of an already trained model, by selecting the keyframes whose emotional spectrum S exceeds an intensity threshold which can be adjusted manually or automatically. This operating mode also makes it possible to adjust the model by minimizing, for any keyframe introduced automatically, the difference between the emotional spectrum reported subjectively on the emotional equalizer and the spectrum estimated from the recorded measurements.

L'unité d'affichage comporte encore un module équaliseur émotionnel, couplé au module de lecture, apte à afficher une représentation telle que celle illustrée sur la figure 4 et/ou 5, sur laquelle, via l'interface utilisateur 340, les émotions ressenties par l'individu et leur intensité respective, à l'instant pointé par la tête de lecture du module de lecture, peuvent être rapportées de manière subjective.The display unit also includes an emotional equalizer module, coupled to the reading module, capable of displaying a representation such as that illustrated in FIG. 4 and / or 5, on which, via the user interface 340, the emotions felt by the individual and their respective intensity, at the instant pointed by the reading head of the reading module, can be reported subjectively.

Le module équaliseur émotionnel permet par des actions manuelles, d'indiquer et/ou modifier l'intensité e, sur chacun des axes du diagramme de la représentation graphique. Par exemple, il est possible d'employer un dispositif de pointage tel une souris d'ordinateur ou un écran tactile pour ajuster l'intensité e, d'une émotion, en pointant sur l’axe de l'émotion correspondante à l’endroit de l'intensité ressentie.The emotional equalizer module allows, by manual actions, to indicate and / or modify the intensity e, on each of the axes of the graph of the graphical representation. For example, it is possible to use a pointing device such as a computer mouse or a touch screen to adjust the intensity e, of an emotion, by pointing on the axis of the emotion corresponding to the place of the intensity felt.

Le système d'annotation peut en particulier mettre en œuvre des méthodes d’apprentissage automatique. Les caractéristiques physiologiques extraites à l'étape 4 de la procédure de traitement et les données subjectives servent à entraîner l’algorithme d’apprentissage automatique. Dans le cas particulier d’une méthode de régression linéaire, les grandeurs caractéristiques du vecteur scalaire X sont appliquées comme des variables prédictives tandis que les données subjectives eisont les variables à prédire.The annotation system can in particular implement machine learning methods. The physiological characteristics extracted in step 4 of the treatment procedure and the subjective data are used to train the machine learning algorithm. In the particular case of a linear regression method, the quantities characteristic of the scalar vector X are applied as predictive variables while the subjective data are the variables to be predicted.

Ainsi, à titre d'exemple non limitatif, les coefficients c,’ du filtre f, peuvent se calculer en minimisant l’expression mathématique suivante :Thus, by way of nonlimiting example, the coefficients c, ’of the filter f, can be calculated by minimizing the following mathematical expression:

minc || x. c,’ - e, ||min c || x. c, '- e, ||

Selon la méthode d’apprentissage automatique appliquée, le critère de minimisation peut correspondre à une fonction de coût de classification erreur de classification, fonction logistique, de perte hinge ou carré - ou bien de régression - erreur de moindre carré, valeur absolue, entropie, etc.Depending on the machine learning method applied, the minimization criterion can correspond to a classification cost function classification error, logistic function, hinge or square loss - or regression - least square error, absolute value, entropy, etc.

Dans un mode de réalisation embarqué, les coefficients des filtres adaptatifs sont calculés par une procédure d’optimisation pour estimer les coefficients d’un modèle linéaire comme une procédure de minimisation par moindres carrés ou par descente de gradient, éventuellement avec un terme de régularisation.In an on-board embodiment, the coefficients of the adaptive filters are calculated by an optimization procedure to estimate the coefficients of a linear model as a least squares or gradient descent minimization procedure, possibly with a regularization term.

Dans le mode de réalisation déporté, les ressources de calcul de l'unité de traitement doivent permettre l'exécution de procédure d’optimisation pour estimer les coefficients de modèles plus complexes, voire non4inéaires comme les réseaux de neurones artificiels.In the remote embodiment, the computing resources of the processing unit must allow the execution of an optimization procedure to estimate the coefficients of more complex, even non-linear models such as artificial neural networks.

Le système d'annotation peut notamment être utilisé dans un premier mode de fonctionnement dans lequel un rapport subjectif est établi a posteriori. Dans ce mode de fonctionnement, des rapports subjectifs sont saisis manuellement par l'individu impliqué dans l'expérience, au moyen de l'interface utilisateur 340, et plus particulièrement au moyen de la tête de lecture du module d'affichage 340 et du module équaliseur émotionnel, en réglant l'équaliseur émotionnel en fonction de l'intensité des émotions ressenties pendant l'expérience.The annotation system can in particular be used in a first operating mode in which a subjective report is established a posteriori. In this operating mode, subjective reports are entered manually by the individual involved in the experiment, by means of the user interface 340, and more particularly by means of the read head of the display module 340 and of the module. emotional equalizer, adjusting the emotional equalizer according to the intensity of the emotions felt during the experience.

Le système d'annotation peut notamment être utilisé dans un deuxième mode de fonctionnement dans lequel un rapport subjectif est établi en temps réel. Les rapports subjectifs peuvent être saisis par un opérateur humain sur la base d’observation de l'individu impliqué dans l'expérience, ou bien par un programme informatique qui reconnaît les expressions faciales ou vocales de l'individu.The annotation system can in particular be used in a second operating mode in which a subjective report is established in real time. Subjective reports can be captured by a human operator based on observation of the individual involved in the experiment, or by a computer program that recognizes the individual's facial or vocal expressions.

Dans ce mode de fonctionnement, les rapports subjectifs sont synchronisés temporellement, de préférence en minimisant la latence, entre les mesures collectées relatives aux caractéristiques physiologiques et des informations comportementales enregistrées pendant l'expérience. Les informations comportementales comme les expressions faciales ou vocales de l'individu, peuvent ainsi aider l'opérateur humain ou le programme informatique à annoter les données physiologiques mesurées par l’appareil.In this operating mode, the subjective reports are synchronized in time, preferably by minimizing the latency, between the collected measurements relating to the physiological characteristics and behavioral information recorded during the experiment. Behavioral information such as the individual's facial or vocal expressions can thus help the human operator or the computer program to annotate the physiological data measured by the device.

On se réfère désormais à la figure 5 sur laquelle est représentée, un système d'annotation, selon un mode de réalisation de l'invention multi-sites et multi-utilisateurs. Une pluralité de dispositifs de mesures est utilisée pour mesurer l’activité physiologique de plusieurs individus, répartis sur plusieurs sites et/ou pratiquant diverses activités.Reference is now made to FIG. 5 in which an annotation system is represented, according to an embodiment of the invention multi-site and multi-user. A plurality of measurement devices is used to measure the physiological activity of several individuals, distributed over several sites and / or practicing various activities.

Les mesures sont collectées par des serveurs distants pour être stockées dans des bases de données spécifiques à chaque situation. Les mesures collectées peuvent notamment être utilisées pour ajuster le modèle décrit par les fonctions filtres f,. Les émotions ressenties par les individus 5 peuvent être visualisées par un client à travers un tableau de bord, pourvu d'une interface pour représenter graphiquement les spectres émotionnels.The measurements are collected by remote servers to be stored in databases specific to each situation. The collected measurements can in particular be used to adjust the model described by the filter functions f ,. The emotions felt by individuals 5 can be viewed by a client through a dashboard, provided with an interface to graphically represent emotional spectra.

Claims (11)

1. Procédé adapté pour identifier et quantifier les émotions ressenties par au moins un individu impliqué dans une expérience interactive, immersive et/ou sensorielle, caractérisé en ce qu'il comporte les étapes suivantes:1. A suitable method for identifying and quantifying the emotions felt by at least one individual involved in an interactive, immersive and / or sensory experience, characterized in that it comprises the following stages: - une étape (110) de collecte, au cours de l'expérience, de mesures relatives à un ensemble de caractéristiques physiologiques de l'individu;- a step (110) of collecting, during the experiment, measurements relating to a set of physiological characteristics of the individual; - une étape (130) d'extraction d'un ensemble de grandeurs caractéristiques relatives aux caractéristiques physiologiques, en fonction des mesures;- a step (130) of extracting a set of characteristic quantities relating to the physiological characteristics, as a function of the measurements; - une étape (140) de détermination, pour chacune des classes émotionnelles d'une classification d'émotions, d'une intensité ressentie par l'individu obtenue en calculant l'image de l'ensemble de grandeurs caractéristiques d'une fonction filtre spécifique audit au moins un individu et à ladite classe émotionnelle.a step (140) of determining, for each of the emotional classes of a classification of emotions, an intensity felt by the individual obtained by calculating the image of the set of quantities characteristic of a specific filter function audit at least one individual and said emotional class. 2. Procédé selon la revendication 1, comportant en outre une étape (150) de production et d'affichage d'une représentation de l'intensité ressentie pour chacune des classes émotionnelles de la classification d'émotions.2. Method according to claim 1, further comprising a step (150) of producing and displaying a representation of the intensity felt for each of the emotional classes of the classification of emotions. 3. Procédé selon l'une quelconque des revendications précédentes, dans lequel les fonctions filtre, associées aux classes émotionnelles de la classification d'émotions, comprennent chacune un ensemble de paramètres obtenus et/ou mis à jour lors d'une phase de calibration.3. Method according to any one of the preceding claims, in which the filter functions, associated with the emotional classes of the classification of emotions, each comprise a set of parameters obtained and / or updated during a calibration phase. 4. Procédé selon la revendication 3, dans lequel l'ensemble de paramètres obtenus et/ou mis à jour lors d'une phase de calibration pour chacune des fonctions filtres comprend:4. Method according to claim 3, in which the set of parameters obtained and / or updated during a calibration phase for each of the filter functions comprises: - un coefficient pour chaque grandeur caractéristique de l'ensemble de grandeurs caractéristiques; et,- a coefficient for each characteristic quantity of the set of characteristic quantities; and, - un biais.- bias. 5. Procédé selon l'une quelconque des revendications 3 ou 4, dans lequel au cours de la phase de calibration:5. Method according to any one of claims 3 or 4, in which during the calibration phase: - on collecte, pour ledit au moins un individu, au cours d'une expérience de calibrage, des mesures relatives aux caractéristiques physiologiques de l'individu ainsi que des informations temporelles relatives auxdites mesures, et au moins un enregistrement d'une représentation de ladite expérience de calibrage;- We collect, for said at least one individual, during a calibration experiment, measurements relating to the physiological characteristics of the individual as well as temporal information relating to said measurements, and at least one recording of a representation of said calibration experience; - on collecte, des informations subjectives relatives, pour chacune des classes émotionnelles de la classification d'émotions, à l'intensité de l'émotion correspondante ressentie par ledit au-moins individu, lors d'au moins une période temporelle de l'expérience de calibrage, les informations subjectives étant produites par ledit au moins individu et/ou par un observateur à la suite de la visualisation de l'enregistrement de la représentation de l'expérience de calibrage;- subjective information is collected relating, for each of the emotional classes of the classification of emotions, to the intensity of the corresponding emotion felt by said at least individual, during at least one temporal period of the experience calibration, the subjective information being produced by said at least individual and / or by an observer following viewing of the recording of the representation of the calibration experience; - on détermine, en fonction des informations subjectives collectées et des mesures relatives aux caractéristiques physiologiques de l'individu correspondant aux informations subjectives collectées, l'ensemble de paramètres des fonctions filtre des classes émotionnelles de la classification d'émotions.- on the basis of the subjective information collected and of the measures relating to the physiological characteristics of the individual corresponding to the subjective information collected, the set of parameters of the functions filters the emotional classes of the classification of emotions. 6. Procédé selon la revendication 5, dans lequel les informations subjectives sont collectées au moyen d'une interface utilisateur, apte à permettre la saisie sur une représentation bidimensionnelle de l'intensité ressentie pour chacune des classes émotionnelles de la classification d'émotions, pour au moins une période temporelle de l'expérience de calibrage.6. Method according to claim 5, in which the subjective information is collected by means of a user interface, capable of allowing the input on a two-dimensional representation of the intensity felt for each of the emotional classes of the classification of emotions, for at least one time period of the calibration experiment. 7. Procédé selon l'une quelconque des revendications 5 et 6, dans lequel les informations subjectives sont collectées pour au moins un instant clé de l'expérience de calibrage, ledit au moins instant clé étant prédéterminé avant ladite expérience de calibrage.7. Method according to any one of claims 5 and 6, in which the subjective information is collected for at least one key instant of the calibration experiment, said at least key instant being predetermined before said calibration experiment. 8. Procédé selon l'une quelconque des revendications 5 et 6, dans lequel les informations subjectives sont collectées pour au moins un instant clé de l'expérience de calibrage, ledit au moins instant clé étant sélectionné, soit de manière subjective par ledit au moins un individu, soit par un observateur externe.8. Method according to any one of claims 5 and 6, in which the subjective information is collected for at least one key instant of the calibration experience, said at least key instant being selected, either subjectively by said at least an individual, either by an external observer. 9. Procédé selon l'une quelconque des revendications 5 et 6, dans lequel les informations subjectives sont collectées pour au moins un instant clé de l'expérience de calibrage, ledit au moins instant clé étant sélectionné, de manière automatique, en fonction des mesures collectées lors de l'expérience de calibration et/ou de données comportementales relatives audit au moins individu.9. Method according to any one of claims 5 and 6, in which the subjective information is collected for at least one key instant of the calibration experience, said at least key instant being selected, automatically, according to the measurements. collected during the calibration experiment and / or behavioral data relating to said at least individual. 5 10. Module adapté pour identifier et quantifier les émotions ressenties par au moins un individu impliqué dans une expérience interactive, immersive et/ou sensorielle, caractérisé en ce qu'il comporte:5 10. Module adapted to identify and quantify the emotions felt by at least one individual involved in an interactive, immersive and / or sensory experience, characterized in that it comprises: - un module adapté à collecter, au cours de l'expérience, des mesures relatives à un ensemble de caractéristiques physiologiques de- a module adapted to collect, during the experiment, measurements relating to a set of physiological characteristics of 10 l'individu;10 the individual; - un module adapté à extraire un ensemble de grandeurs caractéristiques relatives aux caractéristiques physiologiques, en fonction des mesures;- a module adapted to extract a set of characteristic quantities relating to physiological characteristics, as a function of the measurements; - un module adapté à déterminer, pour chacune des classes- a module adapted to determine, for each of the classes 15 émotionnelles d'une classification d'émotions, une intensité ressentie par l'individu obtenue en calculant l'image de l'ensemble de grandeurs caractéristiques d'une fonction filtre spécifique audit au moins un individu et à ladite classe émotionnelle.15 emotional of a classification of emotions, an intensity felt by the individual obtained by calculating the image of the set of quantities characteristic of a filter function specific to said at least one individual and to said emotional class.
FR1758256A 2017-09-07 2017-09-07 METHOD AND MODULE ADAPTED TO IDENTIFY AND QUANTIFY EMOTIONS RELATED BY AT LEAST ONE INDIVIDUAL Withdrawn FR3070591A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1758256A FR3070591A1 (en) 2017-09-07 2017-09-07 METHOD AND MODULE ADAPTED TO IDENTIFY AND QUANTIFY EMOTIONS RELATED BY AT LEAST ONE INDIVIDUAL

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1758256A FR3070591A1 (en) 2017-09-07 2017-09-07 METHOD AND MODULE ADAPTED TO IDENTIFY AND QUANTIFY EMOTIONS RELATED BY AT LEAST ONE INDIVIDUAL
FR1758256 2017-09-07

Publications (1)

Publication Number Publication Date
FR3070591A1 true FR3070591A1 (en) 2019-03-08

Family

ID=60182753

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1758256A Withdrawn FR3070591A1 (en) 2017-09-07 2017-09-07 METHOD AND MODULE ADAPTED TO IDENTIFY AND QUANTIFY EMOTIONS RELATED BY AT LEAST ONE INDIVIDUAL

Country Status (1)

Country Link
FR (1) FR3070591A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030139654A1 (en) * 2002-01-23 2003-07-24 Samsung Electronics Co., Ltd. System and method for recognizing user's emotional state using short-time monitoring of physiological signals
EP2698685A2 (en) * 2012-08-16 2014-02-19 Samsung Electronics Co., Ltd Using physical sensory input to determine human response to multimedia content displayed on a mobile device
US20150245777A1 (en) * 2012-10-19 2015-09-03 Basis Science, Inc. Detection of emotional states

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030139654A1 (en) * 2002-01-23 2003-07-24 Samsung Electronics Co., Ltd. System and method for recognizing user's emotional state using short-time monitoring of physiological signals
EP2698685A2 (en) * 2012-08-16 2014-02-19 Samsung Electronics Co., Ltd Using physical sensory input to determine human response to multimedia content displayed on a mobile device
US20150245777A1 (en) * 2012-10-19 2015-09-03 Basis Science, Inc. Detection of emotional states

Similar Documents

Publication Publication Date Title
US20250228483A1 (en) Systems and methods for optical evaluation of pupillary psychosensory responses
US9642536B2 (en) Mental state analysis using heart rate collection based on video imagery
Speth et al. Deception detection and remote physiological monitoring: A dataset and baseline experimental results
JP7111711B2 (en) Data processing methods for predicting media content performance
US10185869B2 (en) Filter and shutter based on image emotion content
US20130151333A1 (en) Affect based evaluation of advertisement effectiveness
US20230032332A1 (en) System and methods for determining health-related metrics from collected physiological data
US20150206174A1 (en) Method for measuring engagement
WO2018153762A1 (en) Method, device and program for determining at least one cerebral network involved in carrying out a given process
WO2014145204A1 (en) Mental state analysis using heart rate collection based video imagery
Kodra et al. From dials to facial coding: Automated detection of spontaneous facial expressions for media research
CN116211305A (en) Dynamic real-time emotion detection method and system
FR3133691A1 (en) Data labeling process for building a database to configure, validate and/or test an application for monitoring the fatigue level of an individual
EP3768154A1 (en) Method for generating a condition indicator for a person in a coma
CN117860251B (en) Method, device, medium and equipment for evaluating attention of children based on game experience
FR3018118A1 (en) METHOD FOR TESTING AN ELECTRONIC SYSTEM
US20210233317A1 (en) Apparatus and method of clinical trial for vr sickness prediction based on cloud
CN113076347A (en) Push program screening system and method based on emotion on mobile terminal
Kostoulas et al. Identifying aesthetic highlights in movies from clustering of physiological and behavioral signals
Abdullah et al. Assessment and Evaluation of cancer CT images using deep learning Techniques
FR3070591A1 (en) METHOD AND MODULE ADAPTED TO IDENTIFY AND QUANTIFY EMOTIONS RELATED BY AT LEAST ONE INDIVIDUAL
FR3123487A1 (en) Method for the automatic prediction of the emotional effect produced by a video game sequence
Takır et al. Rppg detection in children with autism spectrum disorder during robot-child interaction studies
EP3073900B1 (en) Method for constructing an activity index, device, and computer program therefore
KR102247712B1 (en) Method for skin diagnosis using big data and the device thereof

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20190308

ST Notification of lapse

Effective date: 20200910