[go: up one dir, main page]

FR3153234A1 - Method for detecting an emotion by radio frequency - Google Patents

Method for detecting an emotion by radio frequency Download PDF

Info

Publication number
FR3153234A1
FR3153234A1 FR2310192A FR2310192A FR3153234A1 FR 3153234 A1 FR3153234 A1 FR 3153234A1 FR 2310192 A FR2310192 A FR 2310192A FR 2310192 A FR2310192 A FR 2310192A FR 3153234 A1 FR3153234 A1 FR 3153234A1
Authority
FR
France
Prior art keywords
data
respiratory
radio frequency
emotion
duration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2310192A
Other languages
French (fr)
Inventor
Olivier Rolland JOUBERT
Nabil Houdali
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Etseme
Original Assignee
Etseme
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Etseme filed Critical Etseme
Priority to FR2310192A priority Critical patent/FR3153234A1/en
Publication of FR3153234A1 publication Critical patent/FR3153234A1/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/0507Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves using microwaves or terahertz waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/08Measuring devices for evaluating the respiratory organs
    • A61B5/0816Measuring devices for examining respiratory frequency
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/024Measuring pulse rate or heart rate
    • A61B5/02405Determining heart rate variability

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Physiology (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Pulmonology (AREA)
  • Cardiology (AREA)
  • Fuzzy Systems (AREA)
  • Educational Technology (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Evolutionary Computation (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

La présente invention concerne un procédé de détection d’une émotion chez un sujet (11) comprenant les étapes suivantes : - émission d’un premier signal radio fréquence (4) en direction du sujet, - réception d’un deuxième signal radio fréquence (5) contenant un signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet, - traitement numérique (6) du deuxième signal radio fréquence (5) de façon à générer des données respiratoires (6a) et/ou des données cardiaques (6b), - application de plusieurs fenêtres temporelles F1 de durée T1 de manière glissante sur les données respiratoires et/ou les données cardiaques, - application de plusieurs fenêtres temporelles F3 de durée T3 de manière glissante sur les données respiratoires et/ou les données cardiaques; la durée T3 étant inférieure à la durée T1, - prédiction d’une émotion par un modèle d’émotion (12) à base d’intelligence artificielle à partir des données provenant des fenêtres F1 et des données issues des fenêtres F3. Voir figure 3 The present invention relates to a method for detecting an emotion in a subject (11) comprising the following steps: - transmitting a first radio frequency signal (4) towards the subject, - receiving a second radio frequency signal (5) containing a physiological signal due to the reflection of said first radio frequency signal on the subject, - digitally processing (6) the second radio frequency signal (5) so as to generate respiratory data (6a) and/or cardiac data (6b), - applying several time windows F1 of duration T1 in a sliding manner to the respiratory data and/or the cardiac data, - applying several time windows F3 of duration T3 in a sliding manner to the respiratory data and/or the cardiac data; the duration T3 being less than the duration T1, - predicting an emotion by an emotion model (12) based on artificial intelligence from the data originating from the windows F1 and the data originating from the windows F3. See Figure 3.

Description

Procédé de détection d’une émotion par radio fréquence.Process for detecting an emotion by radio frequency.

La présente invention se rapporte à un procédé de détection d’une émotion chez un sujet au moyen d’un modèle d’émotion à base d’intelligence artificielle. L’invention concerne également un système comprenant une unité de traitement pour la mise en œuvre d’un tel procédé.The present invention relates to a method for detecting an emotion in a subject using an emotion model based on artificial intelligence. The invention also relates to a system comprising a processing unit for implementing such a method.

L’invention trouve une application particulièrement intéressante dans la détection d’émotion d’un utilisateur sur un poste de travail. Mais l’invention est d’un cadre plus large puisqu’elle peut s’appliquer à de nombreux autres domaines professionnels ou particuliers tels que l'interaction homme-machine, la réalité virtuelle, les jeux et les soins de santé.The invention finds a particularly interesting application in the detection of a user's emotion on a workstation. But the invention has a broader scope since it can be applied to many other professional or specific fields such as human-machine interaction, virtual reality, games and healthcare.

La société continue d’évoluer vers une intégration de plus en plus présente de la technologie dans notre quotidien.Society continues to evolve towards an increasingly present integration of technology into our daily lives.

Notre rapport à la consommation, à la santé, à l’éducation, à l’information, ou encore au fonctionnement même de notre société nécessite aujourd’hui une maîtrise toujours plus grande du monde numérique. Il faut dire que les progrès technologiques des dernières décennies et l’avènement d’Internet et d’une économie plus mondialisée ont grandement facilité l’accès et l’utilisation des produits hautement technologiques, d'un point de vue financier, mais aussi fonctionnel.Our relationship with consumption, health, education, information, and even the very functioning of our society today requires ever-greater mastery of the digital world. It must be said that the technological advances of recent decades and the advent of the Internet and a more globalized economy have greatly facilitated access to and use of high-tech products, both financially and functionally.

Et pourtant, les interfaces numériques restent globalement passives à l’égard de leurs utilisateurs et de ce qui les anime : leurs intentions, leurs émotions au-delà de leurs interactions. Ils sont incapables de reconnaître les épisodes de frustration alors que l’utilisateur est confronté à une interface web mal pensée. Impossibilité de surveiller la concentration et la fatigue d'un opérateur sur un poste de travail industriel à risque. Impossible de reconnaître le désespoir d'un élève débordé de connaissances dans son apprentissage ou au contraire de célébrer un moment de bonheur avec un joueur fier de ses prouesses dans un jeu vidéo. Si ces interfaces étaient capables de ressentir les émotions et les intentions de leurs utilisateurs, nous ne serions plus obligés d'utiliser des commandes explicites et bénéficierions d'une interaction plus naturelle et donc encore plus accessible. De plus, les machines montreraient leur capacité à accompagner les humains dans la régulation de leurs propres émotions, ce qui se traduirait par une plus grande sécurité et un meilleur bien-être.And yet, digital interfaces remain generally passive with regard to their users and what drives them: their intentions, their emotions beyond their interactions. They are unable to recognize episodes of frustration when the user is confronted with a poorly designed web interface. It is impossible to monitor the concentration and fatigue of an operator at a risky industrial workstation. It is impossible to recognize the despair of a student overwhelmed with knowledge in their learning or, conversely, to celebrate a moment of happiness with a player proud of their prowess in a video game. If these interfaces were capable of sensing the emotions and intentions of their users, we would no longer be obliged to use explicit commands and would benefit from a more natural and therefore even more accessible interaction. Moreover, machines would demonstrate their ability to support humans in regulating their own emotions, which would result in greater safety and well-being.

Aujourd'hui, la plupart des approches en informatique affective reposent sur l'exploitation d'informations audiovisuelles telles que les expressions faciales, la posture ou la prosodie. Elles sont très utiles car facilement accessibles, mais elles ne sont pas exemptes de biais potentiels. Les expressions faciales étant un mode de communication sociale, elles sont rarement exprimées par un utilisateur seul devant son écran. À l’inverse, elles peuvent être contraintes de cacher une émotion de valence opposée. Il en va de même pour l’expression des émotions à travers la voix. De plus, les expressions faciales ne sont pas nécessairement visibles dans le champ de la caméra et leur détection peut être limitée dans un environnement non contrôlé en raison des conditions d'éclairage.Today, most affective computing approaches rely on the exploitation of audiovisual information such as facial expressions, posture, or prosody. These are very useful because they are easily accessible, but they are not exempt from potential biases. Since facial expressions are a mode of social communication, they are rarely expressed by a user alone in front of their screen. Conversely, they may be forced to hide an emotion of opposite valence. The same is true for the expression of emotions through voice. Moreover, facial expressions are not necessarily visible in the camera's field of view, and their detection may be limited in an uncontrolled environment due to lighting conditions.

Afin de pallier ces limitations, on peut s’intéresser à des signaux plus physiologiques et donc plus inconscients induits par la régulation du système nerveux autonome étroitement lié aux changements émotionnels. On connaît des systèmes utilisant un électrocardiogramme sur la poitrine pour surveiller l'activité cardiaque. Des électrodes réparties sur le corps peuvent permettre de mesurer la conductance galvanique et donc les variations de la transpiration. Un électroencéphalogramme peut permettre de caractériser l’activité neuronale, alors qu'un oxymètre permet de suivre le pouls d’un utilisateur. En traitant ces signaux avec des modules d'intelligence artificielle entraînés, il est possible d'extraire une certaine dynamique de l'état et des sentiments du sujet. De telles solutions de mesure, pratiques en laboratoire, se révèlent vite inconfortables dans l’environnement quotidien.To overcome these limitations, we can focus on more physiological and therefore more unconscious signals induced by the regulation of the autonomic nervous system, which is closely linked to emotional changes. Systems are known that use an electrocardiogram on the chest to monitor cardiac activity. Electrodes distributed over the body can measure galvanic conductance and therefore variations in perspiration. An electroencephalogram can characterize neuronal activity, while an oximeter can monitor a user's pulse. By processing these signals with trained artificial intelligence modules, it is possible to extract a certain dynamic from the subject's state and feelings. Such measurement solutions, practical in the laboratory, quickly prove uncomfortable in the everyday environment.

On connaît des capteurs non invasifs utilisés dans la reconnaissance des émotions. L'utilisation de caméras thermiques pour capturer les différences de température de surface sur le visage est de plus en plus populaire. Si cette approche a le mérite d'être centrée sur la composante physiologique de l'émotion, elle présente néanmoins la contrainte de nécessiter le visage de la cible visible.Non-invasive sensors are known for emotion recognition. The use of thermal cameras to capture surface temperature differences on the face is increasingly popular. While this approach has the merit of focusing on the physiological component of emotion, it nevertheless has the constraint of requiring the target's face to be visible.

Ces dernières années, certains chercheurs ont également utilisé des technologies radar sur certaines gammes de fréquences radio pour détecter à distance des micro-mouvements de la cage thoracique et indirectement des muscles du cœur. À partir du traitement de ces micro-mouvements corporels, ils ont accédé aux changements en temps réel du rythme cardiaque qui contiennent des informations diagnostiques pour l'évaluation des émotions.In recent years, some researchers have also used radar technologies in certain radio frequency ranges to remotely detect micro-movements of the rib cage and, indirectly, of the heart muscles. By processing these micro-body movements, they have accessed real-time changes in heart rate, which contain diagnostic information for assessing emotions.

On connaît le document US20170311901A1 décrivant un système radar pour la reconnaissance des émotions. Le radar utilisé est un radar à ondes entretenues modulés en fréquence FMCW (pour « Frequency-Modulated Continuous Wave » en anglais). La caractérisation d’émotions se fait par une classification discrète de quatre émotions sur une fenêtre temporelle de 2min.Document US20170311901A1 is known, describing a radar system for emotion recognition. The radar used is a frequency-modulated continuous wave radar (FMCW). Emotion characterization is done by a discrete classification of four emotions over a 2-minute time window.

On connaît le document Siddiqui H. U. R. et al., (2021), « Respiration Based Non-Invasive Approach for Emotion Recognition Using Impulse Radio Ultra Wide Band Radar and Machine Learning.”, Sensors, 21(24), Article 24. https://doi.org/10.3390/s21248336, décrivant une méthode pour extraire le nombre de respiration par minute d’un signal provenant d’un radar UWB.We know the paper Siddiqui H. U. R. et al., (2021), “Respiration Based Non-Invasive Approach for Emotion Recognition Using Impulse Radio Ultra Wide Band Radar and Machine Learning.”, Sensors, 21(24), Article 24. https://doi.org/10.3390/s21248336, describing a method to extract the number of respirations per minute from a signal coming from a UWB radar.

On connaît le document Khan et al., (2021), « Deep learning framework for subject-independent emotion detection using wireless signals.”, PLOS ONE, 16(2), e0242946. https://doi.org/10.1371/journal.pone.0242946, décrivant un système radar pour la reconnaissance des émotions. La caractérisation d’émotions se fait par une classification discrète de plusieurs émotions sur des fenêtres temporelles longues (2min). Il décrit un modèle d’intelligence artificielle construit directement à partir des données brutes du signal radar.We know the document Khan et al., (2021), “Deep learning framework for subject-independent emotion detection using wireless signals.”, PLOS ONE, 16(2), e0242946. https://doi.org/10.1371/journal.pone.0242946, describing a radar system for emotion recognition. Emotion characterization is done by discrete classification of several emotions over long time windows (2 min). It describes an artificial intelligence model built directly from the raw data of the radar signal.

On connaît le document Dang et al., (2022), « Emotion recognition method using millimetre wave radar based on deep learning.”, IET Radar, Sonar & Navigation, 16(11), 1796‑1808. https://doi.org/10.1049/rsn2.12297, décrivant un radar millimétrique FMCW 77 Ghz pour la reconnaissance des émotions. Ce document décrit un traitement du signal pour extraire les activités cardiaques et respiratoires, toutes deux prises en considération dans le modèle et combinée pour la classification.We know the paper Dang et al., (2022), “Emotion recognition method using millimetre wave radar based on deep learning.”, IET Radar, Sonar & Navigation, 16(11), 1796‑1808. https://doi.org/10.1049/rsn2.12297, describing a 77 Ghz FMCW millimetre radar for emotion recognition. This paper describes signal processing to extract cardiac and respiratory activities, both of which are considered in the model and combined for classification.

La présente invention a pour but une nouvelle méthode temps réel de reconnaissance des émotions par utilisation de radar.The present invention aims at a new real-time method of recognizing emotions using radar.

Un autre but de l’invention est une reconnaissance précise et fiable des émotions.Another aim of the invention is accurate and reliable recognition of emotions.

On atteint au moins l’un des objectifs avec un procédé de détection d’une émotion chez un sujet comprenant les étapes suivantes :At least one of the objectives is achieved with a method for detecting an emotion in a subject comprising the following steps:

- émission d’un premier signal radio fréquence en direction du sujet,- emission of a first radio frequency signal towards the subject,

- réception d’un deuxième signal radio fréquence contenant un signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet,- reception of a second radio frequency signal containing a physiological signal due to the reflection of said first radio frequency signal on the subject,

- traitement numérique du deuxième signal radio fréquence de façon à générer des données respiratoires et/ou des données cardiaques,- digital processing of the second radio frequency signal so as to generate respiratory data and/or cardiac data,

- application de plusieurs fenêtres temporelles F1 de durée T1 de manière glissante sur les données respiratoires et/ou les données cardiaques,- application of several F1 time windows of T1 duration in a sliding manner on the respiratory data and/or the cardiac data,

- application de plusieurs fenêtres temporelles F3 de durée T3 de manière glissante sur les données respiratoires et/ou les données cardiaques; la durée T3 étant inférieure à la durée T1, et- application of several time windows F3 of duration T3 in a sliding manner on the respiratory data and/or the cardiac data; the duration T3 being less than the duration T1, and

- prédiction d’une émotion par un modèle d’émotion à base d’intelligence artificielle à partir des données provenant des fenêtres F1 et des données issues des fenêtres F3.- prediction of an emotion by an emotion model based on artificial intelligence from data from F1 windows and data from F3 windows.

Le procédé selon l’invention offre une solution non invasive, utilisable en milieu naturel et capable de reconnaître la dynamique émotionnelle d’un sujet au plus près de sa physiologie sans nécessiter le port d’accessoires en contact avec le corps.The method according to the invention offers a non-invasive solution, usable in a natural environment and capable of recognizing the emotional dynamics of a subject as close as possible to their physiology without requiring the wearing of accessories in contact with the body.

Avec l’utilisation de grandes fenêtres et petites fenêtres, on améliore la caractérisation des données cardiaques et l’extraction de composantes d’intérêts pour alimenter le modèle IA associé.With the use of large and small windows, we improve the characterization of cardiac data and the extraction of components of interest to feed the associated AI model.

L’analyse des grandes fenêtres permet de considérer l’activité physiologique globale tout au long de la période d’observation de l’utilisateur.Large window analysis allows for consideration of overall physiological activity throughout the user's observation period.

L’analyse des petites fenêtres permet de considérer les activités plus locales spécifiques à un événement émotionnel et de caractériser dans le signal issu de l’activité physiologiques des motifs spécifiques d’événements émotionnels plus locaux à détecter.The analysis of small windows makes it possible to consider more local activities specific to an emotional event and to characterize in the signal resulting from physiological activity specific patterns of more local emotional events to be detected.

Les fenêtres temporelles F1 ont de préférence une même durée fixe, mais il est possible d’envisager des fenêtres temporelles F1 avec des durées différentes. Il en est de même avec les fenêtres temporelles F3.F1 time windows preferably have the same fixed duration, but it is possible to consider F1 time windows with different durations. The same is true for F3 time windows.

La réalisation d’analyse des signaux physiologiques sur des fenêtres temporelles courtes permet d’obtenir des prédictions sur de courtes durées, ce qui autorise une prédiction en temps réel d’événements émotionnels soudains en phase d’exploitation du modèle d’émotion.Performing analysis of physiological signals over short time windows makes it possible to obtain predictions over short periods, which allows real-time prediction of sudden emotional events during the exploitation phase of the emotion model.

On peut ainsi évaluer la dynamique des émotions en ciblant l’intensité d’une ou plusieurs émotions spécifiques ou états internes ou intentions cognitives au fil du temps sur un sujet humain ou animal.We can thus evaluate the dynamics of emotions by targeting the intensity of one or more specific emotions or internal states or cognitive intentions over time on a human or animal subject.

Les données physiologiques concernent par exemple, sans s’y limiter, les fluctuations de la fréquence cardiaque, les fluctuations respiratoires, l’activité oculaire, les réponses galvaniques de la peau et les pouls sanguins.Physiological data includes, for example, but is not limited to, heart rate fluctuations, respiratory fluctuations, eye activity, galvanic skin responses and blood pulses.

Avec le procédé selon l’invention, on considère deux dynamiques de la physiologie émotionnelle : une dynamique lente correspondant à des variations progressives de la dimension émotionnelle ciblée, comme le stress ou la joie, et une dynamique beaucoup plus rapide, en l’espace de quelques secondes voir moins, correspondant à des variations plus soudaines et locales de cette même dimension émotionnelle.With the method according to the invention, two dynamics of emotional physiology are considered: a slow dynamic corresponding to progressive variations of the targeted emotional dimension, such as stress or joy, and a much faster dynamic, in the space of a few seconds or less, corresponding to more sudden and local variations of this same emotional dimension.

On considère que l'information spécifique à l'émotion vécue survient dans l’activité physiologique sur des latences bien plus courtes que 1 min, en l’espace de quelques secondes. C’est cette information qui est recherchée en utilisant pour données labellisées des fenêtres temporelles courtes en plus des fenêtres longues, ces dernières permettant par exemple d’extraire un niveau émotionnel de référence.It is considered that the information specific to the emotion experienced occurs in physiological activity over latencies much shorter than 1 min, in the space of a few seconds. It is this information that is sought by using short time windows as labeled data in addition to long windows, the latter allowing, for example, the extraction of a reference emotional level.

Selon une caractéristique avantageuse de l’invention, les données provenant de la fenêtre temporelle F1 peuvent être directement transmises vers le modèle d’émotion et/ou peuvent subir un calcul d'une valeur d'au moins un biomarqueur respiratoire et/ou cardiaque, cette valeur étant ensuite transmise vers le modèle d’émotion.According to an advantageous characteristic of the invention, the data from the time window F1 can be directly transmitted to the emotion model and/or can undergo a calculation of a value of at least one respiratory and/or cardiac biomarker, this value then being transmitted to the emotion model.

En particulier, le calcul d’une valeur d’au moins un biomarqueur respiratoire et/ou cardiaque peut comprendre au moins l’un des calculs suivants :In particular, the calculation of a value of at least one respiratory and/or cardiac biomarker may comprise at least one of the following calculations:

- calcul d’une variabilité de la fréquence cardiaque (HRV pour “heart rate variability”),- calculation of heart rate variability (HRV),

- calcul d’une variabilité respiratoire (RRV pour “Respiratory Rate Variability”)) ou d’un motif respiratoire (BPA pour “Breathing Pattern Analysis”) ou d’une amplitude respiratoire et de sa variabilité (RAV pour “Respiratory Amplitude and Variability”),- calculation of respiratory variability (RRV for “Respiratory Rate Variability”) or of a respiratory pattern (BPA for “Breathing Pattern Analysis”) or of a respiratory amplitude and its variability (RAV for “Respiratory Amplitude and Variability”),

- calcul d’une arythmie sinusale respiratoire (RSA pour “Respiratory Sinus Arrythmia” en anglais).- calculation of respiratory sinus arrhythmia (RSA for “Respiratory Sinus Arrythmia” in English).

Le RSA est représentatif de l’interaction entre l’activité cardiaque et l’activité respiratoire, reflétant l’activité du système nerveux autonome parasympathique.RSA is representative of the interaction between cardiac activity and respiratory activity, reflecting the activity of the parasympathetic autonomic nervous system.

Ainsi, le procédé selon l’invention peut s’appliquer à l’activité cardiaque seule, à l’activité respiratoire seule ou aux deux activités.Thus, the method according to the invention can be applied to cardiac activity alone, to respiratory activity alone or to both activities.

En fonction de l’activité utilisée, on peut calculer une ou plusieurs des fonctions listées ci-dessus.Depending on the activity used, one or more of the functions listed above can be calculated.

Selon une caractéristique avantageuse de l’invention, la durée T1 est de minimum 30 secondes avec un pas de glissement de minimum 1 milliseconde ; de préférence la durée T1 est comprise entre 30 secondes et 5 minutes avec un pas de glissement compris entre 1 milliseconde et 15 secondes ; idéalement la durée T1 est comprise entre 30 secondes et 1 minute15 secondes avec un pas de glissement compris entre 3 secondes et 5 secondes.According to an advantageous characteristic of the invention, the duration T1 is at least 30 seconds with a sliding step of at least 1 millisecond; preferably the duration T1 is between 30 seconds and 5 minutes with a sliding step of between 1 millisecond and 15 seconds; ideally the duration T1 is between 30 seconds and 1 minute 15 seconds with a sliding step of between 3 seconds and 5 seconds.

La durée T1 correspond aux grandes fenêtres temporelles qui sont appliquées de manière glissante, avec un décalage temporel fixe ou pas.The T1 duration corresponds to large time windows which are applied in a sliding manner, with a fixed time shift or not.

Les données physiologiques obtenues à partir de ces fenêtres longues, notamment au-delà de la minute, permettent par exemple le calcul de la variabilité de la fréquence cardiaque (HRV) qui nécessite d’attendre plusieurs battements cardiaques pour être calculée.The physiological data obtained from these long windows, particularly beyond the minute, allow for example the calculation of heart rate variability (HRV) which requires waiting for several heartbeats to be calculated.

Avantageusement, la durée T3 peut être de minimum 375 millisecondes, ou comprise entre 375 millisecondes et 30 secondes, ou comprise entre 1 et 5 secondes, avec un pas de minimum 1 milliseconde.Advantageously, the duration T3 can be a minimum of 375 milliseconds, or between 375 milliseconds and 30 seconds, or between 1 and 5 seconds, with a step of at least 1 millisecond.

La fenêtre longue peut avoir une durée de 1 min (T1), et être appliquée de manière glissante par pas de 3 secondes pendant toute la durée d’observation du sujet.The long window can have a duration of 1 min (T1), and be applied in a sliding manner in steps of 3 seconds during the entire observation time of the subject.

La fenêtre courte peut avoir une durée de 3 secondes (T3), et être appliquée de manière glissante par pas de 500ms pendant toute la durée d’observation du sujet.The short window can have a duration of 3 seconds (T3), and be applied in a sliding manner in steps of 500ms during the entire observation time of the subject.

Selon l’invention, le premier signal radio fréquence peut être un signal radar à ondes entretenues modulés selon un protocole FMCW (pour « Frequency-Modulated Continuous Wave » en anglais) ou encore un signal ultra large bande ULB (ou UWB pour “Ultra Wide Band” en anglais)According to the invention, the first radio frequency signal may be a continuous wave radar signal modulated according to an FMCW protocol (for “Frequency-Modulated Continuous Wave” in English) or an ultra wide band ULB signal (or UWB for “Ultra Wide Band” in English).

A titre d’exemple, le radar FMCW peut fonctionner dans les deux bandes de fréquences [57-64GHz] et [76-81GHz] maximale de 4 GHz. Le radar UWB peut fonctionner sur une plage comprise entre 6 et 8,5 Ghz.For example, FMCW radar can operate in both frequency bands [57-64GHz] and [76-81GHz] up to 4 GHz. UWB radar can operate in a range between 6 and 8.5 GHz.

Selon l’invention, les données respiratoires et/ou les données cardiaques peuvent subir une étape de normalisation avant application des fenêtres temporelles.According to the invention, the respiratory data and/or the cardiac data may undergo a normalization step before applying the time windows.

Ainsi, selon l’invention, les données issues des activités cardiaques et/ou respiratoires sont traitées indépendamment à travers deux fenêtres glissantes longues F1 et courtes F3 pour en extraire une ou plusieurs données parmi :

  • L’intégralité des signaux cardiaques présente dans les fenêtres successives F1
  • L’intégralité des signaux respiratoires présente dans les fenêtres successives F1
  • Des mesures cardiaques clé issues des temporalités F1 : par exemple HRV (“Heart Rate Variability”)
  • Des mesures respiratoires clé issues des temporalités F1 : par exemple RRV (“Respiratory Rate Variability”), BPA (“Breathing Pattern Analysis”, RAV (“Respiratory Amplitude Variability”)
  • Des mesures reflettant la synchronisation entre activité cardiaque et respiratoire issues des temporalités F1, par exemple RSA (“Respiratory Sinus Arrythmia”)
  • L’intégralité des signaux cardiaques présente dans les fenêtres successives F3
  • L’intégralité des signaux respiratoires présente dans les fenêtres successives F3.
Thus, according to the invention, the data from cardiac and/or respiratory activities are processed independently through two long sliding windows F1 and short sliding windows F3 to extract one or more data from among:
  • The entirety of the cardiac signals present in the successive F1 windows
  • All respiratory signals present in successive F1 windows
  • Key cardiac measurements from F1 timescales: for example HRV (“Heart Rate Variability”)
  • Key respiratory measures from F1 timescales: for example RRV (“Respiratory Rate Variability”), BPA (“Breathing Pattern Analysis”, RAV (“Respiratory Amplitude Variability”)
  • Measures reflecting the synchronization between cardiac and respiratory activity from F1 temporalities, for example RSA (“Respiratory Sinus Arrythmia”)
  • The entirety of the cardiac signals present in the successive F3 windows
  • All respiratory signals present in successive windows F3.

Ces données sont alors utilisées par le modèle d’émotion pour prédire des émotions.This data is then used by the emotion model to predict emotions.

Des données supplémentaires provenant d’autres types de capteurs que les antennes précitées peuvent être utilisées en exploitation pour aider à pondérer les résultats en sortie du modèle IA Deep-Learning choisi.Additional data from other types of sensors than the aforementioned antennas can be used in operation to help weight the output results of the chosen Deep-Learning AI model.

Avec l’invention, grâce à l’analyse des caractéristiques des données des domaines temporels et fréquentiels, la fréquence cardiaque périodique et les données respiratoires sont extraites.With the invention, through the analysis of the characteristics of the time and frequency domain data, the periodic heart rate and respiratory data are extracted.

Les sorties des capteurs radar sont des représentations des activités physiologiques dans leurs propres espaces dimensionnels, temporels ou fréquentiels intégrés dans le signal de bruit. Le signal est filtré et traité pour révéler aussi précisément que techniquement possible le signal physiologique du signal en bande de base converti.Radar sensor outputs are representations of physiological activities in their own dimensional, temporal, or frequency spaces embedded in the noise signal. The signal is filtered and processed to reveal as accurately as technically possible the physiological signal from the converted baseband signal.

Un algorithme de suppression du fouillis peut être mis en œuvre. A travers une fenêtre (glissante dans le temps) d’émission et de réception appliquée sur la signature recherchée, les états statiques ainsi que les mouvements lents, donc différents des modulations recherchées : cage thoracique, activité cardiaque et respiratoire, sont exclus.. L’interférence entre les harmoniques et la fréquence fondamentale du cœur et de la respiration peut être améliorée par la mise en œuvre d’un algorithme de décomposition empirique en modes ensembles et la décomposition du signal en une Fonction de Mode Intrinsèque (IMF, «Intrinsic Mode Function » en langue anglaise). L’amélioration du rythme cardiaque et respiratoire peut être assurée par la transformée en ondelettes continue (CWT).A clutter suppression algorithm can be implemented. Through a (sliding in time) window of transmission and reception applied to the desired signature, static states as well as slow movements, therefore different from the desired modulations: rib cage, cardiac and respiratory activity, are excluded. The interference between harmonics and the fundamental frequency of the heart and respiration can be improved by implementing an empirical mode set decomposition algorithm and decomposing the signal into an Intrinsic Mode Function (IMF). The improvement of the heart and respiratory rate can be ensured by the continuous wavelet transform (CWT).

L’invention permet d’extraire les signaux cardiaques et respiratoires complet selon les fenêtres temporelles courtes et longues choisies, mais également des caractéristiques classiques d’activités cardiaques et respiratoires tels que HRV, RRV, BPA, RAV, RSA et autres caractéristiques au sein d’un même battement cardiaque ou en rapport à la relation entre différentes caractéristiques cardiaques de battements cardiaques successifs.The invention makes it possible to extract complete cardiac and respiratory signals according to the chosen short and long time windows, but also classic characteristics of cardiac and respiratory activities such as HRV, RRV, BPA, RAV, RSA and other characteristics within the same heartbeat or in relation to the relationship between different cardiac characteristics of successive heartbeats.

Les données sont ensuite optionnellement normalisées et des valeurs manquantes peuvent être complétées si nécessaire. Toutes ces données peuvent ensuite être optionnellement converties en vecteurs pour être utilisés comme des entrées dans les modèles d’émotion à base d’intelligence artificielle.The data is then optionally normalized and missing values can be filled in if necessary. All of this data can then be optionally converted into vectors to be used as inputs to artificial intelligence-based emotion models.

Selon une caractéristique avantageuse de l’invention, le modèle d’émotion est constitué d’un ou plusieurs modèles d’apprentissage, simple, profond (« deep learning » en anglais) ou préférentiellement hybride.According to an advantageous characteristic of the invention, the emotion model is made up of one or more learning models, simple, deep (“deep learning” in English) or preferably hybrid.

Le modèle d’émotion peut comprendre un réseau neuronal récurrent hybride. Le réseau neuronal récurrent hybride permet au modèle d’intelligence artificielle d’être formé et évalué pour détecter et classer des changements significatifs dans les activités cardiaques et respiratoires à partir des caractéristiques cardiaques et respiratoires calculées.The emotion model may include a hybrid recurrent neural network. The hybrid recurrent neural network allows the artificial intelligence model to be trained and evaluated to detect and classify significant changes in cardiac and respiratory activities from the calculated cardiac and respiratory characteristics.

Le modèle d’émotion peut comprendre une fusion entre une unité récurrente fermée GRU ( pour « Gated recurrent unit » en anglais) et un réseau de mémoire à long terme et à court terme LSTM (pour “Long Short-term Memory” en anglais). De préférence, le réseau neuronal récurrent hybride résulte d’une telle fusion.The emotion model may comprise a fusion between a gated recurrent unit (GRU) and a long-short-term memory (LSTM) network. Preferably, the hybrid recurrent neural network results from such a fusion.

Une telle fusion est bien adaptée à l’analyse prédictive et de classification de séries chronologiques sur un ensemble de données raisonnablement petit. Cette fusion aboutit à un modèle amélioré et plus précis. Les réseaux GRU et LSTM sont combinés pour tirer parti de leurs atouts respectifs, notamment la capacité du GRU à identifier les dépendances à court terme et la capacité du LSTM à identifier les dépendances à long terme. En combinant les modèles LSTM et GRU, l’invention identifie différents types de motifs temporels ou dépendances présents dans les données, améliorant ainsi la capacité du modèle d’émotion à effectuer des prédictions précises avec une robustesse et une capacité de généralisation préservées. Cela réduit également les risques de surajustement et rend l’ensemble plus résilient au bruit ou aux incertitudes des données.Such a fusion is well-suited for predictive and classification analysis of time series on a reasonably small dataset. This fusion results in an improved and more accurate model. The GRU and LSTM networks are combined to take advantage of their respective strengths, including the ability of GRU to identify short-term dependencies and the ability of LSTM to identify long-term dependencies. By combining the LSTM and GRU models, the invention identifies different types of temporal patterns or dependencies present in the data, thereby improving the emotion model's ability to make accurate predictions with preserved robustness and generalization ability. This also reduces the risks of overfitting and makes the whole system more resilient to data noise or uncertainties.

De plus, la simplicité du GRU améliore l’explicabilité des décisions algorithmiques.Additionally, the simplicity of GRU improves the explainability of algorithmic decisions.

Avantageusement, le modèle d’émotion peut comprendre :Advantageously, the emotion model can include:

- un modèle de dynamique lente dédié aux données provenant des fenêtres temporelles F1,- a slow dynamics model dedicated to data from F1 time windows,

- un modèle de dynamique rapide dédié aux données des fenêtres temporelles F3, et- a fast dynamics model dedicated to F3 time window data, and

- un algorithme de prise de décision commun au modèle de dynamique lente et au modèle de dynamique rapide.- a decision-making algorithm common to the slow dynamics model and the fast dynamics model.

Selon une caractéristique avantageuse de l’invention, par exemple dans le cadre d’une utilisation d’un radar FMCW, l’émission du premier signal radio fréquence peut être réalisée au moyen de plusieurs antennes d’émission et la réception du deuxième signal radio fréquence peut être réalisée au moyen de plusieurs antennes de réception selon une technologie MIMO (pour « Multiple-Input Multiple-Output » en anglais).According to an advantageous characteristic of the invention, for example in the context of using an FMCW radar, the transmission of the first radio frequency signal can be carried out by means of several transmission antennas and the reception of the second radio frequency signal can be carried out by means of several reception antennas according to MIMO technology (for “Multiple-Input Multiple-Output” in English).

Le radar FMCW peut donc être basé sur un système cohérent MIMO avec plus d’une antenne émettrice et plus d’une antenne réceptrice. La formation de faisceau MIMO cohérente peut reposer sur un synthétiseur qui génère des gazouillis (« chirp » en anglais) suivant la méthode de modulation de phase binaire, ce qui permet l’émission simultanée de chaque antenne pour un meilleur rapport signal/bruit (SNR).FMCW radar can therefore be based on a coherent MIMO system with more than one transmitting antenna and more than one receiving antenna. Coherent MIMO beamforming can be based on a synthesizer that generates chirps using the binary phase modulation method, which allows simultaneous transmission from each antenna for a better signal-to-noise ratio (SNR).

Bien évidemment, l’invention peut être mise en œuvre avec des antennes simples, sans la technologie MIMO, avec d’autres technologies.Of course, the invention can be implemented with simple antennas, without MIMO technology, with other technologies.

Selon un autre aspect de l’invention, il est proposé un pour générer des données d’entraînement d’un modèle d’émotion à base d’intelligence artificielle, ce procédé comprenant les étapes suivantes pour un sujet :According to another aspect of the invention, there is provided a method for generating training data for an artificial intelligence-based emotion model, this method comprising the following steps for a subject:

- production d’un signal d’entraînement de durée T0 contenant des stimuli inducteurs d’émotions que le sujet reçoit,- production of a training signal of duration T0 containing emotion-inducing stimuli that the subject receives,

- émission d’un premier signal radio fréquence pendant la durée T0 en direction du sujet,- emission of a first radio frequency signal during the duration T0 towards the subject,

- réception d’un deuxième signal radio fréquence contenant un signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet,- reception of a second radio frequency signal containing a physiological signal due to the reflection of said first radio frequency signal on the subject,

- traitement numérique du deuxième signal radio fréquence de façon à générer des données respiratoires et/ou des données cardiaques.- digital processing of the second radio frequency signal so as to generate respiratory data and/or cardiac data.

Le procédé selon l’invention comprend en outre les étapes suivantes :The method according to the invention further comprises the following steps:

- définition d’une fenêtre temporelle F1 de durée T1 inférieure à T0,- definition of a time window F1 of duration T1 less than T0,

- application de plusieurs fenêtres temporelles F1 de manière glissante sur les données respiratoires et/ou les données cardiaques ; les données d’entrainement du modèle d’émotion comprenant des données provenant de chaque fenêtre temporelle F1,- applying multiple F1 time windows in a sliding manner to the respiratory data and/or cardiac data; the emotion model training data comprising data from each F1 time window,

- définition d’une fenêtre temporelle F2 de durée T2 inférieure à T1, et d’une fenêtre F3 de durée T3 inférieure à T2,- definition of a time window F2 of duration T2 less than T1, and of a window F3 of duration T3 less than T2,

- pendant l’émission du premier signal radio fréquence, détection d’événements en provenance du sujet ou calculés sur la base du comportement du sujet ;- during the emission of the first radio frequency signal, detection of events originating from the subject or calculated on the basis of the subject's behavior;

- à chaque événement, application de plusieurs fenêtres temporelles F3 de manière glissante sur les données respiratoires et/ou les données cardiaques d’une fenêtre temporelle F2 précédant l’événement ; les données d’entrainement du modèle d’émotion comprenant des données provenant de chaque fenêtre temporelle F3.- at each event, application of several F3 time windows in a sliding manner on the respiratory data and/or the cardiac data of a F2 time window preceding the event; the training data of the emotion model comprising data from each F3 time window.

Par événements en provenance du sujet ou calculés sur la base du comportement du sujet on entend tout événement à l’initiative du sujet ou pas. Il peut s’agir d’une réponse du sujet via une interface de saisie d’une unité de traitement ou d’un signal généré automatiquement par un outil de suivi de l’activité du sujet. Cet évenement peut être calculé sur la base de résultats issus d’autres capteurs physiologiques, par exemple des capteurs GSR (pour “Galvanic Skin Resistance” en anglais), des capteurs EEG (Electro-encephalographie), des capteurs EMG (Electromyographie), ou des capteurs PPG (Photoplethysmographie)Events originating from the subject or calculated based on the subject's behavior are understood to mean any event initiated by the subject or not. This may be a response from the subject via an input interface of a processing unit or a signal automatically generated by a tool for monitoring the subject's activity. This event may be calculated based on results from other physiological sensors, for example GSR (for "Galvanic Skin Resistance" in English), EEG (Electroencephalography) sensors, EMG (Electromyography) sensors, or PPG (Photoplethysmography) sensors.

Selon une caractéristique avantageuse de l’invention, le signal d’entraînement peut être un environnement de réalité virtuelle dans lequel est plongé le sujet. Ce signal d’entraînement peut être tout autre signal vidéo et/ou audio mais de préférence un environnement en réalité virtuelle 3D.According to an advantageous characteristic of the invention, the training signal may be a virtual reality environment in which the subject is immersed. This training signal may be any other video and/or audio signal but preferably a 3D virtual reality environment.

On entend par signal d’entraînement un signal contenant un ou plusieurs stimuli destinés à induire une émotion prédéterminée au sujet. Ce signal comprend des stimuli mais également des instants calmes, sans émotions, permettant la génération de labels de comparaison par rapport aux stimuli.A training signal is a signal containing one or more stimuli intended to induce a predetermined emotion in the subject. This signal includes stimuli but also calm, emotionless moments, allowing the generation of comparison labels with respect to the stimuli.

Selon un mode de réalisation de l’invention, le signal d’entraînement peut comprendre un ou plusieurs stimuli aptes à déclencher une unique émotion de stress auprès du sujet.According to one embodiment of the invention, the training signal may comprise one or more stimuli capable of triggering a single stress emotion in the subject.

Avec l’invention, on prévoit ainsi une caractérisation de la dynamique en temps-réel sur une seule dimension donnée, par exemple le stress, contrairement par exemple à une classification discrète de quatre émotions sur une fenêtre temporelle longue de par exemple 2min comme dans l’art antérieur.With the invention, we thus provide a characterization of the dynamics in real time on a single given dimension, for example stress, unlike for example a discrete classification of four emotions over a long time window of for example 2 min as in the prior art.

D’autres techniques de caractérisation peuvent être utilisées comme par exemple des dimensions continues Valence et Intensité en mesure indirecte, traduites ensuite en catégories émotionnelles ou en catégories de niveau (stress bas, médium, haut).Other characterization techniques can be used, such as continuous dimensions Valence and Intensity in indirect measurement, then translated into emotional categories or level categories (low, medium, high stress).

Selon une caractéristique avantageuse de l’invention, le signal d’entraînement peut comprendre plusieurs stimuli espacés temporellement, chaque stimulus étant apte à déclencher une même émotion prédéterminée ; les stimuli étant différentiés par leur niveau de difficulté, de complexité, de répétitivité, d’effort d’attention, de soudaineté ou de durée.According to an advantageous characteristic of the invention, the training signal can comprise several stimuli spaced apart in time, each stimulus being capable of triggering the same predetermined emotion; the stimuli being differentiated by their level of difficulty, complexity, repetitiveness, effort of attention, suddenness or duration.

On prévoit l’utilisation de stimuli multimodaux. Ces stimuli sont amenés à évoluer selon une variable indépendante contrôlée qui varie le long d’un axe quantitatif unidimensionnel. Il peut s’agir d’un niveau de difficulté, de complexité, de répétitivité, d’effort d’attention, de soudaineté ou encore d’une durée de tâche qui peut être objectivement mesurée ou estimée par des évaluateurs et qui a un impact sur la physiologie sans nécessiter de retours verbaux de la part du sujet. Un tel stimulus peut entraîner l’induction d’un état interne associé tel que le stress, la charge cognitive, la concentration, l’effet tunnel, l’ennui, la somnolence, la fatigue, la surprise, la peur.The use of multimodal stimuli is planned. These stimuli are made to evolve according to a controlled independent variable that varies along a unidimensional quantitative axis. This could be a level of difficulty, complexity, repetitiveness, attention effort, suddenness or even a task duration that can be objectively measured or estimated by evaluators and that has an impact on physiology without requiring verbal feedback from the subject. Such a stimulus can lead to the induction of an associated internal state such as stress, cognitive load, concentration, tunnel effect, boredom, drowsiness, fatigue, surprise, fear.

En d’autres termes, tous les stimuli peuvent par exemple induire un certain type de stress en faisant varier notamment la difficulté de la tâche subie par le sujet pour induire des périodes de stress plus ou moins fortes, mais on peut également envisager d’induire différents types d’émotions : stress, peur, joie etc… De manière générale, on prévoit également des périodes de calme pour pouvoir permettre une classification.In other words, all stimuli can, for example, induce a certain type of stress by varying the difficulty of the task undergone by the subject to induce periods of more or less strong stress, but we can also consider inducing different types of emotions: stress, fear, joy, etc. Generally speaking, we also plan periods of calm to allow for classification.

Avantageusement, la durée T2 peut être comprise entre 1 seconde et 30 secondes ; la durée T3 peut être de minimum 375 millisecondes, ou comprise entre 375 millisecondes et 30 secondes, ou comprise entre 1 et 5 secondes, avec un pas de minimum 1 milliseconde.Advantageously, the duration T2 can be between 1 second and 30 seconds; the duration T3 can be at least 375 milliseconds, or between 375 milliseconds and 30 seconds, or between 1 and 5 seconds, with a step of at least 1 millisecond.

La durée minimale de T3 correspond à un unique battement cardiaque d’un nouveau-né par exemple.The minimum duration of T3 corresponds to a single heartbeat of a newborn, for example.

A chaque réponse du sujet, on applique plusieurs fenêtres temporelles F3 de manière glissante, avec un décalage temporel fixe ou pas.For each response from the subject, several F3 time windows are applied in a sliding manner, with a fixed time shift or not.

On peut envisager, un signal d’entraînement qui dure 3 min (T0). Le sujet est libre de faire une réponse à un ressenti émotionnel lorsqu’il le souhaite, notamment de manière régulière et surtout quand il ressent un changement émotionnel fort.We can consider a training signal that lasts 3 minutes (T0). The subject is free to respond to an emotional feeling whenever he wishes, particularly on a regular basis and especially when he feels a strong emotional change.

La fenêtre longue peut avoir une durée de 1 min (T1), et être appliquée de manière glissante par pas de 3 secondes pendant toute la durée d’observation du sujet.The long window can have a duration of 1 min (T1), and be applied in a sliding manner in steps of 3 seconds during the entire observation time of the subject.

Pour la fenêtre courte, on peut pré-segmenter une période d’intérêt de 10 secondes (T2) en amont de chaque réponse déclenchée par le sujet, et au sein de cette période d’intérêt, on récupère les données des fenêtres temporelles courtes de 3 secondes (T3) par pas de 500 ms par exemple, ce qui fait 15 extraits de 3 secondes.For the short window, we can pre-segment a 10-second period of interest (T2) before each response triggered by the subject, and within this period of interest, we retrieve the data from the short 3-second time windows (T3) in steps of 500 ms for example, which makes 15 3-second extracts.

Avec le procédé selon l’invention, après avoir été entraîné, le modèle d’émotion peut être déployé sur une plateforme de type « edge computing » ou embarquée connectée à des capteurs radar pointés vers un espace de travail ciblé. Une fois la cible humaine détectée, la solution démarre une étape d’initialisation en affinant le modèle sur cette cible spécifique avec des hyperparamètres et une architecture ajustés basés sur les premières données capturées et les données supplémentaires provenant de capteurs supplémentaires en option.With the method according to the invention, after being trained, the emotion model can be deployed on an edge computing or embedded platform connected to radar sensors pointed at a targeted workspace. Once the human target is detected, the solution starts an initialization step by fine-tuning the model on this specific target with adjusted hyperparameters and architecture based on the first captured data and additional data from optional additional sensors.

De façon générale, T1 peut être supérieure à 30 secondes et T3 peut être inférieure à 30 secondes.Generally, T1 can be greater than 30 seconds and T3 can be less than 30 seconds.

Selon encore un autre aspect de l’invention, il est proposé un système de détection d’une émotion chez un sujet comprenant :According to yet another aspect of the invention, there is provided a system for detecting an emotion in a subject comprising:

- une unité de traitement dotée d’un modèle d’émotion et configurée pour mettre en œuvre un procédé de détection d’une émotion chez un sujet tel que décrit ci-dessus,- a processing unit provided with an emotion model and configured to implement a method for detecting an emotion in a subject as described above,

- au moins une antenne d’émission connectée à l’unité de traitement et disposée pour émettre le premier signal radio fréquence en direction du sujet,- at least one transmitting antenna connected to the processing unit and arranged to transmit the first radio frequency signal towards the subject,

- au moins une antenne de réception connectée à l’unité de traitement et disposée pour recevoir le deuxième signal radio fréquence contenant le signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet.- at least one receiving antenna connected to the processing unit and arranged to receive the second radio frequency signal containing the physiological signal due to the reflection of said first radio frequency signal on the subject.

Le système selon l’invention comprend les avantages suivants :The system according to the invention includes the following advantages:

- non intrusif : contrairement aux systèmes basés sur des caméras, qui nécessitent la capture d’images visuelles d’individus, le radar à ondes millimétriques fonctionne dans le spectre des fréquences radio. Cela rend le système non intrusif et respecte la vie privée, car il ne capture aucune information visuelle identifiable telle que les traits du visage, la couleur de la peau ou les vêtements.- Non-intrusive: Unlike camera-based systems, which require capturing visual images of individuals, millimeter-wave radar operates within the radio frequency spectrum. This makes the system non-intrusive and privacy-friendly, as it does not capture any identifiable visual information such as facial features, skin color, or clothing.

- robustesse aux conditions d’éclairage : les systèmes basés sur des caméras sont sensibles aux conditions d’éclairage, et les changements d’éclairage peuvent affecter considérablement la précision de la reconnaissance des émotions. Cependant, le radar à ondes millimétriques fonctionne indépendamment des conditions d’éclairage, car il utilise des ondes radio qui ne sont pas affectées par les changements de la lumière ambiante, ce qui le rend adapté aux environnements intérieurs et extérieurs.- Robustness to lighting conditions: Camera-based systems are sensitive to lighting conditions, and changes in lighting can significantly affect the accuracy of emotion recognition. However, millimeter-wave radar operates independently of lighting conditions because it uses radio waves that are not affected by changes in ambient light, making it suitable for both indoor and outdoor environments.

- insensible aux occlusions : les caméras peuvent être obstruées par divers objets, tels que des mains, des accessoires ou d’autres personnes, ce qui entraîne des résultats de reconnaissance des émotions inexacts. En revanche, le radar à ondes millimétriques est capable de pénétrer à travers certains matériaux, notamment le tissu, le plastique et les fines barrières, ce qui le rend moins sensible aux occlusions et fournit des résultats de reconnaissance des émotions plus fiables.- Insensitive to occlusions: Cameras can be obstructed by various objects, such as hands, accessories, or other people, resulting in inaccurate emotion recognition results. In contrast, millimeter wave radar is able to penetrate certain materials, including fabric, plastic, and thin barriers, making it less sensitive to occlusions and providing more reliable emotion recognition results.

- centrée sur la physiologie interne : bien qu’il puisse être facile pour un sujet de contrôler l’expression faciale et comportementale des émotions, la physiologie du corps peut difficilement être contrôlée consciemment et la présente invention peut donc difficilement être trompée.- focused on internal physiology: although it may be easy for a subject to control the facial and behavioral expression of emotions, the physiology of the body can hardly be consciously controlled and the present invention can therefore hardly be deceived.

Selon l’invention, le système peut comprendre un boîtier relais disposé à proximité des antennes d’émission et de réception ; l’unité de traitement étant distante et connectée au boîtier relais via un réseau de communication de type internet ; l’unité de traitement communiquant avec les antennes d’émission et de réception via le boîtier relais.According to the invention, the system may comprise a relay box arranged near the transmitting and receiving antennas; the processing unit being remote and connected to the relay box via an internet-type communication network; the processing unit communicating with the transmitting and receiving antennas via the relay box.

Par proximité on entend une distance permettant une communication avec ou sans fil avec les antennes avec une qualité de signal permettant le bon fonctionnement du système.Proximity means a distance allowing wired or wireless communication with the antennas with a signal quality allowing the system to function properly.

L’unité de traitement peut également être embarquée localement et connectée directement avec les antennes d’émission et réception.The processing unit can also be embedded locally and connected directly to the transmitting and receiving antennas.

Les domaines d’application de l’invention peuvent comprendre :The fields of application of the invention may include:

- l’industrie : la présente invention peut être installée sur des postes de travail en combinaison avec le système de l’entreprise et un moteur de règles dédié pour accompagner les opérateurs dans leur travail quotidien et améliorer leur bien-être. L’objectif peut être de favoriser les interactions, réduisant ainsi le stress au travail. Cela se traduit par moins d’absentéisme, moins d’accidents, une augmentation de la productivité et une diminution des coûts indirects.- industry: the present invention can be installed on workstations in combination with the company's system and a dedicated rules engine to support operators in their daily work and improve their well-being. The objective may be to promote interactions, thus reducing stress at work. This results in less absenteeism, fewer accidents, increased productivity and reduced indirect costs.

- la conception : intégrée à la phase de développement d’un produit ou d’un environnement, la présente invention permet à chaque itération de considérer le facteur humain afin d’évaluer les zones de friction et d’optimiser l’interaction entre les utilisateurs et le produit.- design: integrated into the development phase of a product or environment, the present invention allows each iteration to consider the human factor in order to evaluate areas of friction and optimize the interaction between users and the product.

- la formation : intégrée à l’outil de formation, que la formation soit en présentiel, en virtuel ou à distance, la présente invention permet au formateur de mieux comprendre l’état émotionnel interne des participants pour personnaliser le format et le contenu dans le transfert de connaissances.- training: integrated into the training tool, whether the training is face-to-face, virtual or remote, the present invention allows the trainer to better understand the internal emotional state of the participants in order to personalize the format and content in the transfer of knowledge.

- la robotique sociale : les robots sociaux doivent être capables de comprendre l’émotion de leurs interlocuteurs pour adapter leur comportement et ainsi faciliter les interactions entre l’homme et la machine tout en favorisant leur acceptation.- social robotics: social robots must be able to understand the emotions of their interlocutors in order to adapt their behavior and thus facilitate interactions between humans and machines while promoting their acceptance.

- les soins de santé : la présente invention peut aider le personnel médical et social à annoncer un diagnostic difficile en lui fournissant des informations supplémentaires sur le ressenti interne des patients. Il peut également capter les sentiments intérieurs d’un patient ou d’un jeune enfant incapable de les verbaliser.- healthcare: the present invention can help medical and social workers to announce a difficult diagnosis by providing them with additional information about the internal feelings of patients. It can also capture the inner feelings of a patient or a young child who is unable to verbalize them.

- la santé animale : la présente invention peut aider à la gestion du stress chez les animaux domestiques et chez les animaux de ferme destinés à l’abattoir.- animal health: the present invention can help in stress management in domestic animals and in farm animals intended for slaughter.

- le divertissement : couplée à un moteur de règles, la présente invention peut prendre en compte les émotions d’un joueur pour proposer une « jouabilité » (« gameplay » en anglais) ou un scénario de jeu vidéo plus personnalisé.- entertainment: coupled with a rules engine, the present invention can take into account the emotions of a player to offer a more personalized “gameplay” or video game scenario.

- la maison intelligente : couplée à un moteur de règles de décision, la présente invention peut être installée dans des espaces de vie et de travail pour modifier l’environnement esthétique et sensoriel en fonction des ressentis de ses occupants.- the smart home: coupled with a decision rules engine, the present invention can be installed in living and working spaces to modify the aesthetic and sensory environment based on the feelings of its occupants.

D’autres caractéristiques et avantages de l’invention apparaîtront à la lecture de la description détaillée de mises en œuvre et de modes de réalisation nullement limitatifs, au regard de figures annexées sur lesquelles :Other characteristics and advantages of the invention will appear on reading the detailed description of implementations and embodiments which are in no way limiting, with regard to the appended figures in which:

FIG. 1- laFIG. 1est une vue schématique illustrant le déroulement global pour la génération selon l’invention de caractéristiques cardiaques comme données d’entraînement d’un modèle d’intelligence artificielle ; FIG. 1 - there FIG. 1 is a schematic view illustrating the overall flow for the generation according to the invention of cardiac characteristics as training data for an artificial intelligence model;

FIG. 2- laFIG. 2est une vue schématique illustrant l’utilisation selon l’invention des fenêtres temporelles grandes et petites lors de traitement des signaux radiofréquences provenant de l’utilisateur ; FIG. 2 - there FIG. 2 is a schematic view illustrating the use according to the invention of large and small time windows when processing radiofrequency signals coming from the user;

FIG. 3- laFIG. 3est une vue schématique illustrant le déroulement global pour la prédiction d’une émotion à partir d’un modèle d’émotion selon l’invention ; FIG. 3 - there FIG. 3 is a schematic view illustrating the overall process for predicting an emotion from an emotion model according to the invention;

FIG. 4- laFIG. 4est une vue schématique illustrant la génération de données d’entraînement (en phase d‘entraînement) et des données utiles (en phase d’exploitation) à partir de données représentatives uniquement de l’activité cardiaque selon l’invention ; FIG. 4 - there FIG. 4 is a schematic view illustrating the generation of training data (in the training phase) and useful data (in the exploitation phase) from data representative only of cardiac activity according to the invention;

FIG. 5- laFIG. 5est une vue schématique illustrant la génération de données d’entraînement (en phase d‘entraînement) et des données utiles (en phase d’exploitation) à partir de données représentatives uniquement de l’activité respiratoire selon l’invention ; FIG. 5 - there FIG. 5 is a schematic view illustrating the generation of training data (in the training phase) and useful data (in the exploitation phase) from data representative only of the respiratory activity according to the invention;

FIG. 6- laFIG. 6est une vue schématique illustrant la génération de données d’entraînement (en phase d‘entraînement) et des données utiles (en phase d’exploitation) à partir de données représentatives de l’activité cardiaque et de données représentatives de l’activité respiratoire selon l’invention ; FIG. 6 - there FIG. 6 is a schematic view illustrating the generation of training data (in the training phase) and useful data (in the exploitation phase) from data representative of cardiac activity and data representative of respiratory activity according to the invention;

FIG. 7- laFIG. 7est un organigramme illustrant des étapes d’un traitement numérique des signaux radars pour l’obtention des données représentatives de l’activité respiratoire et des données représentatives de l’activité cardiaque selon l’invention ; et FIG. 7 - there FIG. 7 is a flowchart illustrating steps of digital processing of radar signals to obtain data representative of respiratory activity and data representative of cardiac activity according to the invention; and

FIG. 8- laFIG. 8est une vue générale illustrant l’environnement de travail d’un utilisateur, environnement dans lequel sont disposés des composants pour la mise en œuvre du procédé selon l’invention. FIG. 8 - there FIG. 8 is a general view illustrating the working environment of a user, an environment in which components are arranged for implementing the method according to the invention.

Les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs ; on pourra notamment mettre en œuvre des variantes de l’invention ne comprenant qu’une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l’invention par rapport à l’état de la technique antérieur. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour conférer un avantage technique ou pour différencier l’invention par rapport à l’état de la technique antérieur.The embodiments which will be described below are in no way limiting; it will be possible in particular to implement variants of the invention comprising only a selection of characteristics described below isolated from the other characteristics described, if this selection of characteristics is sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art. This selection comprises at least one preferably functional characteristic without structural details, or with only a part of the structural details if this part alone is sufficient to confer a technical advantage or to differentiate the invention compared to the state of the prior art.

D’une façon générale, la conception d’un modèle d’intelligence artificielle comporte une phase d’entraînement au cours de laquelle on alimente un modèle d’intelligence artificielle avec de nombreuses données d’entraînement spécifiques. L’objectif est d’explorer un maximum de situations pour que la machine développe la capacité de prédiction.Generally speaking, the design of an artificial intelligence model involves a training phase during which the artificial intelligence model is fed with a large amount of specific training data. The goal is to explore as many situations as possible so that the machine develops its predictive capacity.

LaFIG. 1concerne la phase d’entraînement. On distingue un utilisateur 1 équipé d’un casque 2 de réalité virtuelle. Ce casque 2 est connecté à une unité de traitement non représentée sur laFIG. 1.There FIG. 1 concerns the training phase. We can see a user 1 equipped with a virtual reality headset 2. This headset 2 is connected to a processing unit not shown in the FIG. 1 .

Un signal d’entraînement 3 est mis en lecture dans le casque 2. De préférence, le signal d’entraînement 3 est un environnement 3D comprenant des vidéos et de l’audio dans lequel l’utilisateur 1 est plongé, et selon les situations, avec lequel il peut possiblement interagir.A training signal 3 is played in the headset 2. Preferably, the training signal 3 is a 3D environment comprising videos and audio in which the user 1 is immersed, and depending on the situations, with which he can possibly interact.

Des stimuli sont intégrés dans cet environnement et ont pour vocation de créer une émotion prédéterminée auprès de l’utilisateur. Il peut s’agir de différents stimuli placés dans des instants différents durant la lecture du signal d’entraînement. A titre d’exemple, on peut prévoir une durée T0 de lecture du signal d’entraînement égale à 3min. D’autres durées peuvent être envisagées proche de la minute ou plusieurs minutes, jusque par exemple 120 minutes.Stimuli are integrated into this environment and are intended to create a predetermined emotion in the user. These can be different stimuli placed at different times during the playback of the training signal. For example, a playback duration T0 of the training signal can be planned equal to 3 minutes. Other durations can be considered close to a minute or several minutes, up to 120 minutes for example.

On peut envisager un stimulus apte à provoquer la même émotion et auquel on applique des variations le long de la lecture. Il s’agit d’un stimulus multimodal qui varie par exemple en fonction de la complexité.We can consider a stimulus capable of provoking the same emotion and to which we apply variations throughout the reading. This is a multimodal stimulus which varies, for example, according to complexity.

Lors de la lecture du signal d’entraînement, il peut être demandé à l’utilisateur de signaler dès qu’il ressent une émotion. Ce signalement peut se faire par tout moyen, notamment en manipulant une entrée de l’unité de traitement. Cette entrée peut être une souris, un clavier ou toute autre moyen d’interfaçage.When reading the training signal, the user may be asked to report whenever they feel an emotion. This reporting can be done by any means, including manipulating an input to the processing unit. This input may be a mouse, a keyboard, or any other interface.

Pendant la lecture du signal d’entraînement, un premier signal radio fréquence 4 est envoyé en direction de l’utilisateur 1. La réflexion de ce premier signal radio fréquence, notamment sur l’utilisateur 1, produit un deuxième signal radio fréquence 5 qui est capté pour traitement. Sur laFIG. 1, une antenne de transmission Tx émet le premier signal radio fréquence 4 et une antenne de réception Rx capte le deuxième signal radio fréquence 5.During the reading of the training signal, a first radio frequency signal 4 is sent towards the user 1. The reflection of this first radio frequency signal, in particular on the user 1, produces a second radio frequency signal 5 which is captured for processing. On the FIG. 1 , a transmitting antenna Tx transmits the first radio frequency signal 4 and a receiving antenna Rx picks up the second radio frequency signal 5.

De préférence, l’antenne d’émission Tx et l’antenne de réception Rx font partie d’un radar à ondes entretenues modulés en fréquence FMCW fonctionnant sur une plage comprise entre 57GHz et 64GHz ou 76GHz et 81GHz avec une bande passante maximale de 4 GHz. L'unité radar FMCW est basée sur le système cohérent MIMO (Multiple Input Multiple Output) avec plusieurs antennes Tx et plusieurs antennes Rx. D'autres technologies peuvent être utilisées comme par exemple l’ultra large bande. La formation de faisceau MIMO cohérente repose sur un synthétiseur qui génère des chirps (signal pseudo-périodique modulé n fréquence et en amplitude) suivant la méthode de modulation de phase binaire, ce qui permet l'émission simultanée de chaque antenne pour un meilleur rapport signal/bruit (SNR). Les chirps transmis sont programmés dynamiquement et les trames sont divisées en plusieurs sous-trames. Deux sous-trames simultanées sont configurées indépendamment via une interface périphérique série (SPI) en contrôlant la période de rafale, la période de sous-trame, le numéro de boucle et le rapport cyclique. Cette flexibilité de configuration permet de détecter des micro-mouvements dans la zone de couverture du radar. La configuration et la génération de ces profils de sous-trames sont effectuées par un module chirp et un tampon au sein de l’unité de traitement.Preferably, the transmitting antenna Tx and the receiving antenna Rx are part of a frequency modulated continuous wave radar FMCW operating in a range between 57GHz and 64GHz or 76GHz and 81GHz with a maximum bandwidth of 4 GHz. The FMCW radar unit is based on the coherent MIMO (Multiple Input Multiple Output) system with several Tx antennas and several Rx antennas. Other technologies can be used, such as ultra-wideband. The coherent MIMO beamforming is based on a synthesizer that generates chirps (frequency and amplitude modulated pseudo-periodic signal) following the binary phase modulation method, which allows the simultaneous transmission of each antenna for a better signal-to-noise ratio (SNR). The transmitted chirps are dynamically scheduled and the frames are divided into several subframes. Two simultaneous subframes are configured independently via a serial peripheral interface (SPI) by controlling the burst period, subframe period, loop number, and duty cycle. This configuration flexibility allows for the detection of micro-motions within the radar coverage area. The configuration and generation of these subframe profiles are performed by a chirp module and a buffer within the processing unit.

Le deuxième signal radio fréquence reçu renferme des données physiologiques de l’utilisateur 1. Le traitement 6 sur ce signal radio fréquence 5 a pour but de déterminer un signal 6a représentatif de l’activité respiratoire et un signal 6b représentatif de l’activité cardiaque. Une fenêtre F1 est appliquée au signal 6a représentatif de l’activité respiratoire de façon à générer des données DF1 utiles comme données d’entraînement du modèle d’intelligence artificielle 8. Une fenêtre F3 est appliquée au signal 6b représentatif de l’activité cardiaque de façon à générer des données DF3 utiles comme données d’entraînement du modèle d’intelligence artificielle 8. Les données DF1 et DF3 renferment des caractéristiques cardiaques et respiratoires de l’utilisateur 1 que l’entraînement du modèle d’intelligence artificielle 8 va permettre de mettre en évidence.The second radio frequency signal received contains physiological data of the user 1. The processing 6 on this radio frequency signal 5 aims to determine a signal 6a representative of the respiratory activity and a signal 6b representative of the cardiac activity. A window F1 is applied to the signal 6a representative of the respiratory activity so as to generate data DF1 useful as training data for the artificial intelligence model 8. A window F3 is applied to the signal 6b representative of the cardiac activity so as to generate data DF3 useful as training data for the artificial intelligence model 8. The data DF1 and DF3 contain cardiac and respiratory characteristics of the user 1 that the training of the artificial intelligence model 8 will make it possible to highlight.

De nombreuses mesures sont réalisées avec de nombreux utilisateurs pour une seule ou différentes émotions connues prédéterminées. Sur laFIG. 2on voit une ligne temporelle de 0 à T0 correspondant à la durée du signal d’entraînement 3 de laFIG. 1. Ce signal d’entraînement peut être un signal vidéo qui dure 3min. Les repères 9 et 10 sont des instants auxquels l’utilisateur, plongé dans l’environnement virtuel, signale avoir ressenti une émotion. L’utilisateur est incité à se manifester quand il le souhaite, surtout quand il vit un changement émotionnel fort.Many measurements are made with many users for a single or different predetermined known emotions. On the FIG. 2 we see a time line from 0 to T0 corresponding to the duration of the training signal 3 of the FIG. 1 This training signal can be a video signal that lasts 3 minutes. Markers 9 and 10 are moments at which the user, immersed in the virtual environment, reports having felt an emotion. The user is encouraged to express themselves whenever they wish, especially when they experience a strong emotional change.

Selon l’invention, on applique de manière glissante une grande fenêtre F1 par exemple de durée égale à 1minute, par pas de 3 secondes, en commençant au début de la vidéo, soit 41 extraits par vidéo. Sur laFIG. 1, le signal DF1 représente les données correspondant aux fenêtres F1.According to the invention, a large window F1 is applied in a sliding manner, for example of duration equal to 1 minute, in steps of 3 seconds, starting at the beginning of the video, i.e. 41 extracts per video. On the FIG. 1 , the DF1 signal represents the data corresponding to the F1 windows.

On applique également une fenêtre courte F2, qui est une période d'intérêt de 10 secondes en amont de chaque réponse 9 et 10 de l’utilisateur. Au sein de cette période d'intérêt, on applique des fenêtres courtes F3 par exemple de durée égale à 3 secondes, par pas de 500 ms, en commençant au début de la fenêtre F2, soit 15 extraits par fenêtre F2, sur lesquelles l’entraînement permettra de déceler des caractéristiques cardiaques.We also apply a short window F2, which is a period of interest of 10 seconds before each response 9 and 10 of the user. Within this period of interest, we apply short windows F3 for example of duration equal to 3 seconds, in steps of 500 ms, starting at the beginning of the window F2, i.e. 15 extracts per window F2, on which the training will make it possible to detect cardiac characteristics.

Une fois le modèle d’intelligence artificielle entraîné et paramétré, il constitue le modèle d’émotion utilisable en exploitation.Once the artificial intelligence model is trained and configured, it constitutes the emotion model that can be used in operation.

Sur laFIG. 3on distingue un utilisateur 11 en activité recevant en permanence le premier signal radio fréquence 4. Le deuxième signal radio fréquence 5 provenant de l’utilisateur est capté pour subir un traitement 6 identique au traitement lors de l’entraînement. La différence entre la phase d’entraînement et la phase d’exploitation est notamment l’utilisation des fenêtres temporelles.On the FIG. 3 we distinguish a user 11 in activity permanently receiving the first radio frequency signal 4. The second radio frequency signal 5 coming from the user is captured to undergo processing 6 identical to the processing during training. The difference between the training phase and the exploitation phase is in particular the use of time windows.

Les fenêtres temporelles F1 sont appliquées de manière glissante et continue durant toute une période d’observation de l’utilisateur. De préférence, on n’est plus limitée à la durée T0 du signal d’entraînement.The F1 time windows are applied in a sliding and continuous manner throughout a user observation period. Preferably, we are no longer limited to the duration T0 of the training signal.

Les fenêtres temporelles F2 ne sont pas utilisées en phase d’exploitation. En effet, on applique de manière glissante et continue les fenêtres temporelles F3.F2 time windows are not used in the operating phase. In fact, F3 time windows are applied in a sliding and continuous manner.

Ainsi, en exploitation, les fenêtres temporelles F1 et les fenêtres temporelles F3 sont appliquées en continue tout au long d’une période d’observation de l’utilisateur.Thus, in operation, the F1 time windows and the F3 time windows are applied continuously throughout a user observation period.

La période d’observation n’est pas forcément en continue pendant toute la journée. Cette période d’observation peut être déclenchée en fonction d'information captée dans l'environnement. Par exemple, n'activer le traitement et/ou l’application des fenêtres temporelles que sur des étapes difficiles d’une tâche en cours de réalisation par l’utilisateur ou que lors de la survenue d'une alerte extérieure, par exemple, une situation d'urgence.The observation period does not necessarily run continuously throughout the day. This observation period can be triggered based on information captured in the environment. For example, only activate processing and/or the application of time windows during difficult stages of a task being performed by the user or only when an external alert occurs, for example, an emergency situation.

Les données DF1 et DF3 sur laFIG. 3alimentent un modèle d’émotion 12 qui est donc apte à identifier des caractéristiques cardiaques et respiratoires pour permettre une prédiction en temps réel d’une émotion 13. Le modèle 12 peut avantageusement être issu de l’entraînement du modèle d’entrainement 8 de laFIG. 1.DF1 and DF3 data on the FIG. 3 feed an emotion model 12 which is therefore capable of identifying cardiac and respiratory characteristics to enable real-time prediction of an emotion 13. The model 12 can advantageously be derived from the training of the training model 8 of the FIG. 1 .

LaFIG. 4est une vue schématique illustrant la génération de données d’entraînement (en phase d‘entraînement) et des données utiles (en phase d’exploitation) à partir de données représentatives uniquement de l’activité cardiaque selon l’invention.There FIG. 4 is a schematic view illustrating the generation of training data (in the training phase) and useful data (in the exploitation phase) from data representative only of cardiac activity according to the invention.

En effet, l’invention peut être mise en œuvre uniquement à partir de données représentatives de l’activité cardiaque.Indeed, the invention can be implemented only from data representative of cardiac activity.

A l’issue du traitement numérique 6, l’activité respiratoire 6a peut être déterminée et non utilisée ou bien elle peut tout simplement ne pas du tout être déterminée.At the end of the digital processing 6, the respiratory activity 6a can be determined and not used or it can simply not be determined at all.

L’activité cardiaque 6b est scindée en deux branches pour suivre des traitements en parallèle. Sur une première branche on applique la fenêtre F3, avec les limites des fenêtres F2 si on est en phase d’entraînement et sans limite des fenêtres F2 lorsqu’on est en phase d’exploitation. Les données DF3 issues de l’application de chaque fenêtre F3 alimente le modèle d’entraînement ou le modèle d’émotion.The 6b cardiac activity is split into two branches to follow parallel processing. On a first branch, the F3 window is applied, with the limits of the F2 windows if we are in the training phase and without limits of the F2 windows when we are in the exploitation phase. The DF3 data resulting from the application of each F3 window feeds the training model or the emotion model.

Sur la deuxième branche, on applique la fenêtre F1, avec la limite de la durée T0 si on est en phase d’entraînement et sans limite de la durée T0 lorsqu’on est en phase d’exploitation. Les données DF1a directement issues de l’application de la fenêtre F1 peuvent alimenter directement le modèle d’entraînement 8 ou le modèle d’émotion 12.On the second branch, we apply the F1 window, with the limit of the duration T0 if we are in the training phase and without limit of the duration T0 when we are in the exploitation phase. The DF1a data directly resulting from the application of the F1 window can directly feed the training model 8 or the emotion model 12.

L’invention prévoit également un mode de réalisation où les données DF1a directement issues de l’application de la fenêtre F1 sont d’abord transformées à l’étape 14 en une ou plusieurs valeurs DF1b avant d’alimenter le modèle d’entraînement 8 ou le modèle d’émotion 12.The invention also provides an embodiment where the DF1a data directly originating from the application of the F1 window are first transformed in step 14 into one or more DF1b values before feeding the training model 8 or the emotion model 12.

L’invention prévoit en outre un mode de réalisation où les données DF1a directement issues de l’application de la fenêtre F1 et les données DF1b provenant de la transformation des données DF1a à l’étape 14alimentent ensemble le modèle d’entraînement 8 (en phase d’entraînement) ou le modèle d’émotion 12 (en phase d’exploitation).The invention further provides an embodiment where the DF1a data directly originating from the application of the F1 window and the DF1b data originating from the transformation of the DF1a data in step 14 together feed the training model 8 (in the training phase) or the emotion model 12 (in the exploitation phase).

A l’étape 14, la transformation réalisée est le calcul d’une valeur de la variabilité de la fréquence cardiaque HRV.In step 14, the transformation performed is the calculation of a value of the variability of the heart rate HRV.

LaFIG. 5est une vue schématique illustrant la génération de données d’entraînement (en phase d‘entraînement) et des données utiles (en phase d’exploitation) à partir de données représentatives uniquement de l’activité cardiaque selon l’invention. On réalise les mêmes opérations que sur laFIG. 4sauf ici les données 6a de départ concernent uniquement l’activité respiratoire. Une autre différence est l’étape 14 de transformation au cours de laquelle on calcule au moins l’une des valeurs suivantes :There FIG. 5 is a schematic view illustrating the generation of training data (in the training phase) and useful data (in the exploitation phase) from data representative only of cardiac activity according to the invention. The same operations are carried out as in the FIG. 4 except here the initial data 6a concerns only respiratory activity. Another difference is the transformation step 14 during which at least one of the following values is calculated:

- une variabilité respiratoire (RRV pour “Respiratory Rate Variability” en anglais),- respiratory variability (RRV for “Respiratory Rate Variability” in English),

- un motif respiratoire (BPA pour “Breathing Pattern Analysis”en anglais),- a breathing pattern analysis (BPA),

- une amplitude respiratoire et sa variabilité (RAV pour “Respiratory Amplitude and Variability” en anglais).- respiratory amplitude and variability (RAV for “Respiratory Amplitude and Variability” in English).

LaFIG. 6est une vue schématique illustrant la génération de données d’entraînement (en phase d‘entraînement) et des données utiles (en phase d’exploitation) à partir de données représentatives de l’activité cardiaque et de données représentatives de l’activité respiratoire selon l’invention.There FIG. 6 is a schematic view illustrating the generation of training data (in the training phase) and useful data (in the exploitation phase) from data representative of cardiac activity and data representative of respiratory activity according to the invention.

On réalise les mêmes opérations que sur laFIG. 4sauf ici les données de départ sont les données 6a de l’activité respiratoire et les données 6b de l’activité cardiaque. Sur une branche on applique la fenêtre F1 sur l’ensemble des données 6a et 6b, et sur l’autre branche on applique la fenêtre F3 sur l’ensemble des données 6a et 6b.We carry out the same operations as on the FIG. 4 except here the starting data are respiratory activity data 6a and cardiac activity data 6b. On one branch we apply window F1 to all data 6a and 6b, and on the other branch we apply window F3 to all data 6a and 6b.

Ainsi à l’étape 14 de transformation, toutes les valeurs décrites en référence aux figures 4 et 5 peuvent être calculées, mais on peut également calculer une valeur de l’arythmie sinusale respiratoire (RSA pour “Respiratory Sinus Arrythmia” en anglais).Thus, at transformation step 14, all the values described with reference to figures 4 and 5 can be calculated, but a value for respiratory sinus arrhythmia (RSA) can also be calculated.

Sur laFIG. 7est représenté un exemple d’organigramme illustrant des étapes d’un traitement numérique des signaux radars en provenance de l’utilisateur pour l’obtention des données représentatives de l’activité respiratoire et des données représentatives de l’activité cardiaque selon l’invention. Il s’agit du traitement 6 de laFIG. 1.On the FIG. 7 an example of a flowchart is shown illustrating steps of a digital processing of radar signals coming from the user to obtain data representative of respiratory activity and data representative of cardiac activity according to the invention. This is processing 6 of the FIG. 1 .

Le traitement démarre à l’étape 15.Processing starts at step 15.

A l’étape 16, on reçoit les signaux FMCW provenant des antennes de réception avant une conversion en fréquence intermédiaire à l’étape 17.In step 16, FMCW signals are received from the receiving antennas before conversion to intermediate frequency in step 17.

Une conversion analogique-numérique est effectuée à l’étape 18. On réalise un traitement de signal numérique au moyen d’un ou deux processeurs de signaux numérique en temps réel à arithmétique fixe ou flottante qui gèrent plusieurs instructions en parallèle : la réduction des interférences à l'aide de la suppression de la composante continue DC (fuite entre Tx et Rx), la détection d'une augmentation du seuil de bruit, la réduction du bruit de quantification due à la conversion analogique - numérique, la détection à taux de fausses alarmes constant (CFAR), le fenêtrage pour une FFT et une transformée des signaux sous une échelle logarithmique.An analog-to-digital conversion is performed in step 18. Digital signal processing is performed using one or two real-time digital signal processors with fixed or floating arithmetic that handle several instructions in parallel: interference reduction using DC component suppression (leakage between Tx and Rx), detection of an increase in the noise threshold, reduction of quantization noise due to analog-to-digital conversion, detection at a constant false alarm rate (CFAR), windowing for an FFT and a transform of the signals under a logarithmic scale.

A l’étape 19, le filtrage à réponse impulsionnelle infinie permet de réduire le bruit électronique et d'extraire les composantes spécifiques du signal. La conversion en quadrature est basée sur la décomposition en deux composantes orthogonales : une composante en phase (I) et une composante en quadrature (Q). Cela permet d'analyser à la fois l'amplitude et la phase du signal.In step 19, infinite impulse response filtering reduces electronic noise and extracts specific signal components. Quadrature conversion is based on decomposition into two orthogonal components: an in-phase component (I) and a quadrature component (Q). This allows both the amplitude and phase of the signal to be analyzed.

A l’étape 20, on réalise une construction de data cube des signaux FMCW à travers des matrices tri-dimensionnelles définies par les caractéristiques du radar MIMO (nombre de canaux liés au nombre d'antennes) et de la modulation FMCW (temps et chirp).In step 20, a data cube construction of the FMCW signals is carried out through three-dimensional matrices defined by the characteristics of the MIMO radar (number of channels linked to the number of antennas) and the FMCW modulation (time and chirp).

A l’étape 21, on élabore une matrice Range-Doppler-Angle à partir des datas cubes. Une succession des transformées de fourrier à 1,2 et 3 dimensions est appliquée pour l'estimation des 3 informations : distance, vitesse et l'angle de la cible par rapport au radar.In step 21, a Range-Doppler-Angle matrix is developed from the data cubes. A succession of 1-, 2- and 3-dimensional Fourier transforms is applied to estimate the 3 pieces of information: distance, speed and the angle of the target relative to the radar.

A l’étape 22, un algorithme de suppression du fouillis est mis en œuvre. A travers une fenêtre (glissante dans le temps) d'émission et de réception appliquée sur les signatures recherchées, les états statiques ainsi que les mouvements lents, donc différents des modulations recherchées : cage thoracique, activité cardiaque et respiratoire, sont exclus. L'interférence entre les harmoniques et la fréquence fondamentale du cœur et de la respiration est améliorée par la mise en œuvre à l’étape 23 d’un algorithme de décomposition empirique en modes ensembles et la décomposition à l’étape 24 du signal en une Fonction de Mode Intrinsèque (IMF, « Intrinsic Mode Function » en langue anglaise).In step 22, a clutter suppression algorithm is implemented. Through a (sliding in time) window of emission and reception applied to the sought signatures, static states as well as slow movements, therefore different from the sought modulations: rib cage, cardiac and respiratory activity, are excluded. The interference between harmonics and the fundamental frequency of the heart and respiration is improved by the implementation in step 23 of an empirical decomposition algorithm into ensemble modes and the decomposition in step 24 of the signal into an Intrinsic Mode Function (IMF).

A l’étape 25, on réalise une transformée en ondelettes continue (CWT) afin d’améliorer l’identification du rythme cardiaque et respiratoire. Il s’agit d’un filtrage adaptatif qui permet de générer des données 6a représentatives de l’activité respiratoire et des données 6b représentatives de l’activité cardiaque.In step 25, a continuous wavelet transform (CWT) is performed to improve the identification of the heart and respiratory rhythm. This is an adaptive filtering that makes it possible to generate data 6a representative of respiratory activity and data 6b representative of cardiac activity.

Les données 6a représentatives de l’activité respiratoire subissent une normalisation à l’étape 26. Les données 6b représentatives de l’activité cardiaque subissent également une normalisation à l’étape 27. Les normalisations 26 et 27 sont optionnelles et peuvent être identiques ou différentes.The data 6a representative of respiratory activity undergo normalization in step 26. The data 6b representative of cardiac activity also undergo normalization in step 27. Normalizations 26 and 27 are optional and can be the same or different.

Sur laFIG. 8, on distingue l’utilisateur 11 assis devant un poste de travail 28 dans un atelier. Des antennes d’émission et de réception peuvent être positionnées en différentes positions 29 de l’atelier autour de l’utilisateur 11. Une unité de traitement 30 peut être prévue pour la mise en œuvre du procédé selon l’invention. Cette unité de traitement peut également être directement embarquée dans un module avec les antennes. Cette unité de traitement comprend les moyens logiciels et matériels aptes notamment à la gestion des antennes et des signaux transitant par ses antennes. L’unité de traitement est connectée de manière filaire ou pas aux antennes. On peut également envisager de positionner l’unité de traitement à distance et prévoir un boîtier relais placé dans l’atelier pour relayer les signaux entre l’unité de traitement et les antennes. Une telle unité de traitement peut être de forte puissance pour gérer plusieurs ensembles d’antennes pour plusieurs utilisateurs.On the FIG. 8 , we can see the user 11 sitting in front of a workstation 28 in a workshop. Transmitting and receiving antennas can be positioned in different positions 29 of the workshop around the user 11. A processing unit 30 can be provided for implementing the method according to the invention. This processing unit can also be directly embedded in a module with the antennas. This processing unit includes the software and hardware means capable in particular of managing the antennas and the signals passing through its antennas. The processing unit is connected by wire or not to the antennas. It is also possible to envisage positioning the processing unit remotely and providing a relay box placed in the workshop to relay the signals between the processing unit and the antennas. Such a processing unit can be high-power to manage several sets of antennas for several users.

La présente invention concerne donc un procédé de reconnaissance d'émotions combinant des modèles de radar radio fréquence et d'intelligence artificielle pour dériver l'émotion de la mesure sans contact d'au moins un signal physiologique clé d'au moins une personne.The present invention therefore relates to an emotion recognition method combining radio frequency radar and artificial intelligence models to derive emotion from the contactless measurement of at least one key physiological signal of at least one person.

L’invention permet d’extraire les signaux cardiaques et respiratoires complet selon les fenêtres temporelles courtes et longues choisies, mais également des caractéristiques classiques d’activités cardiaques et respiratoires tels que HRV, RRV, BPA, RAV, RSA et autres caractéristiques au sein d’un même battement cardiaque ou en rapport à la relation entre différentes caractéristiques cardiaques de battements cardiaques successifs.The invention makes it possible to extract complete cardiac and respiratory signals according to the chosen short and long time windows, but also classic characteristics of cardiac and respiratory activities such as HRV, RRV, BPA, RAV, RSA and other characteristics within the same heartbeat or in relation to the relationship between different cardiac characteristics of successive heartbeats.

Les différents modes de réalisation de la présente invention comprennent diverses étapes. Ces étapes peuvent être mises en œuvre par des instructions d’une machine exécutable au moyen d’un microprocesseur par exemple.The various embodiments of the present invention comprise various steps. These steps can be implemented by instructions of a machine executable by means of a microprocessor for example.

Alternativement, ces étapes peuvent être réalisées par des circuits intégrés spécifiques comprenant une logique câblée pour exécuter les étapes, ou par toute combinaison de composants programmable et composants personnalisés.Alternatively, these steps can be performed by specific integrated circuits including hard-wired logic to perform the steps, or by any combination of programmable components and custom components.

La présente invention peut également être fournie sous forme d’un produit programme d'ordinateur qui peut comprendre un support mémoire informatique non-transitoire contenant des instructions exécutables sur une machine informatique, ces instructions pouvant être utilisées pour programmer un ordinateur (ou tout autre dispositif électronique) pour exécuter le procédé.The present invention may also be provided in the form of a computer program product which may comprise a non-transitory computer storage medium containing instructions executable on a computing machine, which instructions may be used to program a computer (or other electronic device) to perform the method.

Bien sûr, l’invention n’est pas limitée aux exemples qui viennent d’être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l’invention.Of course, the invention is not limited to the examples which have just been described and numerous adjustments can be made to these examples without departing from the scope of the invention.

Claims (15)

Procédé de détection d’une émotion chez un sujet (11) comprenant les étapes suivantes :
- émission d’un premier signal radio fréquence (4) en direction du sujet,
- réception d’un deuxième signal radio fréquence (5) contenant un signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet,
- traitement numérique (6) du deuxième signal radio fréquence (5) de façon à générer des données respiratoires (6a) et/ou des données cardiaques (6b),
- application de plusieurs fenêtres temporelles F1 de durée T1 de manière glissante sur les données respiratoires et/ou les données cardiaques,
- application de plusieurs fenêtres temporelles F3 de durée T3 de manière glissante sur les données respiratoires et/ou les données cardiaques; la durée T3 étant inférieure à la durée T1, et
- prédiction d’une émotion par un modèle d’émotion (12) à base d’intelligence artificielle à partir des données provenant des fenêtres F1 et des données issues des fenêtres F3.
Method for detecting an emotion in a subject (11) comprising the following steps:
- emission of a first radio frequency signal (4) towards the subject,
- reception of a second radio frequency signal (5) containing a physiological signal due to the reflection of said first radio frequency signal on the subject,
- digital processing (6) of the second radio frequency signal (5) so as to generate respiratory data (6a) and/or cardiac data (6b),
- application of several F1 time windows of T1 duration in a sliding manner on the respiratory data and/or the cardiac data,
- application of several time windows F3 of duration T3 in a sliding manner on the respiratory data and/or the cardiac data; the duration T3 being less than the duration T1, and
- prediction of an emotion by an emotion model (12) based on artificial intelligence from data from the F1 windows and data from the F3 windows.
Procédé selon la revendication 1, caractérisé en ce que les données provenant de la fenêtre temporelle F1 sont directement transmises vers le modèle d’émotion (12) et/ou subissent un calcul (14) d'une valeur d'au moins un biomarqueur respiratoire et/ou cardiaque, cette valeur étant transmise vers le modèle d’émotion (12).Method according to claim 1, characterized in that the data from the time window F1 are directly transmitted to the emotion model (12) and/or undergo a calculation (14) of a value of at least one respiratory and/or cardiac biomarker, this value being transmitted to the emotion model (12). Procédé selon la revendication 2, caractérisé en ce que le calcul (14) d'une valeur d'au moins un biomarqueur respiratoire et/ou cardiaque comprend au moins l’un des calculs suivants:
- calcul d’une variabilité de la fréquence cardiaque (HRV pour “heart rate variability”),
- calcul d’une variabilité respiratoire (RRV pour “Respiratory Rate Variability”)) ou d’un motif respiratoire (BPA pour “Breathing Pattern Analysis”) ou d’une amplitude respiratoire et de sa variabilité (RAV pour “Respiratory Amplitude and Variability”),
- calcul d’une arythmie sinusale respiratoire (RSA pour “Respiratory Sinus Arrythmia” en anglais).
Method according to claim 2, characterized in that the calculation (14) of a value of at least one respiratory and/or cardiac biomarker comprises at least one of the following calculations:
- calculation of heart rate variability (HRV),
- calculation of respiratory variability (RRV for “Respiratory Rate Variability”) or of a respiratory pattern (BPA for “Breathing Pattern Analysis”) or of a respiratory amplitude and its variability (RAV for “Respiratory Amplitude and Variability”),
- calculation of respiratory sinus arrhythmia (RSA for “Respiratory Sinus Arrythmia” in English).
Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que la durée T1 est de minimum 30 secondes avec un pas de glissement de minimum 1 milliseconde; ou une durée T1 comprise entre 30 secondes et 5 minutes avec un pas de glissement compris entre 1 milliseconde et 15 secondes; ou une durée T1 comprise entre 30 secondes et 1 minute15 secondes avec un pas de glissement compris entre 3 secondes et 5 secondes.Method according to any one of the preceding claims, characterized in that the duration T1 is at least 30 seconds with a sliding step of at least 1 millisecond; or a duration T1 of between 30 seconds and 5 minutes with a sliding step of between 1 millisecond and 15 seconds; or a duration T1 of between 30 seconds and 1 minute 15 seconds with a sliding step of between 3 seconds and 5 seconds. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que la durée T3 est de minimum 375 millisecondes, ou comprise entre 375 millisecondes et 30 secondes, ou comprise entre 1 et 5 secondes ; avec un pas de minimum 1 milliseconde.Method according to any one of the preceding claims, characterized in that the duration T3 is at least 375 milliseconds, or between 375 milliseconds and 30 seconds, or between 1 and 5 seconds; with a step of at least 1 millisecond. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que le premier signal radio fréquence (4) est un signal radar à ondes entretenues modulés en fréquence FMCW (pour « Frequency-Modulated Continuous Wave » en anglais) ou un signal ultra large bande ULB (ou UWB pour “Ultra Wide Band” en anglais).Method according to any one of the preceding claims, characterized in that the first radio frequency signal (4) is a frequency-modulated continuous wave radar signal (FMCW) or an ultra-wideband signal (UWB). Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que les données respiratoires et/ou les données cardiaques subissent une étape de normalisation (26, 27) avant application des fenêtres temporelles.Method according to any one of the preceding claims, characterized in that the respiratory data and/or the cardiac data undergo a normalization step (26, 27) before application of the time windows. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que le modèle d’émotion (12) est constitué d’un ou plusieurs modèles d’apprentissage simples ou profonds.Method according to any one of the preceding claims, characterized in that the emotion model (12) consists of one or more simple or deep learning models. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que le modèle d’émotion (12) comprend un réseau neuronal récurrent hybride.Method according to any one of the preceding claims, characterized in that the emotion model (12) comprises a hybrid recurrent neural network. Procédé selon la revendication 9, caractérisé en ce que le modèle d’émotion (12) comprend une fusion entre une unité récurrente fermée GRU ( pour « Gated recurrent unit » en anglais) et un réseau de mémoire à long terme et à court terme LSTM (pour “Long Short-term Memory” en anglais).Method according to claim 9, characterized in that the emotion model (12) comprises a fusion between a closed recurrent unit GRU (for “Gated recurrent unit” in English) and a long-term and short-term memory network LSTM (for “Long Short-term Memory” in English). Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que le modèle d’émotion (12) comprend :
- un modèle de dynamique lente dédié aux données provenant des fenêtres temporelles F1,
- un modèle de dynamique rapide dédié aux données des fenêtres temporelles F3, et
- un algorithme de prise de décision commun au modèle de dynamique lente et au modèle de dynamique rapide.
Method according to any one of the preceding claims, characterized in that the emotion model (12) comprises:
- a slow dynamics model dedicated to data from F1 time windows,
- a fast dynamics model dedicated to F3 time window data, and
- a decision-making algorithm common to the slow dynamics model and the fast dynamics model.
Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’émission du premier signal radio fréquence (4) est réalisée au moyen de plusieurs antennes d’émission (29) et la réception du deuxième signal radio fréquence est réalisée au moyen de plusieurs antennes de réception (29) selon une technologie MIMO (pour « Multiple-Input Multiple-Output » en anglais).Method according to any one of the preceding claims, characterized in that the transmission of the first radio frequency signal (4) is carried out by means of several transmission antennas (29) and the reception of the second radio frequency signal is carried out by means of several reception antennas (29) according to MIMO technology (for “Multiple-Input Multiple-Output” in English). Système de détection d’une émotion chez un sujet (11) comprenant :
- une unité de traitement (30) dotée d’un modèle d’émotion (12) et configurée pour mettre en œuvre un procédé selon l’une quelconque des revendications précédentes,
- au moins une antenne d’émission (29) connectée à l’unité de traitement et disposée pour émettre le premier signal radio fréquence en direction du sujet (11),
- au moins une antenne de réception (29) connectée à l’unité de traitement et disposée pour recevoir le deuxième signal radio fréquence contenant le signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet.
System for detecting an emotion in a subject (11) comprising:
- a processing unit (30) provided with an emotion model (12) and configured to implement a method according to any one of the preceding claims,
- at least one transmitting antenna (29) connected to the processing unit and arranged to transmit the first radio frequency signal towards the subject (11),
- at least one receiving antenna (29) connected to the processing unit and arranged to receive the second radio frequency signal containing the physiological signal due to the reflection of said first radio frequency signal on the subject.
Système selon la revendication 13, caractérisé en ce que l’unité de traitement (30) est embarquée localement et connectée directement avec les antennes d’émission et réception (29).System according to claim 13, characterized in that the processing unit (30) is locally embedded and connected directly with the transmission and reception antennas (29). Système selon la revendication 13, caractérisé en ce qu’il comprend un boîtier relais disposé à proximité des antennes d’émission et de réception (29) ; l’unité de traitement (30) étant distante et connectée au boîtier relais via un réseau de communication de type internet ; l’unité de traitement (30) communiquant avec les antennes d’émission et de réception via le boîtier relais.System according to claim 13, characterized in that it comprises a relay box arranged near the transmission and reception antennas (29); the processing unit (30) being remote and connected to the relay box via an internet-type communication network; the processing unit (30) communicating with the transmission and reception antennas via the relay box.
FR2310192A 2023-09-26 2023-09-26 Method for detecting an emotion by radio frequency Pending FR3153234A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2310192A FR3153234A1 (en) 2023-09-26 2023-09-26 Method for detecting an emotion by radio frequency

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2310192A FR3153234A1 (en) 2023-09-26 2023-09-26 Method for detecting an emotion by radio frequency
FR2310192 2023-09-26

Publications (1)

Publication Number Publication Date
FR3153234A1 true FR3153234A1 (en) 2025-03-28

Family

ID=89977842

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2310192A Pending FR3153234A1 (en) 2023-09-26 2023-09-26 Method for detecting an emotion by radio frequency

Country Status (1)

Country Link
FR (1) FR3153234A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170311901A1 (en) 2016-04-18 2017-11-02 Massachusetts Institute Of Technology Extraction of features from physiological signals
US10310073B1 (en) * 2018-02-07 2019-06-04 Infineon Technologies Ag System and method for determining engagement level of a human being using a millimeter-wave radar sensor
US20210093203A1 (en) * 2019-09-30 2021-04-01 DawnLight Technologies Systems and methods of determining heart-rate and respiratory rate from a radar signal using machine learning methods
US20230225652A1 (en) * 2022-01-14 2023-07-20 Sangmyung University Industry - Academy Cooperation Foundation Method of evaluation of social intelligence and system adopting the method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170311901A1 (en) 2016-04-18 2017-11-02 Massachusetts Institute Of Technology Extraction of features from physiological signals
US10310073B1 (en) * 2018-02-07 2019-06-04 Infineon Technologies Ag System and method for determining engagement level of a human being using a millimeter-wave radar sensor
US20210093203A1 (en) * 2019-09-30 2021-04-01 DawnLight Technologies Systems and methods of determining heart-rate and respiratory rate from a radar signal using machine learning methods
US20230225652A1 (en) * 2022-01-14 2023-07-20 Sangmyung University Industry - Academy Cooperation Foundation Method of evaluation of social intelligence and system adopting the method

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AHSAN NOOR KHAN ET AL: "Deep learning framework for subject-independent emotion detection using wireless signals", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 8 June 2020 (2020-06-08), XP081693476 *
DANG ET AL.: "Emotion recognition method using millimètre wave radar based on deep learning", IET RADAR, SONAR & NAVIGATION, vol. 16, no. 11, 2022, pages 1796 - 1808, XP006116806, Retrieved from the Internet <URL:https://doi.org/10.1049/rsn2.12297> DOI: 10.1049/rsn2.12297
KHAN ET AL.: "Deep learning framework for subject-independent émotion détection using wireless signals", PLOS ONE, vol. 16, no. 2, 2021, pages e0242946, Retrieved from the Internet <URL:https://doi.org/10.1371/journal.pone.0242946>
SIDDIQUI H. U. R ET AL.: "Respiration Based Non-Invasive Approach for Emotion Recognition Using Impulse Radio Ultra Wide Band Radar and Machine Leaming", SENSORS, vol. 21, no. 24, 2021, Retrieved from the Internet <URL:https://doi.org/10.3390/s21248336>

Similar Documents

Publication Publication Date Title
Zhao et al. EmotionSense: Emotion recognition based on wearable wristband
Schmidt et al. Wearable affect and stress recognition: A review
Ha et al. WiStress: Contactless stress monitoring using wireless signals
Zhai et al. Stress detection in computer users based on digital signal processing of noninvasive physiological variables
Abibullaev et al. Classification of frontal cortex haemodynamic responses during cognitive tasks using wavelet transforms and machine learning algorithms
Huang et al. The Tufts fNIRS mental workload dataset & benchmark for brain-computer interfaces that generalize
JP7165542B2 (en) Glucose Exposure Estimating Device, Method and Program, Glucose Exposure Estimating Model Generating Device, and Sugar Index Measuring Device
KR102806307B1 (en) Apparatus and method for estimating bio-information
Bowman et al. Action mechanisms for social cognition: behavioral and neural correlates of developing Theory of Mind
Jyotsna et al. PredictEYE: Personalized time series model for mental state prediction using eye tracking
Chakraborty et al. A survey on Internet-of-Thing applications using electroencephalogram
KR20200040563A (en) Apparatus and method for estimating blood pressure
KR20200088700A (en) Apparatus and method for estimating bio-information
Di Lascio et al. Automatic recognition of flow during work activities using context and physiological signals
Nia et al. FEAD: Introduction to the fNIRS-EEG affective database-video stimuli
Pejović et al. Wireless ranging for contactless cognitive load inference in ubiquitous computing
Pal et al. Study of neuromarketing with eeg signals and machine learning techniques
FR3153234A1 (en) Method for detecting an emotion by radio frequency
FR3153435A1 (en) Method for generating training data for an artificial intelligence-based emotion model
Calero Fear classification using affective computing with physiological information and smart-wearables
Panneer Selvam et al. Machine Learning-Based Human Stress Detection Model Employing Physiological Sensory Data
Sriranga et al. A Deep Learning-Based Contactless Driver State Monitoring Radar System for In-Vehicle Physiological Applications
CA3247296A1 (en) Method, system, and medium for measuring, calibrating and training psychological absorption
Li et al. FMCW Radar-based Drowsiness Detection with A Convolutional Adaptive Pooling Attention Gated-Recurrent-Unit Network
JP7717353B2 (en) Sleep estimation system and sleep estimation method

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20250328

PLFP Fee payment

Year of fee payment: 3