FR3153234A1 - Procédé de détection d’une émotion par radio fréquence - Google Patents
Procédé de détection d’une émotion par radio fréquence Download PDFInfo
- Publication number
- FR3153234A1 FR3153234A1 FR2310192A FR2310192A FR3153234A1 FR 3153234 A1 FR3153234 A1 FR 3153234A1 FR 2310192 A FR2310192 A FR 2310192A FR 2310192 A FR2310192 A FR 2310192A FR 3153234 A1 FR3153234 A1 FR 3153234A1
- Authority
- FR
- France
- Prior art keywords
- data
- respiratory
- radio frequency
- emotion
- duration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/0507—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves using microwaves or terahertz waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/08—Measuring devices for evaluating the respiratory organs
- A61B5/0816—Measuring devices for examining respiratory frequency
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/024—Measuring pulse rate or heart rate
- A61B5/02405—Determining heart rate variability
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Physiology (AREA)
- Artificial Intelligence (AREA)
- Psychiatry (AREA)
- Pulmonology (AREA)
- Cardiology (AREA)
- Fuzzy Systems (AREA)
- Educational Technology (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Evolutionary Computation (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
La présente invention concerne un procédé de détection d’une émotion chez un sujet (11) comprenant les étapes suivantes :
- émission d’un premier signal radio fréquence (4) en direction du sujet,
- réception d’un deuxième signal radio fréquence (5) contenant un signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet,
- traitement numérique (6) du deuxième signal radio fréquence (5) de façon à générer des données respiratoires (6a) et/ou des données cardiaques (6b),
- application de plusieurs fenêtres temporelles F1 de durée T1 de manière glissante sur les données respiratoires et/ou les données cardiaques,
- application de plusieurs fenêtres temporelles F3 de durée T3 de manière glissante sur les données respiratoires et/ou les données cardiaques; la durée T3 étant inférieure à la durée T1,
- prédiction d’une émotion par un modèle d’émotion (12) à base d’intelligence artificielle à partir des données provenant des fenêtres F1 et des données issues des fenêtres F3.
Voir figure 3
Description
La présente invention se rapporte à un procédé de détection d’une émotion chez un sujet au moyen d’un modèle d’émotion à base d’intelligence artificielle. L’invention concerne également un système comprenant une unité de traitement pour la mise en œuvre d’un tel procédé.
L’invention trouve une application particulièrement intéressante dans la détection d’émotion d’un utilisateur sur un poste de travail. Mais l’invention est d’un cadre plus large puisqu’elle peut s’appliquer à de nombreux autres domaines professionnels ou particuliers tels que l'interaction homme-machine, la réalité virtuelle, les jeux et les soins de santé.
La société continue d’évoluer vers une intégration de plus en plus présente de la technologie dans notre quotidien.
Notre rapport à la consommation, à la santé, à l’éducation, à l’information, ou encore au fonctionnement même de notre société nécessite aujourd’hui une maîtrise toujours plus grande du monde numérique. Il faut dire que les progrès technologiques des dernières décennies et l’avènement d’Internet et d’une économie plus mondialisée ont grandement facilité l’accès et l’utilisation des produits hautement technologiques, d'un point de vue financier, mais aussi fonctionnel.
Et pourtant, les interfaces numériques restent globalement passives à l’égard de leurs utilisateurs et de ce qui les anime : leurs intentions, leurs émotions au-delà de leurs interactions. Ils sont incapables de reconnaître les épisodes de frustration alors que l’utilisateur est confronté à une interface web mal pensée. Impossibilité de surveiller la concentration et la fatigue d'un opérateur sur un poste de travail industriel à risque. Impossible de reconnaître le désespoir d'un élève débordé de connaissances dans son apprentissage ou au contraire de célébrer un moment de bonheur avec un joueur fier de ses prouesses dans un jeu vidéo. Si ces interfaces étaient capables de ressentir les émotions et les intentions de leurs utilisateurs, nous ne serions plus obligés d'utiliser des commandes explicites et bénéficierions d'une interaction plus naturelle et donc encore plus accessible. De plus, les machines montreraient leur capacité à accompagner les humains dans la régulation de leurs propres émotions, ce qui se traduirait par une plus grande sécurité et un meilleur bien-être.
Aujourd'hui, la plupart des approches en informatique affective reposent sur l'exploitation d'informations audiovisuelles telles que les expressions faciales, la posture ou la prosodie. Elles sont très utiles car facilement accessibles, mais elles ne sont pas exemptes de biais potentiels. Les expressions faciales étant un mode de communication sociale, elles sont rarement exprimées par un utilisateur seul devant son écran. À l’inverse, elles peuvent être contraintes de cacher une émotion de valence opposée. Il en va de même pour l’expression des émotions à travers la voix. De plus, les expressions faciales ne sont pas nécessairement visibles dans le champ de la caméra et leur détection peut être limitée dans un environnement non contrôlé en raison des conditions d'éclairage.
Afin de pallier ces limitations, on peut s’intéresser à des signaux plus physiologiques et donc plus inconscients induits par la régulation du système nerveux autonome étroitement lié aux changements émotionnels. On connaît des systèmes utilisant un électrocardiogramme sur la poitrine pour surveiller l'activité cardiaque. Des électrodes réparties sur le corps peuvent permettre de mesurer la conductance galvanique et donc les variations de la transpiration. Un électroencéphalogramme peut permettre de caractériser l’activité neuronale, alors qu'un oxymètre permet de suivre le pouls d’un utilisateur. En traitant ces signaux avec des modules d'intelligence artificielle entraînés, il est possible d'extraire une certaine dynamique de l'état et des sentiments du sujet. De telles solutions de mesure, pratiques en laboratoire, se révèlent vite inconfortables dans l’environnement quotidien.
On connaît des capteurs non invasifs utilisés dans la reconnaissance des émotions. L'utilisation de caméras thermiques pour capturer les différences de température de surface sur le visage est de plus en plus populaire. Si cette approche a le mérite d'être centrée sur la composante physiologique de l'émotion, elle présente néanmoins la contrainte de nécessiter le visage de la cible visible.
Ces dernières années, certains chercheurs ont également utilisé des technologies radar sur certaines gammes de fréquences radio pour détecter à distance des micro-mouvements de la cage thoracique et indirectement des muscles du cœur. À partir du traitement de ces micro-mouvements corporels, ils ont accédé aux changements en temps réel du rythme cardiaque qui contiennent des informations diagnostiques pour l'évaluation des émotions.
On connaît le document US20170311901A1 décrivant un système radar pour la reconnaissance des émotions. Le radar utilisé est un radar à ondes entretenues modulés en fréquence FMCW (pour « Frequency-Modulated Continuous Wave » en anglais). La caractérisation d’émotions se fait par une classification discrète de quatre émotions sur une fenêtre temporelle de 2min.
On connaît le document Siddiqui H. U. R. et al., (2021), « Respiration Based Non-Invasive Approach for Emotion Recognition Using Impulse Radio Ultra Wide Band Radar and Machine Learning.”, Sensors, 21(24), Article 24. https://doi.org/10.3390/s21248336, décrivant une méthode pour extraire le nombre de respiration par minute d’un signal provenant d’un radar UWB.
On connaît le document Khan et al., (2021), « Deep learning framework for subject-independent emotion detection using wireless signals.”, PLOS ONE, 16(2), e0242946. https://doi.org/10.1371/journal.pone.0242946, décrivant un système radar pour la reconnaissance des émotions. La caractérisation d’émotions se fait par une classification discrète de plusieurs émotions sur des fenêtres temporelles longues (2min). Il décrit un modèle d’intelligence artificielle construit directement à partir des données brutes du signal radar.
On connaît le document Dang et al., (2022), « Emotion recognition method using millimetre wave radar based on deep learning.”, IET Radar, Sonar & Navigation, 16(11), 1796‑1808. https://doi.org/10.1049/rsn2.12297, décrivant un radar millimétrique FMCW 77 Ghz pour la reconnaissance des émotions. Ce document décrit un traitement du signal pour extraire les activités cardiaques et respiratoires, toutes deux prises en considération dans le modèle et combinée pour la classification.
La présente invention a pour but une nouvelle méthode temps réel de reconnaissance des émotions par utilisation de radar.
Un autre but de l’invention est une reconnaissance précise et fiable des émotions.
On atteint au moins l’un des objectifs avec un procédé de détection d’une émotion chez un sujet comprenant les étapes suivantes :
- émission d’un premier signal radio fréquence en direction du sujet,
- réception d’un deuxième signal radio fréquence contenant un signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet,
- traitement numérique du deuxième signal radio fréquence de façon à générer des données respiratoires et/ou des données cardiaques,
- application de plusieurs fenêtres temporelles F1 de durée T1 de manière glissante sur les données respiratoires et/ou les données cardiaques,
- application de plusieurs fenêtres temporelles F3 de durée T3 de manière glissante sur les données respiratoires et/ou les données cardiaques; la durée T3 étant inférieure à la durée T1, et
- prédiction d’une émotion par un modèle d’émotion à base d’intelligence artificielle à partir des données provenant des fenêtres F1 et des données issues des fenêtres F3.
Le procédé selon l’invention offre une solution non invasive, utilisable en milieu naturel et capable de reconnaître la dynamique émotionnelle d’un sujet au plus près de sa physiologie sans nécessiter le port d’accessoires en contact avec le corps.
Avec l’utilisation de grandes fenêtres et petites fenêtres, on améliore la caractérisation des données cardiaques et l’extraction de composantes d’intérêts pour alimenter le modèle IA associé.
L’analyse des grandes fenêtres permet de considérer l’activité physiologique globale tout au long de la période d’observation de l’utilisateur.
L’analyse des petites fenêtres permet de considérer les activités plus locales spécifiques à un événement émotionnel et de caractériser dans le signal issu de l’activité physiologiques des motifs spécifiques d’événements émotionnels plus locaux à détecter.
Les fenêtres temporelles F1 ont de préférence une même durée fixe, mais il est possible d’envisager des fenêtres temporelles F1 avec des durées différentes. Il en est de même avec les fenêtres temporelles F3.
La réalisation d’analyse des signaux physiologiques sur des fenêtres temporelles courtes permet d’obtenir des prédictions sur de courtes durées, ce qui autorise une prédiction en temps réel d’événements émotionnels soudains en phase d’exploitation du modèle d’émotion.
On peut ainsi évaluer la dynamique des émotions en ciblant l’intensité d’une ou plusieurs émotions spécifiques ou états internes ou intentions cognitives au fil du temps sur un sujet humain ou animal.
Les données physiologiques concernent par exemple, sans s’y limiter, les fluctuations de la fréquence cardiaque, les fluctuations respiratoires, l’activité oculaire, les réponses galvaniques de la peau et les pouls sanguins.
Avec le procédé selon l’invention, on considère deux dynamiques de la physiologie émotionnelle : une dynamique lente correspondant à des variations progressives de la dimension émotionnelle ciblée, comme le stress ou la joie, et une dynamique beaucoup plus rapide, en l’espace de quelques secondes voir moins, correspondant à des variations plus soudaines et locales de cette même dimension émotionnelle.
On considère que l'information spécifique à l'émotion vécue survient dans l’activité physiologique sur des latences bien plus courtes que 1 min, en l’espace de quelques secondes. C’est cette information qui est recherchée en utilisant pour données labellisées des fenêtres temporelles courtes en plus des fenêtres longues, ces dernières permettant par exemple d’extraire un niveau émotionnel de référence.
Selon une caractéristique avantageuse de l’invention, les données provenant de la fenêtre temporelle F1 peuvent être directement transmises vers le modèle d’émotion et/ou peuvent subir un calcul d'une valeur d'au moins un biomarqueur respiratoire et/ou cardiaque, cette valeur étant ensuite transmise vers le modèle d’émotion.
En particulier, le calcul d’une valeur d’au moins un biomarqueur respiratoire et/ou cardiaque peut comprendre au moins l’un des calculs suivants :
- calcul d’une variabilité de la fréquence cardiaque (HRV pour “heart rate variability”),
- calcul d’une variabilité respiratoire (RRV pour “Respiratory Rate Variability”)) ou d’un motif respiratoire (BPA pour “Breathing Pattern Analysis”) ou d’une amplitude respiratoire et de sa variabilité (RAV pour “Respiratory Amplitude and Variability”),
- calcul d’une arythmie sinusale respiratoire (RSA pour “Respiratory Sinus Arrythmia” en anglais).
Le RSA est représentatif de l’interaction entre l’activité cardiaque et l’activité respiratoire, reflétant l’activité du système nerveux autonome parasympathique.
Ainsi, le procédé selon l’invention peut s’appliquer à l’activité cardiaque seule, à l’activité respiratoire seule ou aux deux activités.
En fonction de l’activité utilisée, on peut calculer une ou plusieurs des fonctions listées ci-dessus.
Selon une caractéristique avantageuse de l’invention, la durée T1 est de minimum 30 secondes avec un pas de glissement de minimum 1 milliseconde ; de préférence la durée T1 est comprise entre 30 secondes et 5 minutes avec un pas de glissement compris entre 1 milliseconde et 15 secondes ; idéalement la durée T1 est comprise entre 30 secondes et 1 minute15 secondes avec un pas de glissement compris entre 3 secondes et 5 secondes.
La durée T1 correspond aux grandes fenêtres temporelles qui sont appliquées de manière glissante, avec un décalage temporel fixe ou pas.
Les données physiologiques obtenues à partir de ces fenêtres longues, notamment au-delà de la minute, permettent par exemple le calcul de la variabilité de la fréquence cardiaque (HRV) qui nécessite d’attendre plusieurs battements cardiaques pour être calculée.
Avantageusement, la durée T3 peut être de minimum 375 millisecondes, ou comprise entre 375 millisecondes et 30 secondes, ou comprise entre 1 et 5 secondes, avec un pas de minimum 1 milliseconde.
La fenêtre longue peut avoir une durée de 1 min (T1), et être appliquée de manière glissante par pas de 3 secondes pendant toute la durée d’observation du sujet.
La fenêtre courte peut avoir une durée de 3 secondes (T3), et être appliquée de manière glissante par pas de 500ms pendant toute la durée d’observation du sujet.
Selon l’invention, le premier signal radio fréquence peut être un signal radar à ondes entretenues modulés selon un protocole FMCW (pour « Frequency-Modulated Continuous Wave » en anglais) ou encore un signal ultra large bande ULB (ou UWB pour “Ultra Wide Band” en anglais)
A titre d’exemple, le radar FMCW peut fonctionner dans les deux bandes de fréquences [57-64GHz] et [76-81GHz] maximale de 4 GHz. Le radar UWB peut fonctionner sur une plage comprise entre 6 et 8,5 Ghz.
Selon l’invention, les données respiratoires et/ou les données cardiaques peuvent subir une étape de normalisation avant application des fenêtres temporelles.
Ainsi, selon l’invention, les données issues des activités cardiaques et/ou respiratoires sont traitées indépendamment à travers deux fenêtres glissantes longues F1 et courtes F3 pour en extraire une ou plusieurs données parmi :
- L’intégralité des signaux cardiaques présente dans les fenêtres successives F1
- L’intégralité des signaux respiratoires présente dans les fenêtres successives F1
- Des mesures cardiaques clé issues des temporalités F1 : par exemple HRV (“Heart Rate Variability”)
- Des mesures respiratoires clé issues des temporalités F1 : par exemple RRV (“Respiratory Rate Variability”), BPA (“Breathing Pattern Analysis”, RAV (“Respiratory Amplitude Variability”)
- Des mesures reflettant la synchronisation entre activité cardiaque et respiratoire issues des temporalités F1, par exemple RSA (“Respiratory Sinus Arrythmia”)
- L’intégralité des signaux cardiaques présente dans les fenêtres successives F3
- L’intégralité des signaux respiratoires présente dans les fenêtres successives F3.
Ces données sont alors utilisées par le modèle d’émotion pour prédire des émotions.
Des données supplémentaires provenant d’autres types de capteurs que les antennes précitées peuvent être utilisées en exploitation pour aider à pondérer les résultats en sortie du modèle IA Deep-Learning choisi.
Avec l’invention, grâce à l’analyse des caractéristiques des données des domaines temporels et fréquentiels, la fréquence cardiaque périodique et les données respiratoires sont extraites.
Les sorties des capteurs radar sont des représentations des activités physiologiques dans leurs propres espaces dimensionnels, temporels ou fréquentiels intégrés dans le signal de bruit. Le signal est filtré et traité pour révéler aussi précisément que techniquement possible le signal physiologique du signal en bande de base converti.
Un algorithme de suppression du fouillis peut être mis en œuvre. A travers une fenêtre (glissante dans le temps) d’émission et de réception appliquée sur la signature recherchée, les états statiques ainsi que les mouvements lents, donc différents des modulations recherchées : cage thoracique, activité cardiaque et respiratoire, sont exclus.. L’interférence entre les harmoniques et la fréquence fondamentale du cœur et de la respiration peut être améliorée par la mise en œuvre d’un algorithme de décomposition empirique en modes ensembles et la décomposition du signal en une Fonction de Mode Intrinsèque (IMF, «Intrinsic Mode Function » en langue anglaise). L’amélioration du rythme cardiaque et respiratoire peut être assurée par la transformée en ondelettes continue (CWT).
L’invention permet d’extraire les signaux cardiaques et respiratoires complet selon les fenêtres temporelles courtes et longues choisies, mais également des caractéristiques classiques d’activités cardiaques et respiratoires tels que HRV, RRV, BPA, RAV, RSA et autres caractéristiques au sein d’un même battement cardiaque ou en rapport à la relation entre différentes caractéristiques cardiaques de battements cardiaques successifs.
Les données sont ensuite optionnellement normalisées et des valeurs manquantes peuvent être complétées si nécessaire. Toutes ces données peuvent ensuite être optionnellement converties en vecteurs pour être utilisés comme des entrées dans les modèles d’émotion à base d’intelligence artificielle.
Selon une caractéristique avantageuse de l’invention, le modèle d’émotion est constitué d’un ou plusieurs modèles d’apprentissage, simple, profond (« deep learning » en anglais) ou préférentiellement hybride.
Le modèle d’émotion peut comprendre un réseau neuronal récurrent hybride. Le réseau neuronal récurrent hybride permet au modèle d’intelligence artificielle d’être formé et évalué pour détecter et classer des changements significatifs dans les activités cardiaques et respiratoires à partir des caractéristiques cardiaques et respiratoires calculées.
Le modèle d’émotion peut comprendre une fusion entre une unité récurrente fermée GRU ( pour « Gated recurrent unit » en anglais) et un réseau de mémoire à long terme et à court terme LSTM (pour “Long Short-term Memory” en anglais). De préférence, le réseau neuronal récurrent hybride résulte d’une telle fusion.
Une telle fusion est bien adaptée à l’analyse prédictive et de classification de séries chronologiques sur un ensemble de données raisonnablement petit. Cette fusion aboutit à un modèle amélioré et plus précis. Les réseaux GRU et LSTM sont combinés pour tirer parti de leurs atouts respectifs, notamment la capacité du GRU à identifier les dépendances à court terme et la capacité du LSTM à identifier les dépendances à long terme. En combinant les modèles LSTM et GRU, l’invention identifie différents types de motifs temporels ou dépendances présents dans les données, améliorant ainsi la capacité du modèle d’émotion à effectuer des prédictions précises avec une robustesse et une capacité de généralisation préservées. Cela réduit également les risques de surajustement et rend l’ensemble plus résilient au bruit ou aux incertitudes des données.
De plus, la simplicité du GRU améliore l’explicabilité des décisions algorithmiques.
Avantageusement, le modèle d’émotion peut comprendre :
- un modèle de dynamique lente dédié aux données provenant des fenêtres temporelles F1,
- un modèle de dynamique rapide dédié aux données des fenêtres temporelles F3, et
- un algorithme de prise de décision commun au modèle de dynamique lente et au modèle de dynamique rapide.
Selon une caractéristique avantageuse de l’invention, par exemple dans le cadre d’une utilisation d’un radar FMCW, l’émission du premier signal radio fréquence peut être réalisée au moyen de plusieurs antennes d’émission et la réception du deuxième signal radio fréquence peut être réalisée au moyen de plusieurs antennes de réception selon une technologie MIMO (pour « Multiple-Input Multiple-Output » en anglais).
Le radar FMCW peut donc être basé sur un système cohérent MIMO avec plus d’une antenne émettrice et plus d’une antenne réceptrice. La formation de faisceau MIMO cohérente peut reposer sur un synthétiseur qui génère des gazouillis (« chirp » en anglais) suivant la méthode de modulation de phase binaire, ce qui permet l’émission simultanée de chaque antenne pour un meilleur rapport signal/bruit (SNR).
Bien évidemment, l’invention peut être mise en œuvre avec des antennes simples, sans la technologie MIMO, avec d’autres technologies.
Selon un autre aspect de l’invention, il est proposé un pour générer des données d’entraînement d’un modèle d’émotion à base d’intelligence artificielle, ce procédé comprenant les étapes suivantes pour un sujet :
- production d’un signal d’entraînement de durée T0 contenant des stimuli inducteurs d’émotions que le sujet reçoit,
- émission d’un premier signal radio fréquence pendant la durée T0 en direction du sujet,
- réception d’un deuxième signal radio fréquence contenant un signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet,
- traitement numérique du deuxième signal radio fréquence de façon à générer des données respiratoires et/ou des données cardiaques.
Le procédé selon l’invention comprend en outre les étapes suivantes :
- définition d’une fenêtre temporelle F1 de durée T1 inférieure à T0,
- application de plusieurs fenêtres temporelles F1 de manière glissante sur les données respiratoires et/ou les données cardiaques ; les données d’entrainement du modèle d’émotion comprenant des données provenant de chaque fenêtre temporelle F1,
- définition d’une fenêtre temporelle F2 de durée T2 inférieure à T1, et d’une fenêtre F3 de durée T3 inférieure à T2,
- pendant l’émission du premier signal radio fréquence, détection d’événements en provenance du sujet ou calculés sur la base du comportement du sujet ;
- à chaque événement, application de plusieurs fenêtres temporelles F3 de manière glissante sur les données respiratoires et/ou les données cardiaques d’une fenêtre temporelle F2 précédant l’événement ; les données d’entrainement du modèle d’émotion comprenant des données provenant de chaque fenêtre temporelle F3.
Par événements en provenance du sujet ou calculés sur la base du comportement du sujet on entend tout événement à l’initiative du sujet ou pas. Il peut s’agir d’une réponse du sujet via une interface de saisie d’une unité de traitement ou d’un signal généré automatiquement par un outil de suivi de l’activité du sujet. Cet évenement peut être calculé sur la base de résultats issus d’autres capteurs physiologiques, par exemple des capteurs GSR (pour “Galvanic Skin Resistance” en anglais), des capteurs EEG (Electro-encephalographie), des capteurs EMG (Electromyographie), ou des capteurs PPG (Photoplethysmographie)
Selon une caractéristique avantageuse de l’invention, le signal d’entraînement peut être un environnement de réalité virtuelle dans lequel est plongé le sujet. Ce signal d’entraînement peut être tout autre signal vidéo et/ou audio mais de préférence un environnement en réalité virtuelle 3D.
On entend par signal d’entraînement un signal contenant un ou plusieurs stimuli destinés à induire une émotion prédéterminée au sujet. Ce signal comprend des stimuli mais également des instants calmes, sans émotions, permettant la génération de labels de comparaison par rapport aux stimuli.
Selon un mode de réalisation de l’invention, le signal d’entraînement peut comprendre un ou plusieurs stimuli aptes à déclencher une unique émotion de stress auprès du sujet.
Avec l’invention, on prévoit ainsi une caractérisation de la dynamique en temps-réel sur une seule dimension donnée, par exemple le stress, contrairement par exemple à une classification discrète de quatre émotions sur une fenêtre temporelle longue de par exemple 2min comme dans l’art antérieur.
D’autres techniques de caractérisation peuvent être utilisées comme par exemple des dimensions continues Valence et Intensité en mesure indirecte, traduites ensuite en catégories émotionnelles ou en catégories de niveau (stress bas, médium, haut).
Selon une caractéristique avantageuse de l’invention, le signal d’entraînement peut comprendre plusieurs stimuli espacés temporellement, chaque stimulus étant apte à déclencher une même émotion prédéterminée ; les stimuli étant différentiés par leur niveau de difficulté, de complexité, de répétitivité, d’effort d’attention, de soudaineté ou de durée.
On prévoit l’utilisation de stimuli multimodaux. Ces stimuli sont amenés à évoluer selon une variable indépendante contrôlée qui varie le long d’un axe quantitatif unidimensionnel. Il peut s’agir d’un niveau de difficulté, de complexité, de répétitivité, d’effort d’attention, de soudaineté ou encore d’une durée de tâche qui peut être objectivement mesurée ou estimée par des évaluateurs et qui a un impact sur la physiologie sans nécessiter de retours verbaux de la part du sujet. Un tel stimulus peut entraîner l’induction d’un état interne associé tel que le stress, la charge cognitive, la concentration, l’effet tunnel, l’ennui, la somnolence, la fatigue, la surprise, la peur.
En d’autres termes, tous les stimuli peuvent par exemple induire un certain type de stress en faisant varier notamment la difficulté de la tâche subie par le sujet pour induire des périodes de stress plus ou moins fortes, mais on peut également envisager d’induire différents types d’émotions : stress, peur, joie etc… De manière générale, on prévoit également des périodes de calme pour pouvoir permettre une classification.
Avantageusement, la durée T2 peut être comprise entre 1 seconde et 30 secondes ; la durée T3 peut être de minimum 375 millisecondes, ou comprise entre 375 millisecondes et 30 secondes, ou comprise entre 1 et 5 secondes, avec un pas de minimum 1 milliseconde.
La durée minimale de T3 correspond à un unique battement cardiaque d’un nouveau-né par exemple.
A chaque réponse du sujet, on applique plusieurs fenêtres temporelles F3 de manière glissante, avec un décalage temporel fixe ou pas.
On peut envisager, un signal d’entraînement qui dure 3 min (T0). Le sujet est libre de faire une réponse à un ressenti émotionnel lorsqu’il le souhaite, notamment de manière régulière et surtout quand il ressent un changement émotionnel fort.
La fenêtre longue peut avoir une durée de 1 min (T1), et être appliquée de manière glissante par pas de 3 secondes pendant toute la durée d’observation du sujet.
Pour la fenêtre courte, on peut pré-segmenter une période d’intérêt de 10 secondes (T2) en amont de chaque réponse déclenchée par le sujet, et au sein de cette période d’intérêt, on récupère les données des fenêtres temporelles courtes de 3 secondes (T3) par pas de 500 ms par exemple, ce qui fait 15 extraits de 3 secondes.
Avec le procédé selon l’invention, après avoir été entraîné, le modèle d’émotion peut être déployé sur une plateforme de type « edge computing » ou embarquée connectée à des capteurs radar pointés vers un espace de travail ciblé. Une fois la cible humaine détectée, la solution démarre une étape d’initialisation en affinant le modèle sur cette cible spécifique avec des hyperparamètres et une architecture ajustés basés sur les premières données capturées et les données supplémentaires provenant de capteurs supplémentaires en option.
De façon générale, T1 peut être supérieure à 30 secondes et T3 peut être inférieure à 30 secondes.
Selon encore un autre aspect de l’invention, il est proposé un système de détection d’une émotion chez un sujet comprenant :
- une unité de traitement dotée d’un modèle d’émotion et configurée pour mettre en œuvre un procédé de détection d’une émotion chez un sujet tel que décrit ci-dessus,
- au moins une antenne d’émission connectée à l’unité de traitement et disposée pour émettre le premier signal radio fréquence en direction du sujet,
- au moins une antenne de réception connectée à l’unité de traitement et disposée pour recevoir le deuxième signal radio fréquence contenant le signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet.
Le système selon l’invention comprend les avantages suivants :
- non intrusif : contrairement aux systèmes basés sur des caméras, qui nécessitent la capture d’images visuelles d’individus, le radar à ondes millimétriques fonctionne dans le spectre des fréquences radio. Cela rend le système non intrusif et respecte la vie privée, car il ne capture aucune information visuelle identifiable telle que les traits du visage, la couleur de la peau ou les vêtements.
- robustesse aux conditions d’éclairage : les systèmes basés sur des caméras sont sensibles aux conditions d’éclairage, et les changements d’éclairage peuvent affecter considérablement la précision de la reconnaissance des émotions. Cependant, le radar à ondes millimétriques fonctionne indépendamment des conditions d’éclairage, car il utilise des ondes radio qui ne sont pas affectées par les changements de la lumière ambiante, ce qui le rend adapté aux environnements intérieurs et extérieurs.
- insensible aux occlusions : les caméras peuvent être obstruées par divers objets, tels que des mains, des accessoires ou d’autres personnes, ce qui entraîne des résultats de reconnaissance des émotions inexacts. En revanche, le radar à ondes millimétriques est capable de pénétrer à travers certains matériaux, notamment le tissu, le plastique et les fines barrières, ce qui le rend moins sensible aux occlusions et fournit des résultats de reconnaissance des émotions plus fiables.
- centrée sur la physiologie interne : bien qu’il puisse être facile pour un sujet de contrôler l’expression faciale et comportementale des émotions, la physiologie du corps peut difficilement être contrôlée consciemment et la présente invention peut donc difficilement être trompée.
Selon l’invention, le système peut comprendre un boîtier relais disposé à proximité des antennes d’émission et de réception ; l’unité de traitement étant distante et connectée au boîtier relais via un réseau de communication de type internet ; l’unité de traitement communiquant avec les antennes d’émission et de réception via le boîtier relais.
Par proximité on entend une distance permettant une communication avec ou sans fil avec les antennes avec une qualité de signal permettant le bon fonctionnement du système.
L’unité de traitement peut également être embarquée localement et connectée directement avec les antennes d’émission et réception.
Les domaines d’application de l’invention peuvent comprendre :
- l’industrie : la présente invention peut être installée sur des postes de travail en combinaison avec le système de l’entreprise et un moteur de règles dédié pour accompagner les opérateurs dans leur travail quotidien et améliorer leur bien-être. L’objectif peut être de favoriser les interactions, réduisant ainsi le stress au travail. Cela se traduit par moins d’absentéisme, moins d’accidents, une augmentation de la productivité et une diminution des coûts indirects.
- la conception : intégrée à la phase de développement d’un produit ou d’un environnement, la présente invention permet à chaque itération de considérer le facteur humain afin d’évaluer les zones de friction et d’optimiser l’interaction entre les utilisateurs et le produit.
- la formation : intégrée à l’outil de formation, que la formation soit en présentiel, en virtuel ou à distance, la présente invention permet au formateur de mieux comprendre l’état émotionnel interne des participants pour personnaliser le format et le contenu dans le transfert de connaissances.
- la robotique sociale : les robots sociaux doivent être capables de comprendre l’émotion de leurs interlocuteurs pour adapter leur comportement et ainsi faciliter les interactions entre l’homme et la machine tout en favorisant leur acceptation.
- les soins de santé : la présente invention peut aider le personnel médical et social à annoncer un diagnostic difficile en lui fournissant des informations supplémentaires sur le ressenti interne des patients. Il peut également capter les sentiments intérieurs d’un patient ou d’un jeune enfant incapable de les verbaliser.
- la santé animale : la présente invention peut aider à la gestion du stress chez les animaux domestiques et chez les animaux de ferme destinés à l’abattoir.
- le divertissement : couplée à un moteur de règles, la présente invention peut prendre en compte les émotions d’un joueur pour proposer une « jouabilité » (« gameplay » en anglais) ou un scénario de jeu vidéo plus personnalisé.
- la maison intelligente : couplée à un moteur de règles de décision, la présente invention peut être installée dans des espaces de vie et de travail pour modifier l’environnement esthétique et sensoriel en fonction des ressentis de ses occupants.
D’autres caractéristiques et avantages de l’invention apparaîtront à la lecture de la description détaillée de mises en œuvre et de modes de réalisation nullement limitatifs, au regard de figures annexées sur lesquelles :
Les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs ; on pourra notamment mettre en œuvre des variantes de l’invention ne comprenant qu’une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l’invention par rapport à l’état de la technique antérieur. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour conférer un avantage technique ou pour différencier l’invention par rapport à l’état de la technique antérieur.
D’une façon générale, la conception d’un modèle d’intelligence artificielle comporte une phase d’entraînement au cours de laquelle on alimente un modèle d’intelligence artificielle avec de nombreuses données d’entraînement spécifiques. L’objectif est d’explorer un maximum de situations pour que la machine développe la capacité de prédiction.
LaFIG. 1 concerne la phase d’entraînement. On distingue un utilisateur 1 équipé d’un casque 2 de réalité virtuelle. Ce casque 2 est connecté à une unité de traitement non représentée sur laFIG. 1 .
Un signal d’entraînement 3 est mis en lecture dans le casque 2. De préférence, le signal d’entraînement 3 est un environnement 3D comprenant des vidéos et de l’audio dans lequel l’utilisateur 1 est plongé, et selon les situations, avec lequel il peut possiblement interagir.
Des stimuli sont intégrés dans cet environnement et ont pour vocation de créer une émotion prédéterminée auprès de l’utilisateur. Il peut s’agir de différents stimuli placés dans des instants différents durant la lecture du signal d’entraînement. A titre d’exemple, on peut prévoir une durée T0 de lecture du signal d’entraînement égale à 3min. D’autres durées peuvent être envisagées proche de la minute ou plusieurs minutes, jusque par exemple 120 minutes.
On peut envisager un stimulus apte à provoquer la même émotion et auquel on applique des variations le long de la lecture. Il s’agit d’un stimulus multimodal qui varie par exemple en fonction de la complexité.
Lors de la lecture du signal d’entraînement, il peut être demandé à l’utilisateur de signaler dès qu’il ressent une émotion. Ce signalement peut se faire par tout moyen, notamment en manipulant une entrée de l’unité de traitement. Cette entrée peut être une souris, un clavier ou toute autre moyen d’interfaçage.
Pendant la lecture du signal d’entraînement, un premier signal radio fréquence 4 est envoyé en direction de l’utilisateur 1. La réflexion de ce premier signal radio fréquence, notamment sur l’utilisateur 1, produit un deuxième signal radio fréquence 5 qui est capté pour traitement. Sur laFIG. 1 , une antenne de transmission Tx émet le premier signal radio fréquence 4 et une antenne de réception Rx capte le deuxième signal radio fréquence 5.
De préférence, l’antenne d’émission Tx et l’antenne de réception Rx font partie d’un radar à ondes entretenues modulés en fréquence FMCW fonctionnant sur une plage comprise entre 57GHz et 64GHz ou 76GHz et 81GHz avec une bande passante maximale de 4 GHz. L'unité radar FMCW est basée sur le système cohérent MIMO (Multiple Input Multiple Output) avec plusieurs antennes Tx et plusieurs antennes Rx. D'autres technologies peuvent être utilisées comme par exemple l’ultra large bande. La formation de faisceau MIMO cohérente repose sur un synthétiseur qui génère des chirps (signal pseudo-périodique modulé n fréquence et en amplitude) suivant la méthode de modulation de phase binaire, ce qui permet l'émission simultanée de chaque antenne pour un meilleur rapport signal/bruit (SNR). Les chirps transmis sont programmés dynamiquement et les trames sont divisées en plusieurs sous-trames. Deux sous-trames simultanées sont configurées indépendamment via une interface périphérique série (SPI) en contrôlant la période de rafale, la période de sous-trame, le numéro de boucle et le rapport cyclique. Cette flexibilité de configuration permet de détecter des micro-mouvements dans la zone de couverture du radar. La configuration et la génération de ces profils de sous-trames sont effectuées par un module chirp et un tampon au sein de l’unité de traitement.
Le deuxième signal radio fréquence reçu renferme des données physiologiques de l’utilisateur 1. Le traitement 6 sur ce signal radio fréquence 5 a pour but de déterminer un signal 6a représentatif de l’activité respiratoire et un signal 6b représentatif de l’activité cardiaque. Une fenêtre F1 est appliquée au signal 6a représentatif de l’activité respiratoire de façon à générer des données DF1 utiles comme données d’entraînement du modèle d’intelligence artificielle 8. Une fenêtre F3 est appliquée au signal 6b représentatif de l’activité cardiaque de façon à générer des données DF3 utiles comme données d’entraînement du modèle d’intelligence artificielle 8. Les données DF1 et DF3 renferment des caractéristiques cardiaques et respiratoires de l’utilisateur 1 que l’entraînement du modèle d’intelligence artificielle 8 va permettre de mettre en évidence.
De nombreuses mesures sont réalisées avec de nombreux utilisateurs pour une seule ou différentes émotions connues prédéterminées. Sur laFIG. 2 on voit une ligne temporelle de 0 à T0 correspondant à la durée du signal d’entraînement 3 de laFIG. 1 . Ce signal d’entraînement peut être un signal vidéo qui dure 3min. Les repères 9 et 10 sont des instants auxquels l’utilisateur, plongé dans l’environnement virtuel, signale avoir ressenti une émotion. L’utilisateur est incité à se manifester quand il le souhaite, surtout quand il vit un changement émotionnel fort.
Selon l’invention, on applique de manière glissante une grande fenêtre F1 par exemple de durée égale à 1minute, par pas de 3 secondes, en commençant au début de la vidéo, soit 41 extraits par vidéo. Sur laFIG. 1 , le signal DF1 représente les données correspondant aux fenêtres F1.
On applique également une fenêtre courte F2, qui est une période d'intérêt de 10 secondes en amont de chaque réponse 9 et 10 de l’utilisateur. Au sein de cette période d'intérêt, on applique des fenêtres courtes F3 par exemple de durée égale à 3 secondes, par pas de 500 ms, en commençant au début de la fenêtre F2, soit 15 extraits par fenêtre F2, sur lesquelles l’entraînement permettra de déceler des caractéristiques cardiaques.
Une fois le modèle d’intelligence artificielle entraîné et paramétré, il constitue le modèle d’émotion utilisable en exploitation.
Sur laFIG. 3 on distingue un utilisateur 11 en activité recevant en permanence le premier signal radio fréquence 4. Le deuxième signal radio fréquence 5 provenant de l’utilisateur est capté pour subir un traitement 6 identique au traitement lors de l’entraînement. La différence entre la phase d’entraînement et la phase d’exploitation est notamment l’utilisation des fenêtres temporelles.
Les fenêtres temporelles F1 sont appliquées de manière glissante et continue durant toute une période d’observation de l’utilisateur. De préférence, on n’est plus limitée à la durée T0 du signal d’entraînement.
Les fenêtres temporelles F2 ne sont pas utilisées en phase d’exploitation. En effet, on applique de manière glissante et continue les fenêtres temporelles F3.
Ainsi, en exploitation, les fenêtres temporelles F1 et les fenêtres temporelles F3 sont appliquées en continue tout au long d’une période d’observation de l’utilisateur.
La période d’observation n’est pas forcément en continue pendant toute la journée. Cette période d’observation peut être déclenchée en fonction d'information captée dans l'environnement. Par exemple, n'activer le traitement et/ou l’application des fenêtres temporelles que sur des étapes difficiles d’une tâche en cours de réalisation par l’utilisateur ou que lors de la survenue d'une alerte extérieure, par exemple, une situation d'urgence.
Les données DF1 et DF3 sur laFIG. 3 alimentent un modèle d’émotion 12 qui est donc apte à identifier des caractéristiques cardiaques et respiratoires pour permettre une prédiction en temps réel d’une émotion 13. Le modèle 12 peut avantageusement être issu de l’entraînement du modèle d’entrainement 8 de laFIG. 1 .
LaFIG. 4 est une vue schématique illustrant la génération de données d’entraînement (en phase d‘entraînement) et des données utiles (en phase d’exploitation) à partir de données représentatives uniquement de l’activité cardiaque selon l’invention.
En effet, l’invention peut être mise en œuvre uniquement à partir de données représentatives de l’activité cardiaque.
A l’issue du traitement numérique 6, l’activité respiratoire 6a peut être déterminée et non utilisée ou bien elle peut tout simplement ne pas du tout être déterminée.
L’activité cardiaque 6b est scindée en deux branches pour suivre des traitements en parallèle. Sur une première branche on applique la fenêtre F3, avec les limites des fenêtres F2 si on est en phase d’entraînement et sans limite des fenêtres F2 lorsqu’on est en phase d’exploitation. Les données DF3 issues de l’application de chaque fenêtre F3 alimente le modèle d’entraînement ou le modèle d’émotion.
Sur la deuxième branche, on applique la fenêtre F1, avec la limite de la durée T0 si on est en phase d’entraînement et sans limite de la durée T0 lorsqu’on est en phase d’exploitation. Les données DF1a directement issues de l’application de la fenêtre F1 peuvent alimenter directement le modèle d’entraînement 8 ou le modèle d’émotion 12.
L’invention prévoit également un mode de réalisation où les données DF1a directement issues de l’application de la fenêtre F1 sont d’abord transformées à l’étape 14 en une ou plusieurs valeurs DF1b avant d’alimenter le modèle d’entraînement 8 ou le modèle d’émotion 12.
L’invention prévoit en outre un mode de réalisation où les données DF1a directement issues de l’application de la fenêtre F1 et les données DF1b provenant de la transformation des données DF1a à l’étape 14alimentent ensemble le modèle d’entraînement 8 (en phase d’entraînement) ou le modèle d’émotion 12 (en phase d’exploitation).
A l’étape 14, la transformation réalisée est le calcul d’une valeur de la variabilité de la fréquence cardiaque HRV.
LaFIG. 5 est une vue schématique illustrant la génération de données d’entraînement (en phase d‘entraînement) et des données utiles (en phase d’exploitation) à partir de données représentatives uniquement de l’activité cardiaque selon l’invention. On réalise les mêmes opérations que sur laFIG. 4 sauf ici les données 6a de départ concernent uniquement l’activité respiratoire. Une autre différence est l’étape 14 de transformation au cours de laquelle on calcule au moins l’une des valeurs suivantes :
- une variabilité respiratoire (RRV pour “Respiratory Rate Variability” en anglais),
- un motif respiratoire (BPA pour “Breathing Pattern Analysis”en anglais),
- une amplitude respiratoire et sa variabilité (RAV pour “Respiratory Amplitude and Variability” en anglais).
LaFIG. 6 est une vue schématique illustrant la génération de données d’entraînement (en phase d‘entraînement) et des données utiles (en phase d’exploitation) à partir de données représentatives de l’activité cardiaque et de données représentatives de l’activité respiratoire selon l’invention.
On réalise les mêmes opérations que sur laFIG. 4 sauf ici les données de départ sont les données 6a de l’activité respiratoire et les données 6b de l’activité cardiaque. Sur une branche on applique la fenêtre F1 sur l’ensemble des données 6a et 6b, et sur l’autre branche on applique la fenêtre F3 sur l’ensemble des données 6a et 6b.
Ainsi à l’étape 14 de transformation, toutes les valeurs décrites en référence aux figures 4 et 5 peuvent être calculées, mais on peut également calculer une valeur de l’arythmie sinusale respiratoire (RSA pour “Respiratory Sinus Arrythmia” en anglais).
Sur laFIG. 7 est représenté un exemple d’organigramme illustrant des étapes d’un traitement numérique des signaux radars en provenance de l’utilisateur pour l’obtention des données représentatives de l’activité respiratoire et des données représentatives de l’activité cardiaque selon l’invention. Il s’agit du traitement 6 de laFIG. 1 .
Le traitement démarre à l’étape 15.
A l’étape 16, on reçoit les signaux FMCW provenant des antennes de réception avant une conversion en fréquence intermédiaire à l’étape 17.
Une conversion analogique-numérique est effectuée à l’étape 18. On réalise un traitement de signal numérique au moyen d’un ou deux processeurs de signaux numérique en temps réel à arithmétique fixe ou flottante qui gèrent plusieurs instructions en parallèle : la réduction des interférences à l'aide de la suppression de la composante continue DC (fuite entre Tx et Rx), la détection d'une augmentation du seuil de bruit, la réduction du bruit de quantification due à la conversion analogique - numérique, la détection à taux de fausses alarmes constant (CFAR), le fenêtrage pour une FFT et une transformée des signaux sous une échelle logarithmique.
A l’étape 19, le filtrage à réponse impulsionnelle infinie permet de réduire le bruit électronique et d'extraire les composantes spécifiques du signal. La conversion en quadrature est basée sur la décomposition en deux composantes orthogonales : une composante en phase (I) et une composante en quadrature (Q). Cela permet d'analyser à la fois l'amplitude et la phase du signal.
A l’étape 20, on réalise une construction de data cube des signaux FMCW à travers des matrices tri-dimensionnelles définies par les caractéristiques du radar MIMO (nombre de canaux liés au nombre d'antennes) et de la modulation FMCW (temps et chirp).
A l’étape 21, on élabore une matrice Range-Doppler-Angle à partir des datas cubes. Une succession des transformées de fourrier à 1,2 et 3 dimensions est appliquée pour l'estimation des 3 informations : distance, vitesse et l'angle de la cible par rapport au radar.
A l’étape 22, un algorithme de suppression du fouillis est mis en œuvre. A travers une fenêtre (glissante dans le temps) d'émission et de réception appliquée sur les signatures recherchées, les états statiques ainsi que les mouvements lents, donc différents des modulations recherchées : cage thoracique, activité cardiaque et respiratoire, sont exclus. L'interférence entre les harmoniques et la fréquence fondamentale du cœur et de la respiration est améliorée par la mise en œuvre à l’étape 23 d’un algorithme de décomposition empirique en modes ensembles et la décomposition à l’étape 24 du signal en une Fonction de Mode Intrinsèque (IMF, « Intrinsic Mode Function » en langue anglaise).
A l’étape 25, on réalise une transformée en ondelettes continue (CWT) afin d’améliorer l’identification du rythme cardiaque et respiratoire. Il s’agit d’un filtrage adaptatif qui permet de générer des données 6a représentatives de l’activité respiratoire et des données 6b représentatives de l’activité cardiaque.
Les données 6a représentatives de l’activité respiratoire subissent une normalisation à l’étape 26. Les données 6b représentatives de l’activité cardiaque subissent également une normalisation à l’étape 27. Les normalisations 26 et 27 sont optionnelles et peuvent être identiques ou différentes.
Sur laFIG. 8 , on distingue l’utilisateur 11 assis devant un poste de travail 28 dans un atelier. Des antennes d’émission et de réception peuvent être positionnées en différentes positions 29 de l’atelier autour de l’utilisateur 11. Une unité de traitement 30 peut être prévue pour la mise en œuvre du procédé selon l’invention. Cette unité de traitement peut également être directement embarquée dans un module avec les antennes. Cette unité de traitement comprend les moyens logiciels et matériels aptes notamment à la gestion des antennes et des signaux transitant par ses antennes. L’unité de traitement est connectée de manière filaire ou pas aux antennes. On peut également envisager de positionner l’unité de traitement à distance et prévoir un boîtier relais placé dans l’atelier pour relayer les signaux entre l’unité de traitement et les antennes. Une telle unité de traitement peut être de forte puissance pour gérer plusieurs ensembles d’antennes pour plusieurs utilisateurs.
La présente invention concerne donc un procédé de reconnaissance d'émotions combinant des modèles de radar radio fréquence et d'intelligence artificielle pour dériver l'émotion de la mesure sans contact d'au moins un signal physiologique clé d'au moins une personne.
L’invention permet d’extraire les signaux cardiaques et respiratoires complet selon les fenêtres temporelles courtes et longues choisies, mais également des caractéristiques classiques d’activités cardiaques et respiratoires tels que HRV, RRV, BPA, RAV, RSA et autres caractéristiques au sein d’un même battement cardiaque ou en rapport à la relation entre différentes caractéristiques cardiaques de battements cardiaques successifs.
Les différents modes de réalisation de la présente invention comprennent diverses étapes. Ces étapes peuvent être mises en œuvre par des instructions d’une machine exécutable au moyen d’un microprocesseur par exemple.
Alternativement, ces étapes peuvent être réalisées par des circuits intégrés spécifiques comprenant une logique câblée pour exécuter les étapes, ou par toute combinaison de composants programmable et composants personnalisés.
La présente invention peut également être fournie sous forme d’un produit programme d'ordinateur qui peut comprendre un support mémoire informatique non-transitoire contenant des instructions exécutables sur une machine informatique, ces instructions pouvant être utilisées pour programmer un ordinateur (ou tout autre dispositif électronique) pour exécuter le procédé.
Bien sûr, l’invention n’est pas limitée aux exemples qui viennent d’être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l’invention.
Claims (15)
- Procédé de détection d’une émotion chez un sujet (11) comprenant les étapes suivantes :
- émission d’un premier signal radio fréquence (4) en direction du sujet,
- réception d’un deuxième signal radio fréquence (5) contenant un signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet,
- traitement numérique (6) du deuxième signal radio fréquence (5) de façon à générer des données respiratoires (6a) et/ou des données cardiaques (6b),
- application de plusieurs fenêtres temporelles F1 de durée T1 de manière glissante sur les données respiratoires et/ou les données cardiaques,
- application de plusieurs fenêtres temporelles F3 de durée T3 de manière glissante sur les données respiratoires et/ou les données cardiaques; la durée T3 étant inférieure à la durée T1, et
- prédiction d’une émotion par un modèle d’émotion (12) à base d’intelligence artificielle à partir des données provenant des fenêtres F1 et des données issues des fenêtres F3. - Procédé selon la revendication 1, caractérisé en ce que les données provenant de la fenêtre temporelle F1 sont directement transmises vers le modèle d’émotion (12) et/ou subissent un calcul (14) d'une valeur d'au moins un biomarqueur respiratoire et/ou cardiaque, cette valeur étant transmise vers le modèle d’émotion (12).
- Procédé selon la revendication 2, caractérisé en ce que le calcul (14) d'une valeur d'au moins un biomarqueur respiratoire et/ou cardiaque comprend au moins l’un des calculs suivants:
- calcul d’une variabilité de la fréquence cardiaque (HRV pour “heart rate variability”),
- calcul d’une variabilité respiratoire (RRV pour “Respiratory Rate Variability”)) ou d’un motif respiratoire (BPA pour “Breathing Pattern Analysis”) ou d’une amplitude respiratoire et de sa variabilité (RAV pour “Respiratory Amplitude and Variability”),
- calcul d’une arythmie sinusale respiratoire (RSA pour “Respiratory Sinus Arrythmia” en anglais). - Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que la durée T1 est de minimum 30 secondes avec un pas de glissement de minimum 1 milliseconde; ou une durée T1 comprise entre 30 secondes et 5 minutes avec un pas de glissement compris entre 1 milliseconde et 15 secondes; ou une durée T1 comprise entre 30 secondes et 1 minute15 secondes avec un pas de glissement compris entre 3 secondes et 5 secondes.
- Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que la durée T3 est de minimum 375 millisecondes, ou comprise entre 375 millisecondes et 30 secondes, ou comprise entre 1 et 5 secondes ; avec un pas de minimum 1 milliseconde.
- Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que le premier signal radio fréquence (4) est un signal radar à ondes entretenues modulés en fréquence FMCW (pour « Frequency-Modulated Continuous Wave » en anglais) ou un signal ultra large bande ULB (ou UWB pour “Ultra Wide Band” en anglais).
- Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que les données respiratoires et/ou les données cardiaques subissent une étape de normalisation (26, 27) avant application des fenêtres temporelles.
- Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que le modèle d’émotion (12) est constitué d’un ou plusieurs modèles d’apprentissage simples ou profonds.
- Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que le modèle d’émotion (12) comprend un réseau neuronal récurrent hybride.
- Procédé selon la revendication 9, caractérisé en ce que le modèle d’émotion (12) comprend une fusion entre une unité récurrente fermée GRU ( pour « Gated recurrent unit » en anglais) et un réseau de mémoire à long terme et à court terme LSTM (pour “Long Short-term Memory” en anglais).
- Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que le modèle d’émotion (12) comprend :
- un modèle de dynamique lente dédié aux données provenant des fenêtres temporelles F1,
- un modèle de dynamique rapide dédié aux données des fenêtres temporelles F3, et
- un algorithme de prise de décision commun au modèle de dynamique lente et au modèle de dynamique rapide. - Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’émission du premier signal radio fréquence (4) est réalisée au moyen de plusieurs antennes d’émission (29) et la réception du deuxième signal radio fréquence est réalisée au moyen de plusieurs antennes de réception (29) selon une technologie MIMO (pour « Multiple-Input Multiple-Output » en anglais).
- Système de détection d’une émotion chez un sujet (11) comprenant :
- une unité de traitement (30) dotée d’un modèle d’émotion (12) et configurée pour mettre en œuvre un procédé selon l’une quelconque des revendications précédentes,
- au moins une antenne d’émission (29) connectée à l’unité de traitement et disposée pour émettre le premier signal radio fréquence en direction du sujet (11),
- au moins une antenne de réception (29) connectée à l’unité de traitement et disposée pour recevoir le deuxième signal radio fréquence contenant le signal physiologique dû à la réflexion dudit premier signal radio fréquence sur le sujet. - Système selon la revendication 13, caractérisé en ce que l’unité de traitement (30) est embarquée localement et connectée directement avec les antennes d’émission et réception (29).
- Système selon la revendication 13, caractérisé en ce qu’il comprend un boîtier relais disposé à proximité des antennes d’émission et de réception (29) ; l’unité de traitement (30) étant distante et connectée au boîtier relais via un réseau de communication de type internet ; l’unité de traitement (30) communiquant avec les antennes d’émission et de réception via le boîtier relais.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2310192A FR3153234A1 (fr) | 2023-09-26 | 2023-09-26 | Procédé de détection d’une émotion par radio fréquence |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2310192A FR3153234A1 (fr) | 2023-09-26 | 2023-09-26 | Procédé de détection d’une émotion par radio fréquence |
| FR2310192 | 2023-09-26 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| FR3153234A1 true FR3153234A1 (fr) | 2025-03-28 |
Family
ID=89977842
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR2310192A Pending FR3153234A1 (fr) | 2023-09-26 | 2023-09-26 | Procédé de détection d’une émotion par radio fréquence |
Country Status (1)
| Country | Link |
|---|---|
| FR (1) | FR3153234A1 (fr) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170311901A1 (en) | 2016-04-18 | 2017-11-02 | Massachusetts Institute Of Technology | Extraction of features from physiological signals |
| US10310073B1 (en) * | 2018-02-07 | 2019-06-04 | Infineon Technologies Ag | System and method for determining engagement level of a human being using a millimeter-wave radar sensor |
| US20210093203A1 (en) * | 2019-09-30 | 2021-04-01 | DawnLight Technologies | Systems and methods of determining heart-rate and respiratory rate from a radar signal using machine learning methods |
| US20230225652A1 (en) * | 2022-01-14 | 2023-07-20 | Sangmyung University Industry - Academy Cooperation Foundation | Method of evaluation of social intelligence and system adopting the method |
-
2023
- 2023-09-26 FR FR2310192A patent/FR3153234A1/fr active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20170311901A1 (en) | 2016-04-18 | 2017-11-02 | Massachusetts Institute Of Technology | Extraction of features from physiological signals |
| US10310073B1 (en) * | 2018-02-07 | 2019-06-04 | Infineon Technologies Ag | System and method for determining engagement level of a human being using a millimeter-wave radar sensor |
| US20210093203A1 (en) * | 2019-09-30 | 2021-04-01 | DawnLight Technologies | Systems and methods of determining heart-rate and respiratory rate from a radar signal using machine learning methods |
| US20230225652A1 (en) * | 2022-01-14 | 2023-07-20 | Sangmyung University Industry - Academy Cooperation Foundation | Method of evaluation of social intelligence and system adopting the method |
Non-Patent Citations (4)
| Title |
|---|
| AHSAN NOOR KHAN ET AL: "Deep learning framework for subject-independent emotion detection using wireless signals", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 8 June 2020 (2020-06-08), XP081693476 * |
| DANG ET AL.: "Emotion recognition method using millimètre wave radar based on deep learning", IET RADAR, SONAR & NAVIGATION, vol. 16, no. 11, 2022, pages 1796 - 1808, XP006116806, Retrieved from the Internet <URL:https://doi.org/10.1049/rsn2.12297> DOI: 10.1049/rsn2.12297 |
| KHAN ET AL.: "Deep learning framework for subject-independent émotion détection using wireless signals", PLOS ONE, vol. 16, no. 2, 2021, pages e0242946, Retrieved from the Internet <URL:https://doi.org/10.1371/journal.pone.0242946> |
| SIDDIQUI H. U. R ET AL.: "Respiration Based Non-Invasive Approach for Emotion Recognition Using Impulse Radio Ultra Wide Band Radar and Machine Leaming", SENSORS, vol. 21, no. 24, 2021, Retrieved from the Internet <URL:https://doi.org/10.3390/s21248336> |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Zhao et al. | EmotionSense: Emotion recognition based on wearable wristband | |
| Schmidt et al. | Wearable affect and stress recognition: A review | |
| Ha et al. | WiStress: Contactless stress monitoring using wireless signals | |
| Zhai et al. | Stress detection in computer users based on digital signal processing of noninvasive physiological variables | |
| Abibullaev et al. | Classification of frontal cortex haemodynamic responses during cognitive tasks using wavelet transforms and machine learning algorithms | |
| Huang et al. | The Tufts fNIRS mental workload dataset & benchmark for brain-computer interfaces that generalize | |
| JP7165542B2 (ja) | グルコース露出量推定装置、方法及びプログラム、グルコース露出量推定モデル生成装置、並びに糖指数測定装置 | |
| KR102806307B1 (ko) | 생체정보 추정 장치 및 방법 | |
| Bowman et al. | Action mechanisms for social cognition: behavioral and neural correlates of developing Theory of Mind | |
| Jyotsna et al. | PredictEYE: Personalized time series model for mental state prediction using eye tracking | |
| Chakraborty et al. | A survey on Internet-of-Thing applications using electroencephalogram | |
| KR20200040563A (ko) | 혈압 추정 장치 및 방법 | |
| KR20200088700A (ko) | 생체정보 추정 장치 및 방법 | |
| Di Lascio et al. | Automatic recognition of flow during work activities using context and physiological signals | |
| Nia et al. | FEAD: Introduction to the fNIRS-EEG affective database-video stimuli | |
| Pejović et al. | Wireless ranging for contactless cognitive load inference in ubiquitous computing | |
| Pal et al. | Study of neuromarketing with eeg signals and machine learning techniques | |
| FR3153234A1 (fr) | Procédé de détection d’une émotion par radio fréquence | |
| FR3153435A1 (fr) | Procédé pour générer des données d’entraînement d’un modèle d’émotion à base d’intelligence artificielle | |
| Calero | Fear classification using affective computing with physiological information and smart-wearables | |
| Panneer Selvam et al. | Machine Learning-Based Human Stress Detection Model Employing Physiological Sensory Data | |
| Sriranga et al. | A Deep Learning-Based Contactless Driver State Monitoring Radar System for In-Vehicle Physiological Applications | |
| CA3247296A1 (fr) | Procédé, système et support de mesure, d'étalonnage et d'entraînement à l'absorption psychologique | |
| Li et al. | FMCW Radar-based Drowsiness Detection with A Convolutional Adaptive Pooling Attention Gated-Recurrent-Unit Network | |
| JP7717353B2 (ja) | 睡眠推定システム、及び睡眠推定方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PLFP | Fee payment |
Year of fee payment: 2 |
|
| PLSC | Publication of the preliminary search report |
Effective date: 20250328 |
|
| PLFP | Fee payment |
Year of fee payment: 3 |