FR3136094A1 - Procédé de détection de chute par analyse d’images - Google Patents
Procédé de détection de chute par analyse d’images Download PDFInfo
- Publication number
- FR3136094A1 FR3136094A1 FR2205075A FR2205075A FR3136094A1 FR 3136094 A1 FR3136094 A1 FR 3136094A1 FR 2205075 A FR2205075 A FR 2205075A FR 2205075 A FR2205075 A FR 2205075A FR 3136094 A1 FR3136094 A1 FR 3136094A1
- Authority
- FR
- France
- Prior art keywords
- posture
- image
- analyzed
- images
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 72
- 238000010191 image analysis Methods 0.000 title description 10
- 230000001144 postural effect Effects 0.000 claims description 80
- 238000004458 analytical method Methods 0.000 claims description 24
- 238000004590 computer program Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 21
- 230000036544 posture Effects 0.000 description 195
- 208000031968 Cadaver Diseases 0.000 description 16
- 238000004904 shortening Methods 0.000 description 15
- 210000002683 foot Anatomy 0.000 description 11
- 238000012805 post-processing Methods 0.000 description 8
- 230000003068 static effect Effects 0.000 description 8
- 238000012935 Averaging Methods 0.000 description 7
- 210000002414 leg Anatomy 0.000 description 7
- 230000004886 head movement Effects 0.000 description 6
- 238000013316 zoning Methods 0.000 description 6
- 238000010200 validation analysis Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000007717 exclusion Effects 0.000 description 3
- 208000014674 injury Diseases 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 210000000454 fifth toe Anatomy 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 210000001255 hallux Anatomy 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008733 trauma Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000032843 Hemorrhage Diseases 0.000 description 1
- 241001080024 Telles Species 0.000 description 1
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000009430 psychological distress Effects 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000035882 stress Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0438—Sensor means for detecting
- G08B21/0476—Cameras to detect unsafe condition, e.g. video cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/04—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
- G08B21/0407—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
- G08B21/043—Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
Landscapes
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Gerontology & Geriatric Medicine (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Physics & Mathematics (AREA)
- Psychology (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Emergency Alarm Devices (AREA)
Abstract
Ce procédé de détection de chute (200) comprend la capture (202) d’un flux vidéo d’une scène et l’analyse (210) d’au moins une partie des images du flux vidéo de sorte à identifier une posture d’une personne dans chaque image analysée. Le procédé (200) comprend également, pour chaque image analysée, la détermination (230) optionnelle d’une évolution de la posture, la comparaison (250) de la posture et/ou de l’évolution de la posture avec au moins un critère de comparaison et, pour chaque critère de comparaison auquel il est satisfait, l’incrémentation (260) d’un compteur individuel. Le procédé (200) comprend encore le calcul (270) d’un compteur aggloméré égal à la somme de plusieurs compteurs individuels et la détection (280) d’une chute lorsque le compteur aggloméré excède un seuil prédéterminé.
Figure pour l’abrégé : Fig. 3
Description
La présente invention concerne un procédé de détection de chute, du type comprenant les étapes suivantes :
- capture d’un flux vidéo d’une scène dans laquelle évolue une personne, le flux vidéo comprenant une succession d’images de la scène, et
- analyse d’au moins une partie des images de la scène, ladite analyse comprenant, pour chacune des images analysées, l’identification d’une posture de la personne dans l’image.
La présente invention concerne également un produit programme d’ordinateur comprenant des instructions pour l’exécution au moins une partie des étapes d’un tel procédé lorsque ledit programme informatique est exécuté par un processeur, un support de stockage d’informations sur lequel est enregistré un tel produit programme d’ordinateur, et un système de détection de chute du type configuré pour mettre en œuvre un procédé du type précité.
La chute des personnes âgées constitue une préoccupation sociétale importante. En effet, celles-ci, déjà davantage susceptibles de chuter que la population générale du fait de leur équilibre précaire, ont en plus le plus souvent des difficultés à se relever. Des études ont ainsi démontré dans 10% des cas, le temps passé au sol par une personne âgée à la suite d’une chute dépasse une heure. Une autre étude, menée sur un panel de 370 personnes âgées en moyenne de 79,6 ans, ayant auparavant présenté une ou plusieurs chutes, a montré que 50% d’entre elles avaient été incapables de se relever seul et que, pour les 50% restants, la durée du temps passé au sol était en moyenne de 12 minutes en l’absence de traumatisme sévère et de 19 minutes en cas de traumatisme sévère.
Ainsi, le temps passé au sol par une personne âgée consécutivement à une chute est généralement long.
Or, plus le temps passé au sol est long, plus les risques de séquelles sont importants. Une personne ayant chuté peut en effet souffrir de perte de connaissance, de blessures graves, d’hémorragie, etc., sans compter le stress et la détresse psychique ressentis durant l’attente d’une prise en charge pour les patients conscients. Il est donc primordial de créer un dispositif qui, en cas de chute d’une personne âgée, permette d’alerter rapidement ses proches ou les équipes soignantes qui l’ont en charge.
Il a ainsi été proposé des systèmes destinés à détecter automatiquement des chutes de personne. Ces systèmes se classent en deux grandes familles : d’une part les systèmes de détection de chute portatifs et d’autre part les systèmes de détection de chute par analyse d’images.
Les systèmes de détection chute portatifs sont généralement constitués d’objets connectés qui détectent la chute par des mesures d’accélération. Cependant, la diversité des types de chute rend difficile la création d’une modélisation de la chute à même de capter l’ensemble des réalisations possibles de l’évènement. Une approche par seuillage de métrique d'intérêt sur l’accéléromètre tend à la concentration des performances des systèmes sur des ensembles de chutes dont les caractéristiques sont similaires. Ces systèmes peinent donc à détecter tout type de chute. De plus, leur efficacité dépend du soin des porteurs à vérifier leur état de marche (batterie) et du consentement de ces derniers à les porter constamment.
Les systèmes de détection de chute par analyse d’images, eux, présentent un défi double : la détection du corps et la détection de la chute. Pour la détection du corps, ces systèmes s’appuient le plus souvent sur l’extraction de descripteurs comme les silhouettes segmentées et/ou les boites de contour (mieux connues sous leur appellation anglaise « bounding boxes »). Les caractéristiques morphologiques et de localisation sont ensuite fournies en entrées à des classifieurs, le plus souvent fondés sur l’apprentissage machine, pour détecter la chute. Cependant, soit les informations fournies par les descripteurs sont trop limitées pour permettre une modélisation poussée de l’événement observé, soit ces descripteurs présentent un temps d’exécution tel qu’ils ne permettent pas une analyse en temps réel. Quant aux classifieurs fondés sur l’apprentissage machine, ils échouent à détecter un grand nombre de chutes, car les chutes sur lesquelles ils sont généralement entraînés sont très loin de refléter l’ensemble des types de chutes possibles. En effet, la chute est un phénomène cinétique très variables, fonction des capacités physiques et motrices de la personne (par exemple la personne peut se retenir lors de sa chute, ce qui va la ralentir), mais aussi d’éventuels évènements extérieurs comme la rencontre d’obstacles, ce qui rend très difficile la modélisation et la reproduction de l’ensemble des types de chutes possibles.
Ces défauts, tant des systèmes portatifs que ceux reposant sur l’analyse d’images, fait qu’aujourd’hui il n’existe pas de système de détection de chute suffisamment fiable pour être utilisé en conditions réelles.
Un objectif de l’invention est d’améliorer la fiabilité de la détection de chute par un système automatique. Un autre objectif est de permettre une détection de chute en temps réel.
A cet effet, l’invention a pour objet, selon un premier aspect, un procédé de détection du type précité, comprenant les étapes supplémentaires suivantes :
- pour chaque image analysée :
- optionnellement, détermination d’une évolution de la posture par comparaison de la posture de la personne dans l’image analysée avec une posture de la personne dans une image analysée précédente,
- comparaison de la posture et/ou de l’évolution de la posture avec au moins un critère de comparaison, et
- pour chaque critère de comparaison auquel il est satisfait, incrémentation d’un compteur individuel propre à l’image analysée,
- calcul d’un compteur aggloméré égal à la somme des compteurs individuels de plusieurs images analysées successives, et
- détection d’une chute lorsque le compteur aggloméré excède un seuil d’alerte prédéterminé.
Selon des modes de réalisation particuliers de l’invention, le procédé de détection présente également l’une ou plusieurs des caractéristiques suivantes, prise(s) isolément ou suivant toute(s) combinaison(s) techniquement possible(s) :
- les images analysées successives sont comprises dans une fenêtre temporelle de durée prédéterminée, ladite durée prédéterminée étant avantageusement comprise entre 0,5 et 10 secondes, par exemple comprise entre 1 et 5 secondes ;
- les images analysées successives sont constituées par toutes les images analysées comprises dans la fenêtre temporelle ;
- le calcul du compteur aggloméré est répété pour chaque image analysée, les images analysées successives étant constituées de l’image analysée et d’au moins une autre image analysée antérieure à ladite image analysée ;
- le seuil d’alerte est fonction du nombre d’images analysées successives et, le cas échéant, du nombre de critères ;
- la posture comprend un point de tête représentatif de la position de la tête de la personne dans l’image analysée, le ou les critère(s) de comparaison comprenant au moins un critère parmi les critères suivants :
- le point de tête se déplace d’une distance supérieure à un seuil, et
- le point de tête se déplace dans une direction prédéterminée durant un nombre d’images successives s’étalant sur une durée supérieure à un seuil de durée prédéterminé ;
- la posture comprend un vecteur de corps représentatif de la longueur et de l’orientation du corps de la personne dans l’image analysée, le ou les critère(s) de comparaison comprenant le critère suivant : le vecteur de corps se raccourcit d’une valeur supérieure à un seuil ;
- la posture comprend un vecteur de corps représentatif de la longueur et de l’orientation du corps de la personne dans l’image analysée et l’analyse comprend, pour chacune des images analysées, la détection d’une surface de sol dans l’image, le ou les critère(s) de comparaison comprenant le critère suivant : l’angle que forme le vecteur de corps avec la surface de sol est hors d’un intervalle de confiance prédéterminé ;
- la posture comprend au moins un point postural supérieur représentatif de la position dans l’image analysée d’un élément anatomique supérieur de la personne, ledit élément anatomique supérieur étant compris entre la tête et les hanches, et au moins un point postural inférieur représentatif de la position dans l’image analysée d’un élément anatomique inférieur de la personne, ledit élément anatomique inférieur étant compris entre les hanches et les pieds, le vecteur de corps reliant le barycentre du ou des point(s) postural (posturaux) inférieur(s) au barycentre du ou des point(s) postural (posturaux) supérieur(s) ; et
- la posture comprend une pluralité de points posturaux chacun représentatif de la position dans l’image analysée d’un élément anatomique de la personne, l’identification de la posture comprenant la détection d’au moins un point postural dans l’image analysée et la prédiction d’au moins un autre point postural à partir d’une posture de la personne dans une image analysée précédente.
L’invention a également pour objet, selon un deuxième aspect, un produit programme d’ordinateur comprenant des instructions pour l’exécution au moins des étapes de comparaison, incrémentation, calcul et détection d’un procédé de détection de chute tel que défini ci-dessus lorsque ledit programme informatique est exécuté par un processeur.
L’invention a encore pour objet, selon un troisième aspect, un support de stockage d’informations sur lequel est enregistré un tel produit programme d’ordinateur.
Enfin, l’invention a pour objet, selon un quatrième aspect, un système de détection de chute comprenant une caméra pour capturer un flux vidéo d’une scène dans laquelle évolue une personne, le flux vidéo comprenant une succession d’images de la scène, et une unité de traitement configurée pour :
- analyser au moins une partie des images de la scène de sorte à identifier, pour chacune des images analysées, une posture de la personne dans l’image,
- pour chaque image analysée :
- optionnellement, déterminer une évolution de la posture par comparaison de la posture de la personne dans l’image analysée avec une posture de la personne dans une image analysée précédente,
- comparer la posture et/ou l’évolution de la posture avec au moins un critère de comparaison, et
- incrémenter, pour chaque critère de comparaison auquel il est satisfait, un compteur individuel propre à l’image analysée,
- calculer un compteur aggloméré égal à la somme des compteurs individuels de plusieurs images analysées successives, et
- détecter une chute lorsque le compteur aggloméré excède un seuil d’alerte prédéterminé.
D’autres caractéristiques et avantages de l’invention apparaîtront à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple et faite en se référant aux dessins annexés, dans lesquels :
- la
est une représentation schématique d’un système de détection de chute selon un exemple de réalisation de l’invention, - la
est un exemple d’image capturée par une caméra du système de détection de la et analysée par une unité de traitement du système de la , - la
est un diagramme en blocs illustrant un procédé mis en œuvre par le système de détection de la , - la
est un diagramme en blocs illustrant une étape d’analyse d’image du procédé de la , et - la
est un diagramme en blocs illustrant une étape de suivi de posture du procédé de la .
Le système de détection 10 représenté sur la est destiné à détecter des chutes de personnes. A cet effet, le système de détection 10 comprend une caméra 12 et une unité de traitement 14.
La caméra 12 est configurée pour capturer un flux vidéo 16 d’une scène (non représentée), le flux vidéo 16 comprenant une succession d’images 18 de la scène. A cet effet, la caméra 12 est avantageusement positionnée en hauteur sur un mur d’une pièce (non représentée) et orientée de façon à couvrir la plus grande superficie de la pièce possible.
La caméra 12 est de préférence configurée pour que le flux vidéo 16 présente au moins 15 images par seconde, avantageusement au moins 30 images par seconde.
La caméra 12 est par exemple une caméra bidimensionnelle, apte à produire des images en deux dimensions de la scène. En variante, la caméra 12 est une caméra tridimensionnelle apte à produire des images en trois dimensions de la scène.
Comme visible sur la , l’unité de traitement 14 comprend un module d’analyse d’image 19 pour analyser au moins une partie des images 18 de la scène, et un module d’exploitation 20 pour exploiter des images 18 analysées.
Le module d’analyse d’image 19 est de préférence apte à analyser des images à une cadence supérieure ou égale à 15 images par seconde, avantageusement supérieure ou égale 30 images par seconde. La proportion d’images analysées par le module 19 par rapport au nombre d’images du flux vidéo 16 est typiquement égale au rapport de la cadence d’analyse du module 19 sur la cadence de prise de vue de la caméra 12 et est par exemple de la forme 1/2N, où N est un entier naturel. Lorsque la proportion d’images analysées est inférieure à 1, l’intervalle entre images analysées est de préférence constant, c’est-à-dire que le nombre d’images non analysées entre deux images analysées est constant.
Le module d’analyse d’image 19 comprend un module de zonage 21, un module de repérage de sol 22, et un module d’identification de posture 23.
En référence à la , le module de zonage 21 est configuré pour reconnaître différentes zones 24, 25 dans les images analysées 18. En particulier, le module de zonage 21 est configuré pour reconnaître dans chaque image analysée 18 au moins une zone 24 de vigilance, dans laquelle surveiller les éventuelles chutes de personnes. Le module de zonage 21 est également configuré pour reconnaître le cas échéant, dans au moins une partie des images analysées 18, une zone 25 d’exclusion de la détection de chute. Une telle zone 25 est typiquement constituée par une région de l’image 18 dans laquelle se trouve un lit ou un canapé.
Encore en référence à la , le module de repérage de sol 22 est configuré pour produire une donnée 27 représentative de l’orientation d’une surface de sol 26 dans chaque image analysée 18. A cet effet, le module de repérage de sol 22 est configuré pour détecter cette surface de sol 26 dans l’image 18 et pour produire la donnée représentative 27 en fonction de la surface 26 ainsi détectée. En variante, le module de repérage de sol 22 est configuré pour définir la donnée représentative 27 comme un vecteur s’étendant suivant la direction transversale de l’image 18, comme un vecteur s’étendant suivant une direction définie par un utilisateur, ou comme un vecteur s’étendant suivant une direction orthogonale à un élément de calibration, représentatif de la direction verticale, présent dans l’image 18.
Toujours en référence à la , le module d’identification de posture 23 est configuré pour identifier, pour chaque image analysée 18, une posture 28 de chaque personne 29 évoluant dans la scène.
Comme visible sur la , la posture 28 comprend une pluralité de points posturaux 30 chacun représentatif d’un élément anatomique de la personne. Ces points posturaux 30 comprennent des points posturaux supérieurs 32 représentatifs chacun de la position dans l’image analysée 18 d’un élément anatomique supérieur de la personne, ledit élément anatomique supérieur étant compris entre la tête et les hanches. Ils comprennent également des points posturaux inférieurs 34 représentatifs chacun de la position dans l’image analysée 18 d’un élément anatomique inférieur de la personne, ledit élément anatomique inférieur étant compris entre les hanches et les pieds.
Les points posturaux supérieurs 32 comprennent un point de tête (non visible sur les Figures), représentatif de la position de la tête de la personne dans l’image analysée 18, et un point de haut de torse 36, représentatif de la position du haut du torse de la personne dans l’image analysée 18.
Dans l’exemple représenté, les points posturaux supérieurs 32 comprennent également :
- un point d’oreille droite 38, représentatif de la position de l’oreille droite de la personne dans l’image analysée 18,
- un point d’œil droit 40, représentatif de la position de l’œil droit de la personne dans l’image analysée 18,
- un point de nez 42, représentatif de la position du nez de la personne dans l’image analysée 18,
- un point d’œil gauche 44, représentatif de la position de l’œil gauche de la personne dans l’image analysée 18, et
- un point d’oreille gauche 46, représentatif de la position de l’oreille gauche de la personne dans l’image analysée 18,
le point de tête formant le barycentre desdits points 38, 40, 42, 44 et 46.
Ici, les points posturaux supérieurs 32 comprennent encore des points de bras 48, 50, 52, 54, dont au moins un par bras de la personne, chacun représentatif de la position d’au moins une partie d’un bras de la personne dans l’image analysée 18. Dans l’exemple représenté, ces points de bras 48, 50, 52, 54 comprennent :
- un point de main droite 48, représentatif de la position de la main droite de la personne dans l’image analysée 18,
- un point de coude droit 50, représentatif de la position du coude droit de la personne dans l’image analysée 18,
- un point de coude gauche 52, représentatif de la position du coude gauche de la personne dans l’image analysée 18, et
- un point de main gauche 54, représentatif de la position de la main gauche de la personne dans l’image analysée 18.
Ici, les points posturaux supérieurs 32 comprennent enfin un point d’épaule droite 56, représentatif de la position de l’épaule droite de la personne dans l’image analysée 18, et un point d’épaule gauche 58, représentatif de la position de l’épaule gauche de la personne dans l’image analysée 18. Le point de haut de torse 36 est typiquement formé par le barycentre du point d’épaule droite 56 et du point d’épaule gauche 58.
Les points posturaux inférieurs 34 comprennent des points de jambe 60, 62, dont au moins un par jambe de la personne, chacun représentatif de la position d’au moins une partie d’une jambe de la personne dans l’image analysée 18. En particulier, ces points de jambe 60, 62 comprennent au moins un point de pied 60 par pied de la personne, chacun représentatif de la position d’au moins une partie d’un pied de la personne dans l’image analysée 18. Dans l’exemple représenté, les points de jambe 60, 62 comprennent également, pour chaque jambe de la personne, un point de genou 62 représentatif de la position du genou de la jambe dans l’image analysée 18.
Les points de pied 60 comprennent ici, pour chaque pied de la personne :
- un point de cheville 64 représentatif de la position de la cheville du pied dans l’image analysée 18,
- un point de talon 66 représentatif de la position du talon du pied dans l’image analysée 18,
- un point de gros orteil 67 représentatif de la position du gros orteil du pied dans l’image analysée 18, et
- un point de petit orteil 68 représentatif de la position du petit orteil du pied dans l’image analysée 18.
Dans l’exemple représenté, les points posturaux 30 comprennent également des points posturaux intermédiaires 70. Ces points posturaux intermédiaires 70 comprennent ici un point de hanche droite 72, un point de hanche gauche 74 et un point de ceinture 76 à mi-distance des points de hanche gauche et droite 72, 74.
En variante, la posture 28 comprend plus ou moins de points posturaux 30 que ceux mentionnés ci-dessus.
Les points posturaux 30 sont reliés les uns aux autres par des segments formant un squelette postural 78.
Ici, la posture 28 comprend également un vecteur de corps 80 représentatif de la longueur et de l’orientation du corps de la personne dans l’image analysée 18. Ce vecteur de corps 80 relie le barycentre 82 des points posturaux inférieurs 34 au barycentre 84 des points posturaux supérieurs 32. Pour la détermination des barycentres 82, 84, la même pondération est attribuée à chaque point postural 30.
Le module d’identification de posture 23 comprend en particulier un module de détection de points posturaux 90, un module de prédiction de points posturaux 92 et un module de post-traitement 94.
Le module de détection de points posturaux 90 est configuré pour détecter, pour chaque personne 29 visible sur l’image 18, au moins une partie des points posturaux 30 associés à ladite personne 29 à partir des données brutes de l’image 18.
Avantageusement, le module de détection 90 est également configuré pour attribuer à chaque point postural 30 détecté un indice de confiance et à la posture 28 une note de fiabilité. L’indice de confiance est par exemple compris entre 0 et 1. La note de fiabilité est typiquement égale à la moyenne des indices de confiance des points posturaux détectés.
Le module de prédiction de points posturaux 92 est configuré pour déterminer, pour chaque personne 29 visible sur l’image 18, si au moins une partie des points posturaux 30 associés à ladite personne 29 n’a pas été détectée par le module de détection 90. Le module de prédiction 92 est également configuré pour prédire, le cas échéant, pour le ou chaque point postural 30 non détecté, un point postural 30 prédit correspondant. Ce point postural 30 prédit est typiquement déduit de la posture de la personne 29 dans l’image analysée précédente, c’est-à-dire dans l’image analysée immédiatement antérieure à l’image analysée 18, par une méthode d’estimation du flux optique, par exemple la méthode Lucas-Kanade.
Avantageusement, le module de prédiction de points posturaux 92 est configuré pour ne pas prédire de point postural 30 prédit correspondant à un point postural 30 non détecté lorsqu’aucune des dix images analysées précédentes, c’est à dire des dix images immédiatement antérieures, ne présente de point postural détecté correspondant au point postural 30 non détecté.
Le module de post-traitement 94 est configuré pour valider chaque posture 28 en s’assurant que la note de fiabilité de ladite posture 28 est supérieure à un seuil de validation par exemple égal à la moitié de la note de fiabilité maximale. En cas de note de fiabilité de ladite inférieure audit seuil de validation, la posture 28 est écartée, c’est-à-dire qu’elle est traitée comme n’ayant pas été identifiée.
Le module de post-traitement 94 est également configuré pour filtrer les points posturaux 30 de chaque posture 28 validée de manière à écarter tout point postural dont l’indice de confiance est inférieur à un seuil de confiance par exemple égal à la moitié de l’indice de confiance maximal. En d’autres termes, le module de post-traitement 94 est configuré pour que tout point postural 30 présentant une note de fiabilité inférieure au seuil de confiance soit traité comme n’ayant pas été détecté.
Le module de post-traitement 94 est encore configuré pour déterminer, à partir des points posturaux 30 détectés et, le cas échéants, prédits, le vecteur de corps 80 de la posture 28.
Le module d’exploitation 20 comprend un module de localisation 100, un module de suivi 102, un module de détermination de paramètres statiques 103, un module de comparaison 104, un module de comptage 106 et un module de détection 108.
Le module de localisation 100 est configuré pour localiser, pour chaque posture 28 identifiée, la zone 24, 25 de l’image 18 dans laquelle ladite posture 28 est localisée. Le module de localisation 100 est également configurer pour arrêter l’analyse de la posture 28 lorsque la posture 28 est localisée dans une zone d’exclusion de la détection de chute 25 et pour enclencher la poursuite de l’analyse de la posture 28 lorsque la posture 28 est localisée dans une zone de vigilance 24.
La poursuite de l’analyse de la posture 28 est mise en œuvre par le module de suivi 102, le module de détermination de paramètres statiques 103, le module de comparaison 104, le module de comptage 106 et le module de détection 108.
Le module de suivi 102 est configuré pour suivre chaque posture 28 de l’image analysée 18 dans le temps.
A cet effet, le module de suivi 102 est configuré pour calculer, pour chaque posture 28 de l’image analysée 18, un score de similarité normal et un score de similarité inversé avec chaque posture antérieure de l’image analysée précédente, c’est-à-dire de l’image analysée immédiatement antérieure à l’image analysée 18. Il est également configuré pour associer chaque posture 28 à une posture antérieure de l’image analysée précédente en fonction des scores de similarité normaux et inversés.
En particulier, pour calculer le score de similarité normal, le module de suivi 102 est configuré pour mesurer la distance absolue euclidienne entre chaque point postural 30 de la posture 28 et le point postural correspondant de la posture antérieure. Il est également configuré pour sommer les distances ainsi obtenues et diviser cette somme par le nombre de valeurs contributives, les points posturaux 30 qui n’ont pas d’équivalents dans la posture antérieure étant exclus, le rapport ainsi obtenu constituant le score de similarité normal.
Pour calculer le score de similarité inversé, le module de suivi 102 est configuré pour mesurer la distance absolue euclidienne entre chaque point postural 30 de la posture 28 et le point postural miroir de la posture antérieure, c’est-à-dire le point postural correspondant au symétrique du point postural 30 considéré relativement au plan médian sagittal (ce qui revient à faire une inversion droite/gauche de la posture antérieure). Il est également configuré pour sommer les distances ainsi obtenues et diviser cette somme par le nombre de valeurs contributives, les points posturaux 30 qui n’ont pas d’équivalents miroirs dans la posture antérieure étant exclus, le rapport ainsi obtenu constituant le score de similarité inversé.
Avantageusement, le module de suivi 102 est configuré pour exclure tout score de similarité normal ou inversé dont le calcul repose sur moins de cinq valeurs contributives, c’est-à-dire pour exclure tout score de similarité calculé vis-à-vis d’une posture antérieure dans laquelle le nombre d’équivalents à des points posturaux 30 de la posture 18 est inférieur à cinq.
Pour associer chaque posture 28 à une posture antérieure de l’image analysée précédente, le module de suivi 102 est configuré pour associer tour à tour chaque posture 28 à la posture antérieure de l’image analysée précédente avec laquelle la posture 28 présente le plus faible de tous les scores de similarité normaux et inversés calculés pour cette posture 28, en prenant à chaque fois celle des postures 28 qui, de toutes les postures 28 restantes (non encore associées), présente le plus faible score de similarité normal ou inversé.
Le module de suivi 102 est encore configuré pour attribuer à chaque posture 28 un numéro de suivi égal au numéro de suivi attribué à la posture antérieure à laquelle elle est associée. Dans le cas où le nombre de postures 28 dans l’image analysée 18 est supérieur au nombre de postures antérieures dans l’image précédente, le module de suivi 102 est configuré pour attribuer à chaque posture 28 non associée à une posture antérieure un nouveau numéro de suivi, différent du ou de chacun des numéro(s) de suivi attribué(s) à la ou aux posture(s) antérieure(s).
Le module de suivi 102 est également configuré pour déterminer, pour chaque posture 28 de l’image analysée 18, une évolution de la posture par comparaison de ladite posture 28 avec la posture antérieure associée.
A cet effet, le module de suivi 102 est configuré pour comparer au moins une partie des éléments de la posture 28, par exemple certains points posturaux 30 et/ou le vecteur de corps 80, avec l’élément correspondant de la posture antérieure associée, et pour en déduire certains paramètres comme une direction de déplacement, une vitesse de déplacement, un pivotement et/ou une variation de longueur de membre ou de vecteur.
En particulier, le module de suivi 102 est configuré pour comparer le vecteur de corps 80 de la posture 28 avec le vecteur de corps de la posture antérieure associée, et pour en déduire une variation de longueur du vecteur de corps 80. Ladite variation de longueur est égale à la différence entre la longueur du vecteur de corps 80 de la posture 28 et la longueur du vecteur de corps de la posture antérieure associée.
Le module de suivi 102 est également configuré pour déduire de cette variation de longueur une valeur de raccourcissement du vecteur de corps 80. Cette valeur de raccourcissement vaut zéro lorsque la variation de longueur du vecteur de corps 80 est positive, et égale à la valeur absolue de la variation de longueur du vecteur de corps 80 lorsque ladite variation de longueur du vecteur de corps 80 est négative.
Le module de suivi 102 est encore configuré pour comparer le point de tête de la posture 28 avec le point de tête de la posture antérieure associée, et en déduire un sens de déplacement du point de tête selon une direction verticale et une distance de déplacement du point de tête. Le sens de déplacement du point de tête selon la direction verticale est fonction du signe de la différence entre l’ordonnée du point de tête dans l’image analysée 18 et l’ordonnée du point de tête dans l’image précédente : si ce signe est positif, alors le point de tête se déplace vers le sol (dans l’hypothèse la plus courante d’un repère d’image dont l’origine est dans le coin supérieur gauche) et si ce signe est négatif alors le point de tête se déplace vers le haut. La distance de déplacement du point du tête, quant à elle, est égale à la distance euclidienne entre la position du point de tête dans l’image analysée 18 et la position du point de tête dans l’image précédente.
Le module de détermination de paramètres statiques 103 est configuré pour déterminer au moins un paramètre statique de la posture 28 dans l’image analysée 18.
Typiquement, le module de détermination 103 est configuré pour mesurer l’angle formé entre le vecteur de corps 80 et la donnée 27 représentative de l’orientation de la surface de sol 26 dans l’image 18, cet angle constituant une donnée représentative de l’angle entre le corps de la personne 29 et la surface de sol 26.
Lorsque la caméra 12 est une caméra tridimensionnelle, le module de détermination 103 est avantageusement également configuré pour mesurer les composantes horizontale et verticale du vecteur de corps 80, la composante verticale étant mesurée selon la hauteur de l’image 18 et la composante horizontale étant mesurée dans le plan défini par les directions de largeur et de profondeur de l’image 18.
Le module de comparaison 104 est configuré pour comparer la posture 28 et/ou l’évolution de la posture 28 avec au moins un critère de comparaison. En particulier, le module de comparaison 104 est configuré pour vérifier, pour le ou chaque critère de comparaison, si ledit critère de comparaison est satisfait par un paramètre de la posture 28 ou de l’évolution de la posture 28 correspondant.
Ici, le module de comparaison 104 est configuré pour comparer la posture 28 et l’évolution de la posture 28 avec plusieurs critères de comparaison. Ces critères de comparaison comprennent :
- un critère de distance de déplacement de tête imposant que le point de tête se déplace d’une distance supérieure à un seuil de distance,
- un critère de direction de déplacement de tête imposant que le point de tête se déplace vers le sol durant un nombre d’images successives s’étalant sur une durée supérieure à un seuil de durée prédéterminé,
- un critère de longueur de corps imposant que le raccourcissement du vecteur de corps 80 soit supérieur à un seuil de raccourcissement, et
- un critère d’angle de corps imposant que le vecteur de corps 80 forme avec la surface de sol un angle qui soit hors d’un intervalle de confiance prédéterminé.
L’intervalle de confiance prédéterminé s’étend par exemple de 45° à 135°.
Le seuil de durée est par exemple compris entre 0,1 et 0,5 seconde, avantageusement compris entre 0,10 et 0,20 seconde, très avantageusement compris entre 0,14 et 0,16 seconde.
Le seuil de distance est avantageusement égal à une moyenne de valeurs antérieures de distance de déplacement de tête calculées pour des postures antérieures ayant le même numéro de suivi que la posture 28 et présentes dans des images antérieures comprises dans une première fenêtre temporelle de moyennage, ces valeurs antérieures étant pondérées par le double de leur écart-type. En d’autres termes, la valeur du seuil de distance est donnée par l’équation suivante :
où Sdest le seuil de distance, n est le nombre d’images antérieures comprises dans la première fenêtre temporelle de moyennage, d1, …, dnsont les valeurs antérieures de distance de déplacement de tête calculées pour les postures antérieures ayant le même numéro de suivi que la posture 28 et présentes dans lesdites images antérieures comprises dans ladite première fenêtre temporelle de moyennage, et σ(d1), …, σ(dn) sont les écarts-types desdites valeurs antérieures de distance de déplacement de tête.
Le seuil de raccourcissement est avantageusement égal à une moyenne de valeurs antérieures de raccourcissement du corps calculées pour des postures antérieures ayant le même numéro de suivi que la posture 28 et présentes dans des images antérieures comprises dans une deuxième fenêtre temporelle de moyennage, ces valeurs antérieures étant pondérées par le double de leur écart-type. En d’autres termes, la valeur du seuil de raccourcissement est donnée par l’équation suivante :
où Srest le seuil de raccourcissement, n est le nombre d’images antérieures comprises dans la deuxième fenêtre temporelle de moyennage, r1, …, rnsont les valeurs antérieures de raccourcissement du corps calculées pour les postures antérieures ayant le même numéro de suivi que la posture 28 et présentes dans lesdites images antérieures comprises dans ladite deuxième fenêtre temporelle de moyennage, et σ(r1), …, σ(rn) sont les écarts-types desdites valeurs antérieures de raccourcissement du corps.
Les première et deuxième fenêtres temporelles de moyennage sont en particulier des fenêtres temporelles glissantes, c’est-à-dire qu’elles ont chacune une durée prédéterminée et s’achèvent à l’instant de prise de vue de l’image analysée 18. Ces fenêtres temporelles sont typiquement confondues. Chacune a de préférence une durée comprise entre 1 seconde et 5 secondes, par exemple comprise entre 2,5 et 3,5 secondes, avantageusement sensiblement égale à 3 secondes.
Lorsque la caméra 12 est une caméra tridimensionnelle, le module de comparaison 104 est avantageusement configuré pour comparer la posture 28 avec un critère supplémentaire d’alignement du corps dans le champ de profondeur de l’image, ce critère imposant que la composante horizontale du vecteur de corps 80 soit supérieure à sa composante verticale.
Le module de comptage 106 est configuré pour incrémenter, pour chaque critère de comparaison auquel il est satisfait, un compteur individuel propre à la posture 28 de l’image analysée 18. Ce compteur individuel est ainsi compris entre une valeur minimale, égale à zéro, et une valeur maximale inférieure ou égale au nombre de critères de comparaison. Avantageusement, la valeur maximale du compteur individuel est égale au nombre de critères de comparaison.
Le module de comptage 106 est également configuré pour calculer, pour chaque posture 28 identifiée dans l’image analysée 18, un compteur aggloméré égal à la somme des compteurs individuels de plusieurs postures ayant le même numéro de suivi que la posture 28 présentes dans des images analysées successives. Ces images analysées successives sont constituées par toutes les images analysées comprises dans une fenêtre temporelle de comptage, y compris l’image analysée 18. La fenêtre temporelle de comptage est en particulier une fenêtre temporelle glissante, c’est-à-dire qu’elle a une durée prédéterminée et s’achève à l’instant de prise de vue de l’image analysée 18. La fenêtre temporelle de comptage a de préférence une durée comprise entre 0,5 et 10 secondes, par exemple comprise entre 1 et 5 secondes, avantageusement sensiblement égale à 3 secondes.
Le compteur aggloméré est ainsi compris entre une valeur minimale, égale à zéro, et une valeur maximale égale au produit de la valeur maximale du compteur individuel par le nombre d’images analysées successives. La valeur maximale du compteur aggloméré est donc avantageusement égale au produit du nombre de critères par le nombre d’images analysées successives.
Le module de comptage 106 est configuré pour répéter le calcul du compteur aggloméré pour chaque posture 28 de chaque image analysée 18, les images analysées successives étant constituées de l’image analysée 18 et de toutes les autres images analysées comprises dans la fenêtre temporelle de comptage antérieures à ladite image analysée 18.
Le module de détection 108 est configuré pour détecter une chute lorsqu’un compteur aggloméré excède un seuil d’alerte prédéterminé. Ce seuil d’alerte prédéterminé est une fraction de la valeur maximale du compteur aggloméré. Ainsi, il est fonction du nombre d’images analysées successives. De plus, il est avantageusement fonction du nombre de critères.
En particulier, le seuil d’alerte prédéterminé est de préférence compris entre 40% et 70%, par exemple entre 50% et 60%, avantageusement entre 53% et 57%, de la valeur maximale du compteur aggloméré.
Dans l’exemple représenté, le système de détection 10 est adapté pour alerter une personne en cas de détection de chute. A cet effet, le module d’exploitation 20 comprend également un module d’alerte 110, et le système de détection 10 comprend un système d’alerte 120.
Le système d’alerte 120 est propre à alerter une personne lorsqu’il est activé. A cet effet, le système d’alerte 120 est par exemple propre à produire une alerte sonore ou visuelle.
Le module d’alerte 110 est quant à lui propre à activer le système d’alerte 120 lorsqu’une chute est détectée par le module de détection 108.
Un procédé 200 mis en œuvre par le système de détection 10 va maintenant être décrit en référence à la .
Ce procédé 200 comprend une première étape 202 de capture d’un flux vidéo, lors de laquelle la caméra 12 capture le flux vidéo 16 de la scène.
A cette première étape 202 succède une étape 204 de sélection d’une image du flux, lors de laquelle une image 18 du flux 16 est sélectionnée par le module 19 pour analyse. Cette image 18 sélectionnée est par exemple constituée par la première image du flux 16 séparée de la dernière image analysée d’un intervalle prédéterminé, cet intervalle pouvant être nul.
Ensuite, l’image 18 est analysée par le module d’analyse 19 lors d’une étape d’analyse 210.
En référence à la , cette étape d’analyse 210 comprend une première sous-étape 212 de zonage de l’image, au cours de laquelle le module de zonage 21 reconnaît la ou les zone(s) 24, 25 de l’image analysée 18.
La sous-étape 212 est suivie d’une sous-étape 214 de repérage de la surface de sol, lors de laquelle le module de repérage de sol 22 produit la donnée 27 représentative de l’orientation de cette surface de sol 26 dans l’image 18.
A la sous-étape 214 succède une sous-étape 216 d’identification d’une posture de personne, lors de laquelle le module d’identification 23 identifie une posture de personne dans l’image 18.
Cette sous-étape d’identification 216 comprend elle-même plusieurs sous-étapes 216A, 216B, 216C, 216D, 216E.
La première sous-étape 216A est une étape de détection de points posturaux. Lors de cette première sous-étape 216A, le module de détection de points posturaux 90 détecte des points posturaux 30 dans l’image 18 et les associe à une même posture 28.
La deuxième sous-étape 216B est une étape de prédiction de points posturaux. Lors de cette deuxième sous-étape 216B, le module de prédiction de points posturaux 92 détermine si au moins une partie des points posturaux 30 de la posture 28 n’a pas été détectée. Le cas échéant, il prédit, pour le ou chaque point postural 30 non détecté, un point postural 30 prédit correspondant.
La troisième sous-étape 216C est une étape de validation de la posture 28. Lors de cette troisième sous-étape 216C, le module de post-traitement 94 valide la posture 28 en s’assurant que la note de fiabilité de ladite posture 28 est supérieure au seuil de validation. Si cette condition n’est pas respectée, il écarte la posture 28.
La quatrième sous-étape 216D est une étape de filtrage de points posturaux. Lors de cette quatrième sous-étape 216D, le module de post-traitement 94 écarte tout point postural 30 de la posture 28 dont l’indice de confiance est inférieur au seuil de confiance.
La cinquième sous-étape 216E est une étape de détermination du vecteur de corps. Lors de cette cinquième sous-étape 216E, le module de post-traitement 94 détermine le vecteur de corps 80 de la posture 28 à partir des points posturaux 30 détectés et, le cas échéant, prédits.
L’étape 216 est répétée pour chaque personne 29 évoluant dans la scène.
De retour à la , le procédé 200 comprend encore une étape 220 de localisation de la posture dans l’image. Lors de cette étape 220, le module de localisation 100 localise, pour chaque posture 28 présente dans l’image 18, la zone 24, 25 de l’image 18 dans laquelle ladite posture 28 est localisée. Il arrête l’analyse de la posture 28 si la posture 28 est localisée dans une zone d’exclusion de la détection de chute 25 et enclenche la poursuite de l’analyse de la posture 28 si la posture 28 est localisée dans une zone de vigilance 24.
Si l’analyse de posture est arrêtée pour chaque posture 28 présente dans l’image 18, le procédé 200 revient à l’étape 204. Sinon, le procédé 200 poursuit avec une étape 222 pour la ou chaque posture 28 présente dans l’image 18 dont l’analyse est poursuivie.
L’étape 222 est une étape de suivi de la posture 28 dans le temps.
En référence à la , l’étape de suivi 222 comprend une première sous-étape 222A de calcul d’un score de similarité normal, lors de laquelle le module de suivi 102 calcule un score de similarité normal avec chaque posture antérieure de l’image analysée précédente, c’est-à-dire de l’image analysée immédiatement antérieure à l’image analysée 18.
L’étape de suivi 222 comprend également une deuxième sous-étape 222B de calcul d’un score de similarité inversé, lors de laquelle le module de suivi 102 calcule un score de similarité inversé avec chaque posture antérieure de l’image analysée précédente.
Les première et deuxième sous-étapes 222A, 222B sont mises en œuvre successivement ou, comme représenté, parallèlement l’une à l’autre.
L’étape de suivi 222 comprend encore une troisième sous-étape 222C d’association de la posture avec une posture antérieure, lors de laquelle le module de suivi 102 associe la posture 28 à une posture antérieure de l’image analysée précédente en fonction des scores de similarité normaux et inversés. Cette posture antérieure à laquelle la posture 28 est associée est en particulier constituée par celle des postures antérieures de l’image analysée précédente avec laquelle la posture 28 présente le plus faible de tous les scores de similarité normaux et inversés calculés pour cette posture 28.
L’étape de suivi 222 comprend enfin une quatrième sous-étape 222D d’attribution d’un numéro de suivi à la posture 28. Lors de cette sous-étape 222D, le module de suivi 102 attribue à la posture 28 un numéro de suivi :
- égal à un numéro de suivi antérieurement attribué à la posture antérieure à laquelle elle est associée, dans le cas où la posture 28 est associée à une telle posture antérieure,
- différent du ou de chacun des numéro(s) de suivi antérieurement attribué(s) à la ou aux posture(s) antérieure(s) dans le cas où la posture 28 n’est associée à aucune posture antérieure, par exemple lorsque le nombre de postures 28 dans l’image analysée 18 est supérieur au nombre de postures antérieures dans l’image précédente.
De retour à la , le procédé 200 comprend encore une étape 230 de détermination d’une évolution de la posture au cours de laquelle le module de suivi 102 détermine une évolution de la posture 28 par comparaison de ladite posture 28 avec la posture antérieure associée.
Cette étape 230 comprend une première sous-étape 232 de calcul d’une distance de déplacement du point de tête. Lors de cette sous-étape 232, le module de suivi 102 compare le point de tête de la posture 28 avec le point de tête de la posture antérieure associée et en déduit une distance de déplacement du point de tête égale à la distance euclidienne entre la position du point de tête dans l’image analysée 18 et la position du point de tête dans l’image précédente.
L’étape 230 comprend également une deuxième sous-étape 234 de calcul d’une direction de déplacement du point de tête. Lors de cette sous-étape 234, le module de suivi 102 compare le point de tête de la posture 28 avec le point de tête de la posture antérieure associée et en déduit un sens de déplacement du point de tête selon la direction verticale, fonction du signe de la différence entre l’ordonnée du point de tête dans l’image analysée 18 et l’ordonnée du point de tête dans l’image précédente.
L’étape 230 comprend encore une troisième sous-étape 236 de calcul d’une valeur de raccourcissement du vecteur de corps. Lors de cette sous-étape 236, le module de suivi 102 compare le vecteur de corps 80 de la posture 28 avec le vecteur de corps de la posture antérieure associée, et en déduit une variation de longueur du vecteur de corps 80 égale à la différence entre la longueur du vecteur de corps 80 de la posture 28 et la longueur du vecteur de corps de la posture antérieure associée. Le module de suivi 102 déduit également de cette variation de longueur une valeur de raccourcissement du vecteur de corps 80, laquelle vaut zéro lorsque la variation de longueur du vecteur de corps 80 est positive, et est égale à la valeur absolue de la variation de longueur du vecteur de corps 80 lorsque ladite variation de longueur du vecteur de corps 80 est négative.
Les sous-étapes 232, 234, 236 sont mises en œuvre successivement ou, comme représenté, parallèlement les unes aux autres.
Le procédé 200 comprend encore une étape 240 de détermination de paramètres statiques de la posture, lors de laquelle le module de détermination de paramètres statiques 103 détermine au moins un paramètre statique de la posture 28 dans l’image analysée 18.
Cette étape de détermination 240 comprend notamment une sous-étape 242 de calcul de l’angle que le vecteur de corps forme avec le sol. Lors de cette sous-étape 242, le module de détermination 103 mesure l’angle formé entre le vecteur de corps 80 et la donnée 27 représentative de l’orientation de la surface de sol 26 dans l’image 18, cet angle constituant l’angle entre le vecteur de corps 80 et le sol.
Optionnellement, lorsque la caméra 12 est une caméra tridimensionnelle, l’étape de détermination 240 comprend également une autre sous-étape (non représentée) de mesure des composantes horizontale et verticale du vecteur de corps 80, la composante verticale étant mesurée selon la hauteur de l’image 18 et la composante horizontale étant mesurée dans le plan défini par les directions de largeur et de profondeur de l’image 18.
Les étapes 230 et 240 sont mises en œuvre successivement ou, comme représenté, parallèlement l’une à l’autre.
Les étapes 230 et 240 sont suivies par une étape 250 de comparaison de la posture 28 et/ou de l’évolution de la posture 28 avec au moins un critère de comparaison, lors de laquelle le module de comparaison 104 vérifie, pour le ou chaque critère de comparaison, si ledit critère de comparaison est satisfait par un paramètre de la posture 28 ou de l’évolution de la posture 28 correspondant.
Cette étape 250 comprend :
- une première sous-étape 252 de comparaison de la distance de déplacement du point de tête mesurée lors de la sous-étape 232 avec le critère de distance de déplacement de tête imposant que le point de tête se déplace d’une distance supérieure au seuil de distance,
- une deuxième sous-étape 254 de comparaison de la direction de déplacement du point de tête calculée lors de la sous-étape 234 avec le critère de direction de déplacement de tête imposant que le point de tête se déplace vers le sol durant un nombre d’images successives s’étalant sur une durée supérieure au seuil de durée prédéterminé,
- une troisième sous-étape 256 de comparaison de la valeur de raccourcissement du vecteur de corps calculée lors de la sous-étape 236 avec le critère de longueur de corps imposant que le raccourcissement du vecteur de corps 80 soit supérieur au seuil de raccourcissement, et
- une quatrième sous-étape 258 de comparaison de l’angle calculé lors de la sous-étape 242 avec le critère d’angle de corps imposant que le vecteur de corps 80 forme avec la surface de sol un angle qui soit hors de l’intervalle de confiance prédéterminé.
Optionnellement, lorsque la caméra 12 est une caméra tridimensionnelle, l’étape de comparaison 250 comprend également une autre sous-étape (non représentée) de comparaison des composantes horizontale et verticale du vecteur de corps 80 déterminées précédemment avec le critère d’alignement du corps dans le champ de profondeur de l’image imposant que la composante horizontale du vecteur de corps 80 soit supérieure à sa composante verticale.
Les sous-étapes 252, 254, 256 et 258 sont mises en œuvre successivement ou, comme représenté, parallèlement les unes aux autres.
L’étape de comparaison 250 est suivie d’une étape 260 d’incrémentation du compteur individuel propre à la posture 28 de l’image analysée 18. Lors de cette étape 260, le module de comptage 106 incrémente ledit compteur individuel pour chaque critère de comparaison auquel il est satisfait.
A l’étape 260 succède une étape 270 de calcul du compteur aggloméré. Lors de cette étape 270, le module de comptage 106 somme les compteurs individuels de toutes les postures ayant le même numéro de suivi que la posture 28 présentes dans chacune des images analysées comprises dans la fenêtre temporelle de comptage, y compris l’image analysée 18.
Les étapes 222, 230, 240, 250, 260 et 270 sont répétées pour chaque posture 28 présente dans l’image analysée 18.
Le procédé 200 comprend encore une étape de détection de chute 280 faisant suite à l’étape 270, lors de laquelle le module de détection 108 détecte une chute lorsque l’un des compteurs agglomérés calculés à l’étape 270 excède le seuil d’alerte.
Cette étape 280 comprend une première sous-étape 282 lors de laquelle le module de détection 108 compare chaque compteur aggloméré calculé à l’étape 270 au seuil d’alerte.
En l’absence de compteur aggloméré supérieur au seuil d’alerte, la première sous-étape 282 est suivie d’une deuxième sous-étape 284 de non-détection de chute. Lors de cette deuxième sous-étape 284, le module de détection 108 conclut à l’absence de chute et le procédé 200 revient à l’étape 204.
En cas de compteur aggloméré supérieur au seuil d’alerte, la première sous-étape 282 est suivie d’une troisième sous-étape 286 de détection de chute. Lors de cette troisième sous-étape 286, le module de détection 108 conclut à la présence de chute et enclenche une nouvelle étape 290 du procédé 200.
L’étape 290 est une étape d’émission d’un alerte. Lors de cette étape 290, le module d’alerte 110 active le système d’alerte 120. Ce dernier alerte alors une personne, par exemple par production d’une alerte sonore ou visuelle.
Le procédé 200 revient ensuite à l’étape 204.
Grâce à l’exemple de réalisation décrit ci-dessus, la fiabilité de la détection de chute est améliorée. Le système 10 permet en effet la détection de chutes de types variés, aussi bien lentes que rapides, grâce à une sensibilité tant à des critères statiques que dynamiques.
De plus, l’architecture du système 10 le rend suffisamment peu gourmand en ressources pour traiter le flux vidéo capturé en temps réel et permettre ainsi une détection de chute en temps réel.
On notera que, dans cet exemple de réalisation, le module d’analyse d’images 19 et le module d’exploitation 20 sont réalisés sous la forme d'un programme d’ordinateur stocké dans une mémoire 300 du système de traitement 14 et apte à être exécuté par un processeur 302 associé à la mémoire 300. Ce programme d’ordinateur comprend des instructions logicielles adaptées pour que, lorsqu’il est exécuté par le processeur 302, le système de détection 10 mette en œuvre le procédé de détection de chute 200.
Par exemple, le module de détection de points posturaux 90 est constitué par le logiciel OpenPose décrit dans l’article « OpenPose: realtime multi-person 2D pose estimation using part affinity fields » par Z. Cao, G. Hidalgo, T. Simon, S. -E. Wei et Y. Sheikh,IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 43, n° 1, pp. 172-186, 1erJan. 2021.
En variante, le module d’analyse d’images 19 et le module d’exploitation 20 sont réalisés au moins partiellement sous la forme d'un composant logique programmable, ou encore sous la forme d'un circuit intégré dédié, inclus dans le système de traitement 14.
Claims (13)
- Procédé de détection de chute (200), comprenant les étapes suivantes :
- capture (202) d’un flux vidéo (16) d’une scène dans laquelle évolue une personne (29), le flux vidéo (16) comprenant une succession d’images (18) de la scène,
- analyse (210) d’au moins une partie des images (18) de la scène, ladite analyse (210) comprenant, pour chacune des images (18) analysées, l’identification (216) d’une posture (28) de la personne (29) dans l’image (18),
- pour chaque image (18) analysée :
- optionnellement, détermination (230) d’une évolution de la posture (28) par comparaison de la posture (28) de la personne (29) dans l’image (18) analysée avec une posture de la personne (29) dans une image analysée précédente,
- comparaison (250) de la posture (28) et/ou de l’évolution de la posture avec au moins un critère de comparaison, et
- pour chaque critère de comparaison auquel il est satisfait, incrémentation (260) d’un compteur individuel propre à l’image (18) analysée,
- calcul (270) d’un compteur aggloméré égal à la somme des compteurs individuels de plusieurs images analysées successives, et
- détection (280) d’une chute lorsque le compteur aggloméré excède un seuil d’alerte prédéterminé.
- Procédé de détection de chute (200) selon la revendication 1, dans lequel les images analysées successives sont comprises dans une fenêtre temporelle de durée prédéterminée, ladite durée prédéterminée étant avantageusement comprise entre 0,5 et 10 secondes, par exemple comprise entre 1 et 5 secondes.
- Procédé de détection de chute (200) selon la revendication 2, dans lequel les images analysées successives sont constituées par toutes les images analysées comprises dans la fenêtre temporelle.
- Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel le calcul (270) du compteur aggloméré est répété pour chaque image (18) analysée, les images analysées successives étant constituées de l’image (18) analysée et d’au moins une autre image analysée antérieure à ladite image (18) analysée.
- Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel le seuil d’alerte est fonction du nombre d’images analysées successives et, le cas échéant, du nombre de critères.
- Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel la posture (28) comprend un point de tête représentatif de la position de la tête de la personne (29) dans l’image (18) analysée, le ou les critère(s) de comparaison comprenant au moins un critère parmi les critères suivants :
- le point de tête se déplace d’une distance supérieure à un seuil, et
- le point de tête se déplace dans une direction prédéterminée durant un nombre d’images successives s’étalant sur une durée supérieure à un seuil de durée prédéterminé.
- Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel la posture (28) comprend un vecteur de corps (80) représentatif de la longueur et de l’orientation du corps de la personne (29) dans l’image (18) analysée, le ou les critère(s) de comparaison comprenant le critère suivant : le vecteur de corps (80) se raccourcit d’une valeur supérieure à un seuil.
- Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel la posture (28) comprend un vecteur de corps (80) représentatif de la longueur et de l’orientation du corps de la personne (29) dans l’image (18) analysée et l’analyse comprend, pour chacune des images (18) analysées, la détection (214) d’une surface de sol (26) dans l’image (18), le ou les critère(s) de comparaison comprenant le critère suivant : l’angle que forme le vecteur de corps (80) avec la surface de sol (26) est hors d’un intervalle de confiance prédéterminé.
- Procédé de détection de chute (200) selon la revendication 7 ou 8, dans lequel la posture (28) comprend au moins un point postural supérieur (32) représentatif de la position dans l’image (18) analysée d’un élément anatomique supérieur de la personne (29), ledit élément anatomique supérieur étant compris entre la tête et les hanches, et au moins un point postural inférieur (34) représentatif de la position dans l’image (18) analysée d’un élément anatomique inférieur de la personne (29), ledit élément anatomique inférieur étant compris entre les hanches et les pieds, le vecteur de corps (80) reliant le barycentre (82) du ou des point(s) postural (posturaux) inférieur(s) (34) au barycentre (84) du ou des point(s) postural (posturaux) supérieur(s) (32).
- Procédé de détection de chute (200) selon l’une quelconque des revendications précédentes, dans lequel la posture (28) comprend une pluralité de points posturaux (30) chacun représentatif de la position dans l’image (18) analysée d’un élément anatomique de la personne (29), l’identification (216) de la posture (28) comprenant la détection (216A) d’au moins un point postural (30) dans l’image (18) analysée et la prédiction (216B) d’au moins un autre point postural à partir d’une posture de la personne (29) dans une image analysée précédente.
- Produit programme d’ordinateur comprenant des instructions pour la mise en œuvre au moins des étapes de comparaison (250), incrémentation (260), calcul (270) et détection (280) d’un procédé de détection de chute (200) selon l'une quelconque des revendications 1 à 10 lorsque ledit programme informatique est exécuté par un processeur (302).
- Support de stockage d’informations (300) sur lequel est enregistré un produit programme d’ordinateur selon la revendication 11.
- Système de détection de chute (10) comprenant une caméra (12) pour capturer un flux vidéo (16) d’une scène dans laquelle évolue une personne (29), le flux vidéo (16) comprenant une succession d’images (18) de la scène, et une unité de traitement (14) configurée pour :
- analyser au moins une partie des images (18) de la scène de sorte à identifier, pour chacune des images analysées, une posture (28) de la personne (29) dans l’image (18),
- pour chaque image (18) analysée :
- optionnellement, déterminer une évolution de la posture (28) par comparaison de la posture (28) de la personne (29) dans l’image (18) analysée avec une posture de la personne (29) dans une image analysée précédente,
- comparer la posture (28) et/ou l’évolution de la posture avec au moins un critère de comparaison, et
- incrémenter, pour chaque critère de comparaison auquel il est satisfait, un compteur individuel propre à l’image (18) analysée,
- calculer un compteur aggloméré égal à la somme des compteurs individuels de plusieurs images analysées successives, et
- détecter une chute lorsque le compteur aggloméré excède un seuil d’alerte prédéterminé.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2205075A FR3136094B1 (fr) | 2022-05-25 | 2022-05-25 | Procédé de détection de chute par analyse d’images |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2205075 | 2022-05-25 | ||
| FR2205075A FR3136094B1 (fr) | 2022-05-25 | 2022-05-25 | Procédé de détection de chute par analyse d’images |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| FR3136094A1 true FR3136094A1 (fr) | 2023-12-01 |
| FR3136094B1 FR3136094B1 (fr) | 2024-09-27 |
Family
ID=83506547
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR2205075A Active FR3136094B1 (fr) | 2022-05-25 | 2022-05-25 | Procédé de détection de chute par analyse d’images |
Country Status (1)
| Country | Link |
|---|---|
| FR (1) | FR3136094B1 (fr) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012119903A1 (fr) * | 2011-03-04 | 2012-09-13 | Deutsche Telekom Ag | Procédé et système de détection de chute et de transmission d'une alarme |
| EP2763116A1 (fr) * | 2013-02-01 | 2014-08-06 | FamilyEye BVBA | Système de détection de chute et procédé de détection d'une chute d'une personne surveillée |
| WO2016143641A1 (fr) * | 2015-03-06 | 2016-09-15 | コニカミノルタ株式会社 | Dispositif de détection de posture et procédé de détection de posture |
-
2022
- 2022-05-25 FR FR2205075A patent/FR3136094B1/fr active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2012119903A1 (fr) * | 2011-03-04 | 2012-09-13 | Deutsche Telekom Ag | Procédé et système de détection de chute et de transmission d'une alarme |
| EP2763116A1 (fr) * | 2013-02-01 | 2014-08-06 | FamilyEye BVBA | Système de détection de chute et procédé de détection d'une chute d'une personne surveillée |
| WO2016143641A1 (fr) * | 2015-03-06 | 2016-09-15 | コニカミノルタ株式会社 | Dispositif de détection de posture et procédé de détection de posture |
Non-Patent Citations (1)
| Title |
|---|
| Z. CAOG. HIDALGOT. SIMONS. -E. WEIY. SHEIKH, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 43, no. 1, 1 January 2021 (2021-01-01), pages 172 - 186 |
Also Published As
| Publication number | Publication date |
|---|---|
| FR3136094B1 (fr) | 2024-09-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10506990B2 (en) | Devices and methods for fall detection based on phase segmentation | |
| Hazelhoff et al. | Video-based fall detection in the home using principal component analysis | |
| Vaidehi et al. | Video based automatic fall detection in indoor environment | |
| Fan et al. | Fall detection via human posture representation and support vector machine | |
| Merrouche et al. | Depth camera based fall detection using human shape and movement | |
| WO2020217812A1 (fr) | Dispositif de traitement d'images qui reconnaît l'état d'un sujet et procédé associé | |
| JP2004054376A (ja) | グループ属性推定方法及びグループ属性推定装置 | |
| Bosch-Jorge et al. | Fall detection based on the gravity vector using a wide-angle camera | |
| FR2915301A1 (fr) | Procede de comparaison d'images d'une biometrie entre au moi ns une image de reference et au moins une image de test dont on cherche a evaluer un degre de correlation avec l'image d e reference | |
| CN104063871B (zh) | 可穿戴设备的图像序列场景分割方法 | |
| US20250182480A1 (en) | Keyframe Selection for Computer Vision Analysis | |
| WO2016146937A1 (fr) | Procédé de traitement d'un signal asynchrone | |
| CN113569793A (zh) | 一种跌倒识别方法及装置 | |
| Singh et al. | A multi-gait dataset for human recognition under occlusion scenario | |
| CN112949538A (zh) | 一种目标关联方法、装置、电子设备及机器可读存储介质 | |
| FR3136094A1 (fr) | Procédé de détection de chute par analyse d’images | |
| EP2467061B1 (fr) | Systeme et procede de detection de crise d'epilepsie d'une personne epileptique allongee | |
| Willems et al. | A video-based algorithm for elderly fall detection | |
| Boudouane et al. | Wearable camera for fall detection embedded system | |
| FR3084943A1 (fr) | Procede pour obtenir une image d'empreinte digitale | |
| CN114127816A (zh) | 在无需可穿戴件的情况下进行在地板上检测的系统和方法 | |
| Saraswat et al. | Pose estimation based fall detection system using mediapipe | |
| CN112560557A (zh) | 人数检测方法、人脸检测方法、装置及电子设备 | |
| Lee et al. | Automated abnormal behavior detection for ubiquitous healthcare application in daytime and nighttime | |
| Khan et al. | A novel hybrid fall detection technique using body part tracking and acceleration |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PLFP | Fee payment |
Year of fee payment: 2 |
|
| PLSC | Publication of the preliminary search report |
Effective date: 20231201 |
|
| PLFP | Fee payment |
Year of fee payment: 3 |
|
| PLFP | Fee payment |
Year of fee payment: 4 |