FR3159699A1 - device and method for annotating medical images - Google Patents
device and method for annotating medical imagesInfo
- Publication number
- FR3159699A1 FR3159699A1 FR2401946A FR2401946A FR3159699A1 FR 3159699 A1 FR3159699 A1 FR 3159699A1 FR 2401946 A FR2401946 A FR 2401946A FR 2401946 A FR2401946 A FR 2401946A FR 3159699 A1 FR3159699 A1 FR 3159699A1
- Authority
- FR
- France
- Prior art keywords
- target image
- interest
- tiles
- annotation
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Dispositif et procédé d’annotation d’images médicales Il est décrit un procédé d’annotation d’ une image cible obtenue par imagerie médicale comprenant:- une application, sur les tuiles d’images de référence, d’un modèle de fondation entraîné pour obtenir une représentation vectorielle d’une image médicale décomposée en tuiles,- une annotation de données médicales sur lesdites images de référence,- une application, du modèle de fondation, pour obtenir une représentation vectorielle des tuiles de ladite image cible,-une comparaison des représentations vectorielles des tuiles de l’image cible et des images de référence,- une sélection, pour chaque tuile de ladite image cible, d’au moins une tuile d’ une image de référence, en fonction de la distance entre leur représentation vectorielle,- une obtention d’une annotation médicale en affectant à chaque tuile de l’image cible, l’annotation d’une donnée médicale associée à la tuile sélectionnée de l’image de référence. Figure pour l’abrégé : Fig. 1Device and method for annotating medical images A method for annotating a target image obtained by medical imaging is described, comprising: - an application, on the reference image tiles, of a foundation model trained to obtain a vector representation of a medical image decomposed into tiles, - an annotation of medical data on said reference images, - an application, of the foundation model, to obtain a vector representation of the tiles of said target image, - a comparison of the vector representations of the tiles of the target image and the reference images, - a selection, for each tile of said target image, of at least one tile of a reference image, according to the distance between their vector representation, - obtaining a medical annotation by assigning to each tile of the target image, the annotation of medical data associated with the selected tile of the reference image. Figure for abstract: Fig. 1
Description
La présente invention concerne le domaine de l’annotation des images radiologiques.The present invention relates to the field of annotation of radiological images.
Dans le domaine de l’imagerie médicale, il est important de noter que l'interprétation des images issues des appareils de radiologie, tels des CT-scan, des IRMs, nécessite une expertise et une expérience considérables de la part du radiologue. Ces derniers peuvent également se référer à des images précédentes du patient ou demander des études supplémentaires, telles que des coupes plus fines ou des examens contrastés, pour obtenir une meilleure visualisation ou une évaluation plus précise.In the field of medical imaging, it is important to note that interpreting images from radiology devices, such as CT scans and MRIs, requires considerable expertise and experience on the part of the radiologist. They may also refer to previous images of the patient or request additional studies, such as thinner slices or contrast-enhanced examinations, to obtain a better visualization or a more precise assessment.
Le radiologue examine méthodiquement les différentes parties du corps ou les régions spécifiques qui nécessitent une attention particulière en fonction d’une indication. Il évalue les structures osseuses, les organes internes, les vaisseaux sanguins, les tissus mous, etc. Il examine les images à la recherche de structures anatomiques normales et évalue leur apparence, leur taille, leur forme et leur position. Cela implique de reconnaître les organes, les os, les vaisseaux sanguins et les tissus environnants. Ces examens sont bien souvent déclenchés lors de la recherche de pathologies, d’anomalies, telles que des fractures, des lésions (ex: tumeurs ou encore maladies coronariennes), des infections, des thrombus, des anomalies congénitales, de des signes maladies, etc. Il compare les structures suspectes à celles qui sont considérées comme normales. Enfin, une fois les anomalies détectées ou non, le radiologue synthétise ses observations dans un rapport écrit détaillé, qui est ensuite transmis au médecin demandeur. Le rapport comprend généralement une description des structures normales, des anomalies détectées, leur localisation, leur taille, leur apparence et d'autres caractéristiques pertinentes.The radiologist methodically examines the different parts of the body or specific regions that require special attention based on an indication. He evaluates the bone structures, internal organs, blood vessels, soft tissues, etc. He examines the images in search of normal anatomical structures and evaluates their appearance, size, shape and position. This involves recognizing the organs, bones, blood vessels and surrounding tissues. These examinations are often triggered when looking for pathologies, anomalies, such as fractures, lesions (e.g. tumors or coronary artery disease), infections, thrombi, congenital anomalies, signs of disease, etc. He compares the suspicious structures to those that are considered normal. Finally, once the anomalies have been detected or not, the radiologist summarizes his observations in a detailed written report, which is then sent to the requesting physician. The report typically includes a description of normal structures, detected anomalies, their location, size, appearance, and other relevant characteristics.
Toutes ces étapes peuvent rendre le procédé d’identification de maladies, imprécis et long pour un praticien et le risque de ne pas identifier une pathologie peut exister. En outre, l’interprétation d’un même cliché par deux ou plusieurs praticiens différents, voire l’interprétation d’un cliché à des intervalles de temps espacés par un même radiologue, peut conduire à des interprétations différentes du cliché. Ceci est par exemple illustré dans l’article de Daniela Muenzel et al intitulé : “Intra- and inter-observer variability in measurement of target lesions: implication on response evaluation according to RECIST 1.1 » publié le 2 janvier 2012. Il existe donc un besoin d’améliorer la détection des pathologies lors de l’interprétation des clichés médicaux.All these steps can make the disease identification process imprecise and time-consuming for a practitioner, and there is a risk of not identifying a pathology. In addition, the interpretation of the same image by two or more different practitioners, or even the interpretation of an image at different time intervals by the same radiologist, can lead to different interpretations of the image. This is, for example, illustrated in the article by Daniela Muenzel et al entitled: “Intra- and inter-observer variability in measurement of target lesions: implication on response evaluation according to RECIST 1.1” published on January 2, 2012. There is therefore a need to improve the detection of pathologies during the interpretation of medical images.
La présente invention a pour but de pallier au moins un des inconvénients de l’art antérieur.The present invention aims to overcome at least one of the drawbacks of the prior art.
A cet effet, la présente invention propose un procédé d’annotation d’au moins une image cible obtenue par imagerie médicale représentant au moins une structure d’intérêt :
- une application, sur une décomposition en tuiles d’une pluralité d’images de référence non annotées, d’un modèle de fondation préalablement entraîné pour obtenir une représentation vectorielle d’une image médicale décomposée en tuiles,
- une annotation d’une pluralité de données médicales sur lesdites images de référence, au moins une donnée médicale étant annotée sur les tuiles de la dite au moins une structure d’intérêt présente dans lesdites images de référence,
- une application, sur une décomposition en tuiles de ladite image cible, dudit modèle de fondation, pour obtenir une représentation vectorielle des tuiles de ladite image cible
-une comparaison des représentations vectorielles des tuiles de l’image cible et des représentations vectorielles des tuiles d’au moins une desdites images de référence,
- une sélection, pour chaque tuile d’une structure d’intérêt de ladite image cible, d’au moins une tuile d’au moins une image de référence, dont la distance entre leur représentation vectorielle est inférieure à un seuil ou dont la distance est minimale,
- une obtention d’une annotation d’au moins une donnée médicale pour les tuiles de ladite structure d’intérêt de ladite image cible, en affectant à chaque tuile de ladite structure d’intérêt de l’image cible, l’annotation d’une donnée médicale associée à la tuile sélectionnée de l’image de référence.To this end, the present invention proposes a method for annotating at least one target image obtained by medical imaging representing at least one structure of interest:
- an application, on a tile decomposition of a plurality of unannotated reference images, of a foundation model previously trained to obtain a vector representation of a medical image decomposed into tiles,
- an annotation of a plurality of medical data on said reference images, at least one medical data being annotated on the tiles of said at least one structure of interest present in said reference images,
- an application, on a decomposition into tiles of said target image, of said foundation model, to obtain a vector representation of the tiles of said target image
- a comparison of the vector representations of the tiles of the target image and the vector representations of the tiles of at least one of said reference images,
- a selection, for each tile of a structure of interest of said target image, of at least one tile of at least one reference image, the distance between their vector representation of which is less than a threshold or the distance of which is minimal,
- obtaining an annotation of at least one medical data item for the tiles of said structure of interest of said target image, by assigning to each tile of said structure of interest of the target image, the annotation of a medical data item associated with the selected tile of the reference image.
Ainsi, avantageusement, la présente invention peut permettre d’annoter des images médicales sans ré-entrainer de réseaux de neurones sur de nouvelles images lorsque l’on souhaite bénéficier du contenu de nouvelles images lors de l’analyse d’images médicales cibles. Les vecteurs des images de référence obtenus sont associés, ou encore appariés à une ou plusieurs annotations. Les annotations sont reportées sur l’image cible en fonction d’une comparaison des vecteurs de référence avec les vecteurs de l’image cible.Thus, advantageously, the present invention can make it possible to annotate medical images without re-training neural networks on new images when it is desired to benefit from the content of new images during the analysis of target medical images. The vectors of the reference images obtained are associated, or even matched to one or more annotations. The annotations are transferred to the target image based on a comparison of the reference vectors with the vectors of the target image.
Selon certains modes de réalisation, ladite annotation d’une pluralité de données médicales comprend
- une association d’un ou plusieurs labels à une tuile d’une image de référence, lesdits labels appartenant à un ou plusieurs atlas selon une classification déterminée.According to some embodiments, said annotation of a plurality of medical data comprises
- an association of one or more labels with a tile of a reference image, said labels belonging to one or more atlases according to a determined classification.
Selon certains modes de réalisation, ladite classification desdits labels est choisie parmi l’une ou l’autre ou plusieurs parmi :
- une classification hiérarchique d’un organe du corps humain, la classification hiérarchique correspondant à un niveau de détail des composantes dudit organe
- une classification pathologique,
- une classification relative à une structure du corps humain.According to certain embodiments, said classification of said labels is chosen from one or more of:
- a hierarchical classification of an organ of the human body, the hierarchical classification corresponding to a level of detail of the components of said organ
- a pathological classification,
- a classification relating to a structure of the human body.
Selon certains modes de réalisation, le procédé comprend, préalablement à la comparaison des représentations vectorielles des tuiles de l’image cible et des représentations vectorielles des tuiles d’au moins une desdites images de référence,
- une sélection parmi ladite pluralité d’images de référence, des images de référence représentant au moins ladite structure d’intérêt,
- ladite comparaison étant effectuée entre les tuiles de l’image cible et les tuiles des images de référence sélectionnées.According to certain embodiments, the method comprises, prior to comparing the vector representations of the tiles of the target image and the vector representations of the tiles of at least one of said reference images,
- a selection from said plurality of reference images, reference images representing at least said structure of interest,
- said comparison being carried out between the tiles of the target image and the tiles of the selected reference images.
Selon certains modes de réalisation, le procédé comprend,
- une segmentation d’au moins une partie desdites images de référence parmi ladite pluralité des images de référence, pour identifier une ou plusieurs structures d’intérêt dans lesdites images
- une segmentation de l’image cible, pour identifier une ou plusieurs structures d’intérêt dans l’image cible.According to some embodiments, the method comprises,
- a segmentation of at least a portion of said reference images from among said plurality of reference images, to identify one or more structures of interest in said images
- a segmentation of the target image, to identify one or more structures of interest in the target image.
Selon certains modes de réalisation, le procédé comprend,
- une segmentation d’au moins une partie desdites images de référence parmi ladite pluralité des images de référence, pour identifier une ou plusieurs structures d’intérêt dans lesdites images
- une segmentation E2’ de l’image cible, pour identifier une ou plusieurs structures d’intérêt dans l’image cible.According to some embodiments, the method comprises,
- a segmentation of at least a portion of said reference images from among said plurality of reference images, to identify one or more structures of interest in said images
- an E2' segmentation of the target image, to identify one or more structures of interest in the target image.
Selon certains modes de réalisation, le procédé comprend,
- une obtention d’une représentation vectorielle pour lesdites structures d’intérêt segmentées, à partir desdites représentations vectorielles des tuiles composant lesdites structures d’intérêt segmentées, pour les images de référence et pour l’image cible
- une comparaison des représentations vectorielles des tuiles de l’image cible et des représentations vectorielles des tuiles d’au moins une desdites images de référence étant obtenue par une comparaison des représentations vectorielles des structures d’intérêt segmentées.According to some embodiments, the method comprises,
- obtaining a vector representation for said segmented structures of interest, from said vector representations of the tiles composing said segmented structures of interest, for the reference images and for the target image
- a comparison of the vector representations of the tiles of the target image and the vector representations of the tiles of at least one of said reference images being obtained by a comparison of the vector representations of the segmented structures of interest.
Selon certains modes de réalisation, le procédé comprend
- une sélection, pour lesdites structures d’intérêt de l’image cible, d’au moins une structure d’intérêt d’une image de référence dont la distance entre leur représentation vectorielle est inférieure à un seuil ou dont la distance est minimale
- une obtention d’une annotation d’au moins une donnée médicale pour ladite structure d’intérêt de ladite image cible, en affectant à ladite structure d’intérêt de l’image cible, l’annotation d’une donnée médicale associée à la structure d’intérêt de l’image de référence sélectionnée.According to some embodiments, the method comprises
- a selection, for said structures of interest of the target image, of at least one structure of interest of a reference image whose distance between their vector representation is less than a threshold or whose distance is minimal
- obtaining an annotation of at least one medical data item for said structure of interest of said target image, by assigning to said structure of interest of the target image, the annotation of a medical data item associated with the structure of interest of the selected reference image.
Selon certains modes de réalisation, le procédé comprend, suite à l’affectation de ladite annotation à chaque tuile de ladite structure d’intérêt de l’image cible,
- un regroupement des tuiles associées à la même annotation,
- une détermination du contour de ladite structure d’intérêt, ledit contour englobant lesdites tuiles ayant la même annotation,
- une association de ladite annotation desdites tuiles de ladite structure d’intérêt à ladite structure d’intérêt.According to certain embodiments, the method comprises, following the assignment of said annotation to each tile of said structure of interest of the target image,
- a grouping of tiles associated with the same annotation,
- a determination of the outline of said structure of interest, said outline encompassing said tiles having the same annotation,
- an association of said annotation of said tiles of said structure of interest to said structure of interest.
Selon certains modes de réalisation, le procédé comprend en outre
- un lissage des contours de ladite structure d’intérêt annotée.According to some embodiments, the method further comprises
- smoothing of the contours of said annotated structure of interest.
Selon certains modes de réalisation, le procédé comprend en outre, préalablement à ladite annotation de l’image cible,
- une sélection d’un atlas en fonction d’un ou plusieurs critères choisis parmi :
- un niveau hiérarchique de détail relatif à une pathologie, ou une malformation, ou une anomalie suspectée, ou une structure,
-un ou plusieurs types de structures choisis parmi les vaisseaux, et/ou les artères, et/ou les muscles, et/ou les os,
- une zone du corps, associée à un ou plusieurs niveaux hiérarchiques de détail de cette zone,
ladite annotation contenant un ou plusieurs labels de l’atlas sélectionné pour la au moins une structure d’intérêt.According to certain embodiments, the method further comprises, prior to said annotation of the target image,
- a selection of an atlas based on one or more criteria chosen from:
- a hierarchical level of detail relating to a pathology, or a malformation, or a suspected anomaly, or a structure,
-one or more types of structures chosen from vessels, and/or arteries, and/or muscles, and/or bones,
- an area of the body, associated with one or more hierarchical levels of detail of this area,
said annotation containing one or more labels of the atlas selected for the at least one structure of interest.
Selon certains modes de réalisation, le procédé comprend en outre,
- un affichage de ladite image cible avec ladite annotation.According to some embodiments, the method further comprises,
- a display of said target image with said annotation.
Selon certains modes de réalisation, le procédé comprend, suite à l’affichage de ladite image cible avec ladite annotation,
- la sélection d’un nouvel atlas différent d’un atlas précédemment sélectionné, le nouvel atlas sélectionné comprenant des annotations plus précises que l’atlas précédemment sélectionné ,
- l’annotation d’au moins une donnée médicale pour les tuiles de ladite structure d’intérêt de ladite image cible, en affectant à chaque tuile de ladite structure d’intérêt de l’image cible, l’annotation d’une donnée médicale associée à la tuile sélectionnée de l’image de référence issue du nouvel atlas sélectionné.According to some embodiments, the method comprises, following the display of said target image with said annotation,
- the selection of a new atlas different from a previously selected atlas, the new selected atlas including more precise annotations than the previously selected atlas,
- the annotation of at least one medical data item for the tiles of said structure of interest of said target image, by assigning to each tile of said structure of interest of the target image, the annotation of a medical data item associated with the selected tile of the reference image from the new selected atlas.
Selon certains modes de réalisation, le procédé comprend
- une correction des annotations d’au moins une donnée médicale pour les tuiles de ladite structure d’intérêt de ladite image cible, lorsque ladite annotation est incorrecte,
- un enrichissement de l’ensemble des images de référence avec ladite image cible sur laquelle les annotations ont été corrigées et un ajout de ladite au moins une annotation corrigée auxdits labels.According to some embodiments, the method comprises
- a correction of the annotations of at least one medical data for the tiles of said structure of interest of said target image, when said annotation is incorrect,
- an enrichment of the set of reference images with said target image on which the annotations have been corrected and an addition of said at least one corrected annotation to said labels.
Selon certains modes de réalisation, suite à l’obtention d’une annotation d’au moins une donnée médicale pour ladite structure d’intérêt de ladite image cible, ladite image cible est ajoutée à l’ensemble des images de référence, ladite au moins une annotation d’au moins une donnée médicale pour ladite structure d’intérêt de ladite image cible étant rajoutée auxdits labels.According to certain embodiments, following the obtaining of an annotation of at least one medical data item for said structure of interest of said target image, said target image is added to the set of reference images, said at least one annotation of at least one medical data item for said structure of interest of said target image being added to said labels.
Selon certains modes de réalisation, ladite au moins une image cible et/ou ladite au moins une image de référence sont des images obtenues par tomodensitométrie ou par imagerie à résonnance magnétique.According to certain embodiments, said at least one target image and/or said at least one reference image are images obtained by computed tomography or by magnetic resonance imaging.
Selon certains modes de réalisation, ledit modèle de fondation est entraîné par apprentissage auto supervisé.According to some embodiments, said foundation model is trained by self-supervised learning.
Selon certains modes de réalisation, ladite structure peut être l’une ou l’autre ou plusieurs parmi
- une partie du corps humain,
- une pathologie d’une partie du corps humain.According to some embodiments, said structure may be one or more of
- a part of the human body,
- a pathology of a part of the human body.
Selon certains modes de réalisation, ladite partie du corps humain peut être l’une ou l’autre ou plusieurs parmi
- des structures osseuses,
- des organes internes,
- des vaisseaux sanguins,
- des tissus mous.According to some embodiments, said human body part may be one or more of
- bone structures,
- internal organs,
- blood vessels,
- soft tissues.
Selon certains modes de réalisation, ladite donnée médicale est relative à l’une ou l’autre ou plusieurs parmi :
- un nommage d’un organe, et/ou d’une structure osseuse, et/ou d’un vaisseau sanguin, et/ ou de tissus mous, et/ou
- un nommage d’une pathologie.According to certain embodiments, said medical data relates to one or more of:
- a naming of an organ, and/or a bone structure, and/or a blood vessel, and/or soft tissue, and/or
- a naming of a pathology.
La présente invention concerne également un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé selon l’un quelconque de ses modes de réalisation lorsque ledit programme est exécuté par un ordinateur.The present invention also relates to a computer program comprising instructions for executing the steps of the method according to any of its embodiments when said program is executed by a computer.
La présente invention concerne également un support d’enregistrement lisible par un ordinateur sur lequel est enregistré un programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé selon l’un quelconque de ses modes de réalisation.The present invention also relates to a computer-readable recording medium on which is recorded a computer program comprising instructions for carrying out the steps of the method according to any of its embodiments.
L’invention concerne également un dispositif d’annotation d’au moins une image cible obtenue par imagerie médicale représentant au moins une structure d’intérêt, le dispositif comprenant un ou plusieurs processeurs configurés pour
- appliquer, sur une décomposition en tuiles d’une pluralité d’images de référence non annotées, un modèle de fondation préalablement entraîné pour obtenir une représentation vectorielle d’une image médicale décomposée en tuiles,
- annoter une pluralité de données médicales sur lesdites images de référence, au moins une donnée médicale étant annotée sur les tuiles de la dite au moins une structure d’intérêt présente dans lesdites images de référence,
- appliquer, sur une décomposition en tuiles de ladite image cible, ledit modèle de fondation, pour obtenir une représentation vectorielle des tuiles de ladite image cible
-comparer les représentations vectorielles des tuiles de l’image cible et les représentations vectorielles des tuiles d’au moins une desdites images de référence,
- sélectionner, pour chaque tuile d’une structure d’intérêt de ladite image cible, au moins une tuile d’au moins une image de référence, dont la distance entre leur représentation vectorielle est inférieure à un seuil ou dont la distance est minimale,
- obtenir une annotation d’au moins une donnée médicale pour les tuiles de ladite structure d’intérêt de ladite image cible, en affectant à chaque tuile de ladite structure d’intérêt de l’image cible, l’annotation d’une donnée médicale associée à la tuile sélectionnée de l’image de référence.The invention also relates to a device for annotating at least one target image obtained by medical imaging representing at least one structure of interest, the device comprising one or more processors configured to
- applying, on a tile decomposition of a plurality of unannotated reference images, a previously trained foundation model to obtain a vector representation of a medical image decomposed into tiles,
- annotating a plurality of medical data on said reference images, at least one medical data being annotated on the tiles of said at least one structure of interest present in said reference images,
- applying, on a tile decomposition of said target image, said foundation model, to obtain a vector representation of the tiles of said target image
-comparing the vector representations of the tiles of the target image and the vector representations of the tiles of at least one of said reference images,
- select, for each tile of a structure of interest of said target image, at least one tile of at least one reference image, the distance between their vector representation of which is less than a threshold or the distance of which is minimal,
- obtaining an annotation of at least one medical data item for the tiles of said structure of interest of said target image, by assigning to each tile of said structure of interest of the target image, the annotation of a medical data item associated with the selected tile of the reference image.
La présente invention concerne principalement le domaine de l’imagerie médicale. On peut entendre par imagerie médicale, de manière non exhaustive, des images de type radiographie, CT-scan ou tomodensitométrie (tomographie par ordinateur), IRM (imagerie par résonance magnétique), échographie, mammographie, angiographie, endoscopie…The present invention relates mainly to the field of medical imaging. Medical imaging may include, but is not limited to, images such as X-rays, CT scans or computed tomography (computed tomography), MRI (magnetic resonance imaging), ultrasound, mammography, angiography, endoscopy, etc.
La présente invention peut aider à améliorer le processus de diagnostic de pathologies à partir de l’observation d’images médicales. Elle peut notamment aider à identifier de manière automatique des anomalies observées sur des images médicales.The present invention can help improve the process of diagnosing pathologies based on the observation of medical images. In particular, it can help to automatically identify anomalies observed in medical images.
Elle peut notamment aider à annoter des images médicales à partir d’images de référence et notamment à partir de structures identifiées dans des images de référence.In particular, it can help to annotate medical images from reference images and in particular from structures identified in reference images.
Une image de référence peut par exemple être une image représentative d’un individu identifié comme individu représentatif pour une catégorie de population. Par exemple, on peut prendre une image de référence par genre, par âge ou tranche d’âge, par origine. On peut ainsi déterminer une pluralité d’images de référence représentant un foie humain selon différents âge, genres…On peut aussi déterminer une pluralité d’images par pathologie. On peut ainsi obtenir une image représentative d’une pathologie particulière. On peut également obtenir, pour une pathologie particulière, d’un organe déterminé, une pluralité d’images représentatives de sous-groupes dans cette pathologie particulière.A reference image can, for example, be a representative image of an individual identified as a representative individual for a population category. For example, we can take a reference image by gender, by age or age group, by origin. We can thus determine a plurality of reference images representing a human liver according to different ages, genders, etc. We can also determine a plurality of images by pathology. We can thus obtain a representative image of a particular pathology. We can also obtain, for a particular pathology, of a determined organ, a plurality of images representative of subgroups in this particular pathology.
Enfin, il est aussi possible d’acquérir des images de référence pour une pluralité de méthodes d’acquisition différentes; Par exemple, la base de données d’images de références peut contenir des séquences d’IRM différentes ou encore différentes images associées à des temps d’injection différents en CT scan.Finally, it is also possible to acquire reference images for a plurality of different acquisition methods; for example, the reference image database can contain different MRI sequences or different images associated with different injection times in CT scan.
Par structure, nous entendons dans la suite de la description, des structures osseuses, des organes internes, des vaisseaux sanguins, des tissus mous, des pathologies, des anomalies, telles que des fractures, des lésions (ex: tumeurs ou encore maladies coronariennes), des infections, des thrombus, des anomalies congénitales, des des signes de maladies, etc. ainsi une structure peut être définie comme une partie du corps humain ou une pathologie relative à une partie du corps humain ou encore une zone pathologique relative à une partie du corps humain.By structure, we mean in the following description, bone structures, internal organs, blood vessels, soft tissues, pathologies, anomalies, such as fractures, lesions (e.g. tumors or coronary diseases), infections, thrombi, congenital anomalies, signs of diseases, etc. Thus a structure can be defined as a part of the human body or a pathology relating to a part of the human body or a pathological area relating to a part of the human body.
La
Un modèle de fondation (connu sous l’acronyme anglais « foundation model ») ou encore appelé modèle de base, est entraîné sur un ensemble d’images médicales, étape E1. Préférentiellement, pour obtenir des performances remarquables, cet ensemble d’images médicales comprend au moins 100 millions d’images. On peut toutefois diminuer cet ensemble d’images médicales à un nombre inférieur. Par image on entend ici soit une radiographie 2D, soit une tranche d'une acquisition 3D (CT scan ou IRM), qui contient typiquement de 100 à 1000 de ces images. Ces images sont représentatives de la diversité de la pratique radiologique et de préférence:
- couvrent de nombreux organes/indications différentes,
- représentent une pluralité d’exemples variés pour une même pathologie,
- sont obtenues avec une pluralité de techniques d'acquisition: CT-Scanner (avec ou sans injection)/IRM (via les différentes séquences disponibles, qui sont très nombreuses),
- sont obtenues en utilisant une pluralité de systèmes d’imagerie (CT-scanner, IRM…) fournies par une pluralité de constructeurs différents,
- sont représentatives d’individus différents en genre, âge, origine,
- peuvent parvenir d’une pluralité de centres d’acquisition.A foundation model (known by the English acronym "foundation model") or also called basic model, is trained on a set of medical images, step E1. Preferably, to obtain remarkable performances, this set of medical images comprises at least 100 million images. However, this set of medical images can be reduced to a lower number. By image we mean here either a 2D radiograph or a slice of a 3D acquisition (CT scan or MRI), which typically contains 100 to 1000 of these images. These images are representative of the diversity of radiological practice and preferably:
- cover many different organs/indications,
- represent a plurality of varied examples for the same pathology,
- are obtained with a plurality of acquisition techniques: CT-Scanner (with or without injection)/MRI (via the different available sequences, which are very numerous),
- are obtained using a plurality of imaging systems (CT-scanner, MRI, etc.) supplied by a plurality of different manufacturers,
- are representative of individuals of different genders, ages, origins,
- can come from a plurality of acquisition centers.
Cette étape E1 est optionnelle dans le sens où le procédé tel que divulgué se sert du modèle de fondation tel qu’obtenu lors de cette étape E1, qui peut être obtenu bien en amont des étapes du procédé décrites ultérieurement.This step E1 is optional in the sense that the method as disclosed uses the foundation model as obtained during this step E1, which can be obtained well before the method steps described later.
Cette étape consiste à ajuster les poids et les paramètres du modèle de fondation en utilisant les données d'entraînement. Cela se fait généralement par optimisation d'une fonction de perte à l'aide d'algorithmes d'optimisation tels que la descente de gradient stochastique (SGD) ou ses variantes. L'objectif est de minimiser l'erreur entre les prédictions du modèle et les valeurs réelles. Le modèle de fondation utilisé peut comprendre de quelques centaines de millions de paramètres à au moins un milliard de paramètres pour être pertinent vis-à-vis de l’application à la présente divulgation. Selon certains modes de réalisation, le nombre de paramètres peut atteindre 20 milliards.This step involves adjusting the weights and parameters of the foundation model using the training data. This is typically done by optimizing a loss function using optimization algorithms such as stochastic gradient descent (SGD) or its variants. The objective is to minimize the error between the model's predictions and the actual values. The foundation model used may include from a few hundred million parameters to at least one billion parameters to be relevant to the application of the present disclosure. In some embodiments, the number of parameters may be as high as 20 billion.
Plusieurs techniques d’entrainement d’un modèle de fondation sont décrites dans la littérature et ne font pas l’objet de la présente divulgation. Les techniques elles-mêmes, typiquement le Self-Supervised Learning, tel que décrit dans le document intitulé « DINOv2: https://ai.meta.com/blog/dino-v2-computer-vision-self-supervised-learning/) » sont publiques mais les données radiologiques ne le sont pas, ce qui fait que les modèles de fondation spécifiques à la radiologie ne sont pas accessibles facilement.Several foundation model training techniques are described in the literature and are not the subject of this disclosure. The techniques themselves, typically Self-Supervised Learning, as described in the paper titled “DINOv2: https://ai.meta.com/blog/dino-v2-computer-vision-self-supervised-learning/)” are public but the radiological data is not, which means that radiology-specific foundation models are not readily available.
Le modèle de fondation utilisé est de préférence basé sur des transformeurs visuels, tel que proposé par exemple par les modèles ViT (https://arxiv.org/abs/2010.11929) ou SWIN (https://arxiv.org/abs/2103.14030), qui définissent les patchs utlisés pour la mesure de similarité dans le procédé de la présente divulgation.The foundation model used is preferably based on visual transformers, as proposed for example by the ViT (https://arxiv.org/abs/2010.11929) or SWIN (https://arxiv.org/abs/2103.14030) models, which define the patches used for the similarity measurement in the method of the present disclosure.
Le modèle de fondation ainsi entraîné peut être utilisé dans les étapes du procédé telles que décrites ci-après.The foundation model thus trained can be used in the process steps as described below.
Le modèle de fondation utilisé peut être un modèle de type d’apprentissage auto supervisé (connu en anglais sous le terme de SSL pour « self-supervised learning) qui constitue une approche d'apprentissage automatique qui permet au modèle d'apprendre, à partir de données non étiquetées, non annotées, en créant des tâches supervisées artificielles à partir de ces données. Le modèle de fondation fournit en sortie une représentation vectorielle ou latente, ou encore un vecteur latent, (connue sous le nom de « embedding » en anglais), de la donnée rentrée, ici en l’occurrence de l’image médicale reçue en entrée ou d’une partie de l’image médicale reçue en entrée telle une ou plusieurs structures d’intérêt.The foundation model used may be a self-supervised learning (SSL) type model, which is a machine learning approach that allows the model to learn from unlabeled, unannotated data by creating artificial supervised tasks from this data. The foundation model provides as output a vector or latent representation, or a latent vector (known as embedding) of the input data, in this case the medical image received as input or a part of the medical image received as input such as one or more structures of interest.
Plus précisément, l’image est découpée en patchs, encore appelées tuiles, de taille intermédiaire (typiquement mais pas exclusivement 16x16 pixels) et le modèle de fondation associe à chacun des patchs un vecteur latent ou vecteur représentatif.More precisely, the image is cut into patches, also called tiles, of intermediate size (typically but not exclusively 16x16 pixels) and the foundation model associates with each of the patches a latent vector or representative vector.
La
Les patchs peuvent constituer une grille définie par le modèle de fondation avant l’entrainement, et posée de manière statique sur l’image. Avantageusement, la taille d’un patch peut être définie en fonction de la taille de la structure la plus petite. Autrement dit, la taille d’un patch peut être telle qu’elle ne soit pas plus grande que la taille de la plus petite structure médicale à étudier. Ainsi, une structure telle que définie précédemment peut être couverte par un ou plusieurs patchs, ou parties de patchs. De même, un patch peut se trouver positionné en totalité sur une structure ou chevaucher une ou plusieurs structures. La taille des patchs, lorsqu’elle est composée d’un carré de 16*16 pixels reste relativement petite par rapport à la plus grande partie des structures et ainsi, le phénomène de bord induit par les patchs compris seulement partiellement dans une structure, peut être considéré comme négligeable. Selon certains modes de réalisation, le procédé selon l’invention peut comprendre une étape de zoom ou grossissement de l’image ou une étape d’augmentation de la résolution de l’image, préalablement à son codage par le modèle de fondation, de manière à adapter la taille des structures en fonction de la taille des patchs. Ceci peut être avantageux lorsque la taille des patchs utilisée par le modèle de fondation est trop grande par rapport à la taille des structures à étudier (structures d’intérêt codées par le modèle de fondation).The patches can constitute a grid defined by the foundation model before training, and statically placed on the image. Advantageously, the size of a patch can be defined according to the size of the smallest structure. In other words, the size of a patch can be such that it is not larger than the size of the smallest medical structure to be studied. Thus, a structure as defined above can be covered by one or more patches, or parts of patches. Similarly, a patch can be positioned entirely on a structure or overlap one or more structures. The size of the patches, when composed of a square of 16*16 pixels remains relatively small compared to the largest part of the structures and thus, the edge phenomenon induced by patches only partially included in a structure, can be considered negligible. According to certain embodiments, the method according to the invention may comprise a step of zooming or enlarging the image or a step of increasing the resolution of the image, prior to its coding by the foundation model, so as to adapt the size of the structures according to the size of the patches. This may be advantageous when the size of the patches used by the foundation model is too large compared to the size of the structures to be studied (structures of interest coded by the foundation model).
Selon certains modes de réalisation, la taille de la représentation vectorielle est fixée à l’entrainement du modèle de fondation. Par exemple, la représentation vectorielle peut être un vecteur de taille 2048.In some embodiments, the size of the vector representation is fixed upon training the foundation model. For example, the vector representation may be a vector of size 2048.
Différents architectures et algorithmes d’entraînement de modèles de fondation peuvent être utilisés pour créer un modèle de fondation dédié aux images médicales. On connaît par exemple les algorithmes « CLIP », « DINO », qui peuvent être utilisés dans la présente divulgation.Different foundation model training architectures and algorithms can be used to create a foundation model dedicated to medical images. For example, the “CLIP”, “DINO” algorithms are known, which can be used in the present disclosure.
Lorsque l’on souhaite caractériser une structure sur une image médicale cible, par exemple pour détecter une pathologie sur une image médicale cible (en détectant une structure pathologique), par exemple à l’occasion d’un nouvel examen médical, au moins une donnée de cette image cible ou cette image cible, est rentrée dans le modèle de fondation.When we want to characterize a structure on a target medical image, for example to detect a pathology on a target medical image (by detecting a pathological structure), for example during a new medical examination, at least one piece of data from this target image or this target image is entered into the foundation model.
Comme indiqué sur la
Optionnellement, le procédé peut comprendre une étape E2 et une étape E2’. Les étapes E2 et E2’ sont des étapes de segmentation permettant de segmenter les images en des structures d’intérêt présentes dans les images, ou une partie des structures d’intérêt, pour identifier une ou plusieurs structures d’intérêt. Cette segmentation peut être réalisée en utilisant la méthode telle que décrite dans la publication « segment anything » de Alexander Kirillov et al publié le 5 avril 2023. La segmentation permet de regrouper ensemble des parties de l’image ayant des similarités visuelles. La segmentation regroupe en outre les patchs qui se trouvent dans une même structure.Optionally, the method may comprise a step E2 and a step E2’. Steps E2 and E2’ are segmentation steps for segmenting the images into structures of interest present in the images, or part of the structures of interest, to identify one or more structures of interest. This segmentation may be performed using the method as described in the publication “segment anything” by Alexander Kirillov et al published on April 5, 2023. The segmentation makes it possible to group together parts of the image having visual similarities. The segmentation further groups together patches that are located in the same structure.
De telles méthodes de segmentation peuvent par exemple être basées sur des méthodes de détection de contour. Des parties de l’image ayant des similarités visuelles sont généralement des parties de l’image faisant partie d’une même structure. Ceci peut avantageusement ensuite permettre d’obtenir de manière automatique, les contours des structures annotées.Such segmentation methods can, for example, be based on contour detection methods. Parts of the image with visual similarities are generally parts of the image that are part of the same structure. This can then advantageously make it possible to automatically obtain the contours of the annotated structures.
A l’issu des étapes E2 et E2’, on obtient ainsi des images de référence, respectivement des images cibles, dans lesquelles une ou plusieurs structures sont identifiées ou segmentées. La
On peut bien entendu noter que les étapes E2, E3, E4 et E5 (E5 appliquée aux données relatives aux images de référence), sont effectuées en amont des étapes E2’ et E5 (E5 appliquée aux données relatives aux images cibles), de manière à disposer des représentations vectorielles des patchs des images de référence, voire des images segmentées, lors de l’étape E6. Bien entendu les étapes E2, E3, E4 et E5 (E5 appliquée aux données relatives aux images de référence) peuvent être réalisées au fur et à mesure de l’enrichissement de la base de données des images de référence avec d’autres images.It can of course be noted that steps E2, E3, E4 and E5 (E5 applied to the data relating to the reference images), are carried out upstream of steps E2’ and E5 (E5 applied to the data relating to the target images), so as to have vector representations of the patches of the reference images, or even segmented images, during step E6. Of course, steps E2, E3, E4 and E5 (E5 applied to the data relating to the reference images) can be carried out as the database of reference images is enriched with other images.
Lors d’une étape E3, on détermine des annotations pouvant permettre d’obtenir un ou plusieurs atlas. Un atlas peut être qualifié comme étant une base de données de patchs de référence annotés. Autrement dit encore, un atlas représente une cartographie visuelle.In step E3, annotations are determined that can be used to obtain one or more atlases. An atlas can be described as a database of annotated reference patches. In other words, an atlas represents a visual map.
Lors de l’étape E3, on obtient une annotation d’au moins une donnée médicale sur lesdites images de référence, au moins une donnée médicale étant annotée sur les patchs présents dans les structures d’intérêt des images de référence.During step E3, an annotation of at least one medical data item is obtained on said reference images, at least one medical data item being annotated on the patches present in the structures of interest of the reference images.
La donnée médicale est relative à l’une ou l’autre ou plusieurs parmi :
- un nommage d’un organe, et/ou d’une structure osseuse, et/ou d’un vaisseau sanguin, et/ ou de tissus mous, et/ou d’une autre structure ou sous-structure anatomique et/ou
- un nommage d’une pathologieThe medical data relates to one or more of:
- a naming of an organ, and/or a bone structure, and/or a blood vessel, and/or soft tissue, and/or another anatomical structure or substructure and/or
- a naming of a pathology
Ces annotations sont effectuées sur au moins une image de référence et permettent de définir des classes associées à des patchs, qu’on appelle patchs de référence. Une annotation peut donc être effectuée à l’échelle du patch, chaque patch pouvant être annoté, ou autrement dit étiqueté. Un patch de référence peut correspondre à au moins une structure d’intérêt, ou une partie d’une structure d’intérêt, pouvant être identifiée, et est annoté avec le ou les labels associés à la structure d’intérêt. Ainsi, un patch de référence peut être associé à plusieurs labels, par exemple de manière hiérarchique. Un patch peut être associé à une ou plusieurs données anatomiques, tel un label d’une structure (foie, radius, aorte…) et en plus à une ou plusieurs données pathologiques (stéatose hépatique). Un patch peut par exemple être associé au label foie et au label stéatose hépatique.These annotations are performed on at least one reference image and allow classes associated with patches to be defined, which are called reference patches. An annotation can therefore be performed at the patch level, each patch being able to be annotated, or in other words labeled. A reference patch can correspond to at least one structure of interest, or part of a structure of interest, which can be identified, and is annotated with the label(s) associated with the structure of interest. Thus, a reference patch can be associated with several labels, for example in a hierarchical manner. A patch can be associated with one or more anatomical data, such as a label of a structure (liver, radius, aorta, etc.) and in addition with one or more pathological data (hepatic steatosis). A patch can for example be associated with the liver label and the hepatic steatosis label.
En d’autres mots, l’annotation de données médicales comprend l’association d’un ou plusieurs labels à un patch d’une image de référence, les labels appartenant à un ou plusieurs atlas selon une classification déterminée.In other words, medical data annotation involves the association of one or more labels with a patch of a reference image, the labels belonging to one or more atlases according to a specific classification.
La classification des labels peut être choisie parmi l’une ou l’autre ou plusieurs parmi :
- une classification hiérarchique d’un organe du corps humain, la classification hiérarchique correspondant à un niveau de détail des composantes dudit organe
- une classification pathologique,
- une classification relative à une structure du corps humain,The classification of labels can be chosen from one or more of:
- a hierarchical classification of an organ of the human body, the hierarchical classification corresponding to a level of detail of the components of said organ
- a pathological classification,
- a classification relating to a structure of the human body,
Selon certains modes de réalisation, les annotations des images de référence sont effectuées manuellement par un opérateur tel un radiologue, par exemple à l’aide d’une interface graphique sur un ordinateur, une tablette...According to certain embodiments, the annotations of the reference images are carried out manually by an operator such as a radiologist, for example using a graphical interface on a computer, a tablet, etc.
Selon certains modes de réalisation, les annotations peuvent être effectuées de manière plus automatique, par un logiciel. On peut utiliser par exemple le logiciel « IMAIOS » qui annote une image de référence et plus particulièrement les structures présentes dans cette image de référence.According to certain embodiments, the annotations can be carried out more automatically, by software. For example, the “IMAIOS” software can be used, which annotates a reference image and more particularly the structures present in this reference image.
Selon certains modes de réalisation, les annotations comprennent au moins une classe anatomique. Par classe anatomique, on peut entendre un nom d’organe, tel foie, cœur, poumon…According to certain embodiments, the annotations comprise at least one anatomical class. By anatomical class, we can mean an organ name, such as liver, heart, lung, etc.
Selon certains modes de réalisation, les annotations comprennent au moins une pathologie relative à une classe anatomique. Par exemple, une annotation peut consister en une lésion cancéreuse (par exemple une tumeur du poumon), métabolique (stéatose hépatique), infectieuse…According to some embodiments, the annotations comprise at least one pathology relating to an anatomical class. For example, an annotation may consist of a cancerous lesion (e.g., a lung tumor), metabolic (fatty liver disease), infectious, etc.
Selon certains modes de réalisation, les annotations faites sur les images de référence sont faites par structure, afin de faciliter l’association d’une annotation à un patch. Les annotations de la structure sont ensuite automatiquement associées aux patchs composant cette structure.According to some embodiments, the annotations made on the reference images are made by structure, in order to facilitate the association of an annotation with a patch. The annotations of the structure are then automatically associated with the patches composing this structure.
Lorsque l’étape E2 n’est pas présente, on détermine en outre lors de l’étape d’annotation E3, des structures d’intérêt, par exemple en traçant sur l’image les contours des structures d’intérêt pour les déterminer géographiquement. Les annotations sont ensuite appliquées sur ces zones géographiques (correspondant à des structures anatomiques) déterminées.When step E2 is not present, structures of interest are also determined during the annotation step E3, for example by tracing the contours of the structures of interest on the image to determine them geographically. The annotations are then applied to these determined geographical areas (corresponding to anatomical structures).
Par exemple, lorsqu’une image contient une représentation d’une stéatose hépatique, les contours de celle-ci sont tracés et des annotations indiquant au moins que cette structure est une stéatose hépatique sont associées à cette structure.For example, when an image contains a representation of a fatty liver, the contours of this are traced and annotations indicating at least that this structure is a fatty liver are associated with this structure.
Lorsque l’étape E2 est présente, les annotations réalisées à l’étape E3, peuvent être effectuées sur les images de référence segmentées lors de l’étape E2. La segmentation ou encore l’identification visuelle des structures de référence dans les images de référence, permet une annotation plus simple des structures que lorsque celle-ci n’existe pas. En effet, selon certaines méthodes, en sélectionnant une structure d’intérêt segmentée, par exemple par l’intermédiaire d’une interface graphique, selon un exemple par un clic de souris sur la structure, une fenêtre peut s’ouvrir dans laquelle le radiologue peut saisir le nom de la structure.When step E2 is present, the annotations made in step E3 can be performed on the reference images segmented during step E2. Segmentation or even the visual identification of reference structures in the reference images allows for simpler annotation of structures than when this does not exist. Indeed, according to certain methods, by selecting a segmented structure of interest, for example via a graphical interface, for example by clicking on the structure with the mouse, a window can open in which the radiologist can enter the name of the structure.
Le procédé peut également comprendre une étape optionnelle E4 comprenant à la fois une personnalisation, E41 et une sélection, E42 de l’atlas. En effet, si l’image cible est obtenue suite à une suspicion d’une certaine pathologie ou malformation, une personnalisation du type des annotations peut aider à affiner la détection de l’anomalie ou de la pathologie. La personnalisation peut consister à
- déterminer une classe d’atlas en fonction d’un niveau hiérarchique de détail relatif à une pathologie, une malformation, une anomalie suspectée, une structure,
- déterminer une pluralité de classes d’atlas pour une ou plusieurs structures d’intérêt, chacune liée à un niveau hiérarchique,
- déterminer une classe d’atlas spécialisée par type de structure, par exemple une classe pour les vaisseaux, une classe pour les artères, pour les muscles, pour les os…
- déterminer une classe d’atlas pour des zones du corps, par exemple une classe d’atlas pour le haut du dos, pour le bas du dos, pour la jambe, le bras..celle-ci pouvant également être combinée à une pluralité de niveaux hiérarchiques.The method may also include an optional step E4 comprising both a customization, E41, and a selection, E42, of the atlas. Indeed, if the target image is obtained following a suspicion of a certain pathology or malformation, a customization of the type of annotations may help to refine the detection of the anomaly or pathology. The customization may consist of
- determine an atlas class based on a hierarchical level of detail relating to a pathology, a malformation, a suspected anomaly, a structure,
- determine a plurality of atlas classes for one or more structures of interest, each linked to a hierarchical level,
- determine a specialized atlas class by type of structure, for example a class for vessels, a class for arteries, for muscles, for bones, etc.
- determine an atlas class for areas of the body, for example an atlas class for the upper back, for the lower back, for the leg, the arm... this can also be combined at a plurality of hierarchical levels.
Ces classes d’atlas personnalisées sont enregistrées, comme les images de références et les vecteurs des patchs associés et peuvent être utilisées et enrichies de manière collaborative par un ensemble de praticiens.These personalized atlas classes are saved, like the reference images and the vectors of the associated patches, and can be used and enriched collaboratively by a group of practitioners.
Ainsi, la personnalisation peut avoir comme effet technique d’aider au diagnostic en apportant un niveau de détail adapté à une pathologie, malformation, anomalie suspectée, structure. De plus selon leur spécialité médicale, les radiologues peuvent souhaiter obtenir les annotations de façon différente de leur confrère.Thus, personalization can have the technical effect of helping with diagnosis by providing a level of detail adapted to a pathology, malformation, suspected anomaly, or structure. Furthermore, depending on their medical specialty, radiologists may wish to obtain annotations in a different way from their colleagues.
Ainsi, sans besoin de ré-entrainer le modèle de fondation, les praticiens peuvent alors, tout en bénéficiant du modèle de fondation entraîné et partagé, utiliser leur propre annotation (atlas) pour les mesures de similarité et les annotations de l’image cible et personnaliser les atlas.Thus, without the need to re-train the foundation model, practitioners can then, while benefiting from the trained and shared foundation model, use their own annotation (atlas) for similarity measures and annotations of the target image and customize the atlases.
Cette personnalisation peut permettre de définir une ou plusieurs versions de l’atlas. Les figures 4a et 4b illustrent par exemple des niveaux de granularité différents du cerveau analysé en tant que structure. Une version de l’atlas peut correspondre à un nommage différent des structures, à un niveau de détail particulier pour une structure déterminée. Plus généralement, une version de l’atlas peut correspondre à un niveau hiérarchique de détail associé à une structure comme illustré sur les figures 4a et 4b. Ainsi, la personnalisation a pour avantage d’améliorer la détection de pathologies ou anomalies d’une structure en donnant un niveau de détail important sur cette structure.This customization can allow defining one or more versions of the atlas. Figures 4a and 4b illustrate, for example, different levels of granularity of the brain analyzed as a structure. A version of the atlas can correspond to a different naming of the structures, to a particular level of detail for a given structure. More generally, a version of the atlas can correspond to a hierarchical level of detail associated with a structure as illustrated in Figures 4a and 4b. Thus, customization has the advantage of improving the detection of pathologies or anomalies of a structure by providing a significant level of detail on this structure.
Par exemple, un oncologue peut se focaliser sur des pathologies, parfois même sur des pathologies liées à un organe précis. Une version d’atlas personnalisé pour ce praticien peut consister en un atlas contenant une pluralité d’annotations très précises de cet organe. En augmentant le niveau de détail, on peut obtenir plus de précision et/ou de robustesse dans l’analyse d’une image médicale.For example, an oncologist may focus on pathologies, sometimes even pathologies related to a specific organ. A version of an atlas customized for this practitioner may consist of an atlas containing a plurality of very precise annotations of this organ. By increasing the level of detail, one can obtain more precision and/or robustness in the analysis of a medical image.
Un rhumatologue lui préfèrera obtenir une version de l’atlas contenant des détails sur des structures osseuses et un tel atlas peut permettre une meilleure détection de maladies telles des rhumatismes, de l’arthrose.A rheumatologist will prefer to obtain a version of the atlas containing details on bone structures and such an atlas can allow better detection of diseases such as rheumatism and osteoarthritis.
La personnalisation de l’atlas peut être faite ou refaite plusieurs fois et n’est pas statique dans le temps. Elle peut également évoluer en fonction de la découverte de nouvelles pathologies. Ceci peut donc permettre de continuellement mieux annoter les images médicales, sans besoin d’entrainement du modèle de fondation.The atlas customization can be done or redone multiple times and is not static over time. It can also evolve based on the discovery of new pathologies. This can therefore allow for continually better annotating of medical images, without the need for training of the foundation model.
Une sélection d’un atlas parmi les atlas personnalisés peut être effectuée, étape E42, lorsque l’on dispose de plusieurs atlas. La sélection peut être faite en fonction d’une pathologie recherchée ou d’une structure de l’image cible ou en fonction des préférences d’un praticien ou encore de sa spécialité. La sélection peut être faite en fonction :
- d’un niveau hiérarchique de détail relatif à une pathologie, une malformation, une anomalie suspectée, une structure,
- d’un type de structure, par exemple une classe pour les vaisseaux, une classe pour les artères, pour les muscles, pour les os…
- d’une zone du corps, par exemple une classe d’atlas pour le haut du dos, pour le bas du dos, pour la jambe, le bras..celle-ci pouvant également être combinée à une pluralité de niveaux hiérarchiques.An atlas can be selected from the custom atlases (step E42) when several atlases are available. The selection can be made based on a pathology being sought or a structure of the target image or based on a practitioner's preferences or specialty. The selection can be made based on:
- a hierarchical level of detail relating to a pathology, a malformation, a suspected anomaly, a structure,
- a type of structure, for example a class for vessels, a class for arteries, for muscles, for bones…
- of a body area, for example an atlas class for the upper back, for the lower back, for the leg, the arm...this can also be combined at a plurality of hierarchical levels.
On peut noter que l’étape de sélection E42 peut être itérée plusieurs fois (suite à l’étape E8 décrite ultérieurement) si l’atlas sélectionné précédemment ne permet pas une annotation suffisamment précise de ladite structure d’intérêt. Par analyse suffisamment précise on peut entendre que les labels utilisés sont trop génériques ou trop haut niveau, par exemple au niveau d’une structure correspondant à un organe (voir
Ainsi, avec un seul modèle de fondation entrainé et une seule étape de mesure de similarité, plusieurs types ou niveaux d’annotation peuvent être obtenus.Thus, with a single trained foundation model and a single similarity measurement step, multiple types or levels of annotation can be obtained.
Lors d’une étape E5, le modèle de fondation reçoit en entrée d’une part des données de référence et d’autre part des données cibles. Comme mentionné précédemment, l’étape E5 est réalisée de manière décorrélée sur les images de référence et sur les images cibles. L’application du modèle de fondation aux images de référence peut être réalisée en arrière-plan à partir d’une base de données d’images de référence par exemple et lorsque de nouvelles images de référence sont ajoutées à cette base de données. Le procédé nécessite au moins qu’une image de référence ait été utilisée par le modèle de fondation, pour effectuer, lors d’une étape E6, la mesure de similarité. Plus le nombre d’images de référence est important et diversifié ou adapté à l’image cible, plus le résultat de la mesure de similarité est pertinent. Par adapté on peut entendre que le procédé permet une meilleure précision lorsque l’on dispose d’une grande quantité d’images de référence annotées ayant été codées par le modèle de fondation qui contiennent les structures d’intérêt présentes dans l’image cible.In a step E5, the foundation model receives as input, on the one hand, reference data and, on the other hand, target data. As mentioned previously, step E5 is performed in a decorrelated manner on the reference images and on the target images. The application of the foundation model to the reference images can be performed in the background from a database of reference images, for example, and when new reference images are added to this database. The method requires at least one reference image to have been used by the foundation model in order to perform, in a step E6, the similarity measurement. The greater the number of reference images, the more diverse or adapted to the target image, the more relevant the result of the similarity measurement. By adapted, we can understand that the method allows for better precision when a large quantity of annotated reference images, which have been coded by the foundation model, are available, which contain the structures of interest present in the target image.
Comme indiqué sur la
Comme mentionné précédemment, le modèle de fondation associe à un patch d’une image, une représentation vectorielle. Les images cibles, les images de référence sont donc décomposées ou encore quadrillées en patch, (comme on peut le voir sur la
Le procédé comprend donc une application, sur une décomposition en tuiles ou patchs, de ladite pluralité d’images de référence, du modèle de fondation entraîné pour obtenir une représentation vectorielle d’une image décomposée en patchs.The method therefore comprises an application, on a decomposition into tiles or patches, of said plurality of reference images, of the trained foundation model to obtain a vector representation of an image decomposed into patches.
Le procédé comprend donc une application, sur une décomposition en tuiles ou patchs, de l’image cible, du modèle de fondation entraîné pour obtenir une représentation vectorielle d’une image décomposée en patchs.The method therefore comprises an application, on a decomposition into tiles or patches, of the target image, of the trained foundation model to obtain a vector representation of an image decomposed into patches.
Selon certains modes de réalisation, le modèle de fondation reçoit en entrée une ou plusieurs images de référence préalablement sélectionnées et se focalisant par exemple sur une structure d’intérêt. Ce mode de réalisation peut trouver un intérêt lorsque l’on n’a pas accès à une base de données d’images de référence.According to certain embodiments, the foundation model receives as input one or more previously selected reference images focusing, for example, on a structure of interest. This embodiment may be of interest when there is no access to a database of reference images.
Dans un tel mode de réalisation, on peut considérer que les représentations vectorielles des patchs des images de référence n’ont pas été générées par le modèle de fondation préalablement ni enregistrées dans une base de données préalablement mais sont générées au même moment que la génération pour l’image cible.In such an embodiment, it can be considered that the vector representations of the patches of the reference images have not been generated by the foundation model beforehand nor recorded in a database beforehand but are generated at the same time as the generation for the target image.
Comme décrit ultérieurement, de nouveaux patchs de référence peuvent enrichir le procédé lorsque de nouvelles pathologies sont détectées, ou lorsque de nouveaux patchs sont considérés comme particulièrement pertinents pour servir de patchs de référence.As described later, new reference patches can enrich the method when new pathologies are detected, or when new patches are considered particularly relevant to serve as reference patches.
A l’issu de l’étape E5, on peut donc disposer d’une pluralité de patchs de référence auxquels sont associés un vecteur de référence.At the end of step E5, we can therefore have a plurality of reference patches with which a reference vector is associated.
On peut également, selon certains modes de réalisation, disposer de vecteurs de référence par structure de référence et de vecteurs cibles par structure de l’image cible. En effet, lorsque les patchs sont associés à une structure, par exemple suite à la segmentation effectuée lors de l’étape E2 (ou E2’), un vecteur peut être déterminé par structure à partir des vecteurs de patchs associés à la structure obtenus par le modèle de fondation. La détermination d’un vecteur par structure peut être faite selon différentes méthodes, suite à l’obtention d’un vecteur par patch. Selon un mode de réalisation, le vecteur associé à la structure peut être obtenu en faisant une moyenne arithmétique des vecteurs des patchs identifiés comme patchs de la structure. Selon un autre mode de réalisation, la totalité des vecteurs de la structure, sont tous comparés aux vecteurs de référence à l’étape E6.It is also possible, according to certain embodiments, to have reference vectors per reference structure and target vectors per structure of the target image. Indeed, when the patches are associated with a structure, for example following the segmentation carried out during step E2 (or E2'), a vector can be determined per structure from the vectors of patches associated with the structure obtained by the foundation model. The determination of a vector per structure can be done according to different methods, following the obtaining of a vector per patch. According to one embodiment, the vector associated with the structure can be obtained by taking an arithmetic mean of the vectors of the patches identified as patches of the structure. According to another embodiment, all of the vectors of the structure are all compared to the reference vectors in step E6.
L’application du modèle de fondation sur les images de référence génère donc une pluralité de vecteurs de référence, associés à des patchs, ces vecteurs associés à des patchs pouvant être regroupés pour déterminer un vecteur associé à une structure commune aux patchs. Les images de référence, ainsi que les vecteurs, associés aux patchs ou aux structures sont enregistrées, par exemple dans une base de données de manière à être utilisées lors de l’étape de mesure de similarité E6.The application of the foundation model to the reference images therefore generates a plurality of reference vectors, associated with patches, these vectors associated with patches being able to be grouped to determine a vector associated with a structure common to the patches. The reference images, as well as the vectors, associated with the patches or the structures are recorded, for example in a database so as to be used during the similarity measurement step E6.
La description vectorielle de l’image cible est comparée à la description vectorielle de l’image ou des images de référence, étape E6. Plus précisément, la représentation vectorielle d’un patch cible d’une image cible est comparée à la représentation vectorielle des patchs de référence. Selon certains modes de réalisation, lorsque des vecteurs par structure sont obtenus à partir des vecteurs par patch, la mesure de similarité peut être faite sur les vecteurs obtenus par structure.The vector description of the target image is compared to the vector description of the reference image or images, step E6. More specifically, the vector representation of a target patch of a target image is compared to the vector representation of the reference patches. According to certain embodiments, when vectors per structure are obtained from the vectors per patch, the similarity measurement can be made on the vectors obtained per structure.
L’étape E6 comprend :
- la comparaison entre la représentation vectorielle des patchs de l’image cible et les représentations vectorielles obtenues pour les patchs d’au moins une image de référence,
- la sélection, pour chaque tuile de l’image cible, d’au moins une tuile d’au moins une image de référence, dont la distance entre leur représentation vectorielle est inférieure à un seuil ou dont la distance est minimale.Step E6 includes:
- the comparison between the vector representation of the patches of the target image and the vector representations obtained for the patches of at least one reference image,
- the selection, for each tile of the target image, of at least one tile of at least one reference image, the distance between their vector representation of which is less than a threshold or the distance of which is minimal.
Comme mentionné précédemment, pour raccourcir les temps de calcul, il peut être avantageux de sélectionner les images de référence utilisées lors de la mesure de similarité en fonction de structures d’intérêt recherchées dans l’image cible. Ainsi, préalablement à la mesure de similarité, le procédé peut comprendre une étape (non représentée) de sélection d’une pluralité d’images de référence comprenant la ou les structures d’intérêt présentes dans l’image cible ou supposées présentes dans l’image cible, afin d’effectuer la mesure de similarité avec les vecteurs des patchs des images sélectionnées. Avantageusement la sélection consiste à sélectionner les images de référence comprenant la ou les structures anatomiques présentes dans l’image cible. Cette sélection peut avantageusement être basée uniquement sur des structures anatomiques et non pas sur des pathologies. Cette sélection peut être effectuée en fonction d’une donnée médicale reçue, la donnée médicale pouvant être relative à une pathologie ou une anomalie. Cette donnée peut être considérée comme statistiquement potentiellement présente dans au moins une structure de l’image cible, par exemple par un praticien ayant opéré un bilan clinique sur le patient à qui appartient l’image cible préalablement à la réalisation de l’image médicale. Cette sélection peut consister à sélectionner des images de référence contenant des structures présentes dans l’image cible, saines et pathologiques. La sélection peut être encore plus précise en sélectionnant des images de référence contenant la ou les structures présentes dans l’image cible montrant une pathologie suspectée dans l’image cible.As mentioned previously, to shorten the calculation times, it may be advantageous to select the reference images used during the similarity measurement according to structures of interest sought in the target image. Thus, prior to the similarity measurement, the method may comprise a step (not shown) of selecting a plurality of reference images comprising the structure(s) of interest present in the target image or assumed to be present in the target image, in order to carry out the similarity measurement with the vectors of the patches of the selected images. Advantageously, the selection consists of selecting the reference images comprising the anatomical structure(s) present in the target image. This selection may advantageously be based solely on anatomical structures and not on pathologies. This selection may be carried out according to received medical data, the medical data being able to relate to a pathology or an anomaly. This data can be considered as statistically potentially present in at least one structure of the target image, for example by a practitioner having carried out a clinical assessment on the patient to whom the target image belongs prior to the creation of the medical image. This selection can consist of selecting reference images containing structures present in the target image, healthy and pathological. The selection can be even more precise by selecting reference images containing the structure(s) present in the target image showing a suspected pathology in the target image.
Ainsi, par exemple, une image cible de foie peut être comparée à toutes ou au moins à une pluralité d’images de références de foie comprenant à la fois des foies pathologiques et des foies sains. En sélectionnant uniquement les images de foies, l’étape de similarité est plus rapide puisque le nombre d’images est réduit et notamment réduit aux images pertinentes.Thus, for example, a target liver image can be compared to all or at least a plurality of reference liver images including both pathological and healthy livers. By selecting only liver images, the similarity step is faster since the number of images is reduced and in particular reduced to relevant images.
Plus précisément, les structures d’intérêt peuvent être liées à une pathologie ou une anomalie anatomique. Par exemple, lorsque le radiologue soupçonne qu’un patient présente la maladie de NASH, le radiologue peut sélectionner des images de référence comprenant une structure correspondant à un foie annoté comme un foie présentant la maladie de NASH et utiliser les vecteurs de référence de ces images comme vecteurs de référence à utiliser pour la mesure de similarité. Ceci évite avantageusement de comparer les vecteurs de l’image cible avec tous les vecteurs des images de référence, dont la plupart sont très éloignés, raccourcissant ainsi le temps de calcul.More specifically, the structures of interest can be related to a pathology or an anatomical abnormality. For example, when the radiologist suspects that a patient has NASH disease, the radiologist can select reference images including a structure corresponding to a liver annotated as a liver with NASH disease and use the reference vectors of these images as reference vectors to be used for the similarity measurement. This advantageously avoids comparing the vectors of the target image with all the vectors of the reference images, most of which are very far apart, thus shortening the computation time.
La comparaison peut s’effectuer par une mesure de similarité entre la représentation vectorielle du patch cible (respectivement de la structure cible) et chacune des représentations vectorielles des patchs de référence (respectivement des structures de référence). La mesure de similarité peut par exemple s’effectuer en mesurant la distance euclidienne entre représentations vectorielles.The comparison can be carried out by a similarity measurement between the vector representation of the target patch (respectively of the target structure) and each of the vector representations of the reference patches (respectively of the reference structures). The similarity measurement can for example be carried out by measuring the Euclidean distance between vector representations.
On peut sélectionner une ou plusieurs représentations vectorielles de référence dont la distance est la plus faible avec la représentation vectorielle du patch cible. Lorsque l’on sélectionne plusieurs représentations vectorielles, on peut sélectionner les représentations vectorielles dont la distance est inférieure à une distance prédéterminée ou paramétrée. Ceci peut permettre d’améliorer la robustesse car si plusieurs patchs de référence représentatifs d’une pathologie, par exemple de la maladie de Nash, sont sélectionnés, ceci peut confirmer le diagnostic de cette pathologie sur le foie cible.One or more reference vector representations can be selected whose distance is the smallest with the vector representation of the target patch. When selecting several vector representations, one can select the vector representations whose distance is less than a predetermined or parameterized distance. This can improve robustness because if several reference patches representative of a pathology, for example Nash disease, are selected, this can confirm the diagnosis of this pathology on the target liver.
On obtient donc le patch de référence associé à la représentation vectorielle sélectionnée, le patch de référence et la représentation vectorielle associée étant par exemple liés par un index, un pointeur, ou liés de manière classique dans une base de données.We therefore obtain the reference patch associated with the selected vector representation, the reference patch and the associated vector representation being for example linked by an index, a pointer, or linked in a classic manner in a database.
Le modèle de fondation produisant un vecteur par patch, un regroupement de patchs formant une structure d’intérêt peut être réalisé et la mesure de similarité peut être effectuée à l’échelle de la structure et non pas du patch. Comme mentionné ci-dessus, lorsque l’image cible et l’image de référence sont segmentées (étapes E2’ et E2) on peut déterminer un vecteur par structure. Ainsi, la mesure de similarité peut être effectuée en comparant un vecteur d’une structure segmentée de l’image cible aux vecteurs des structures segmentées des images de référence. Ceci peut avantageusement être plus rapide que de comparer les patchs un à un.Since the foundation model produces a vector per patch, a grouping of patches forming a structure of interest can be carried out and the similarity measurement can be carried out at the structure scale and not at the patch scale. As mentioned above, when the target image and the reference image are segmented (steps E2’ and E2) one vector per structure can be determined. Thus, the similarity measurement can be carried out by comparing a vector of a segmented structure of the target image to the vectors of the segmented structures of the reference images. This can advantageously be faster than comparing the patches one by one.
Une fois le patch de référence sélectionné ou la structure de référence sélectionnée lors de l’étape E6, les annotations de ce patch de référence sélectionné ou de cette structure de référence sélectionnée, sont reportées sur le patch cible, respectivement sur la structure d’intérêt de l’image cible, étape E7. La
Suite à l’obtention d’une annotation d’au moins une donnée médicale pour la structure d’intérêt de l’image cible, l’image cible est ajoutée à l’ensemble des images de référence, la au moins une annotation d’au moins une donnée médicale pour la structure d’intérêt de l’image cible étant rajoutée aux labels.Following the obtaining of an annotation of at least one medical data for the structure of interest of the target image, the target image is added to the set of reference images, the at least one annotation of at least one medical data for the structure of interest of the target image being added to the labels.
Avantageusement, le procédé peut comprendre, suite à l’affectation de l’annotation à chaque patch de la structure d’intérêt,
- une obtention du contour de la structure d’intérêt, le contour englobant les patchs ayant la même annotation,
- une association de l’annotation des patchs de la structure d’intérêt à la structure d’intérêt.Advantageously, the method may comprise, following the assignment of the annotation to each patch of the structure of interest,
- obtaining the outline of the structure of interest, the outline encompassing the patches having the same annotation,
- an association of the annotation of the patches of the structure of interest to the structure of interest.
Ceci permet une lecture plus claire des annotations. En effet, une annotation par patch peut être moins lisible qu’une annotation par structure. On peut noter, comme sur la
Les structures sont généralement de forme géométrique différente de la forme des patchs. En effet, la forme des structures est plus proche d’une forme ovoïde alors que les patchs tels qu’ils sont définis sont de forme carrée (ou éventuellement rectangle). Ainsi, on peut comprendre aisément que lorsque l’on décompose une image ou une structure en patchs, au moins certains des patchs peuvent se trouver sur le bord d’une structure et comprendre à la fois des pixels appartement à la structure et des pixels n’appartenant pas à la structure créant des effets de bord. Comme l’indique la
En effet, les patchs compris sur les bords des structures d’intérêt, ont des vecteurs représentatifs probablement éloignés des vecteurs représentatifs des patchs de référence de cette structure d’intérêt puisqu’ils comprennent à la fois des pixels de la structure et des pixels hors de la structure. Un vote peut être effectué pour déterminer si un patch comprenant à la fois des pixels de la structure et des pixels hors de la structure est associé à la structure. Ce vote peut être fait manuellement par un opérateur ou automatiquement. Ce vote peut par exemple être basé sur une proportion de pixels faisant partie de la structure, et si cette proportion est supérieure à un premier seuil, le patch est sélectionné comme appartenant à la structure. Cette détermination peut être effectuée en utilisant les informations de segmentation obtenues lors de l’étape E2’.Indeed, the patches included on the edges of the structures of interest have representative vectors that are probably far from the representative vectors of the reference patches of this structure of interest since they include both pixels of the structure and pixels outside the structure. A vote can be carried out to determine whether a patch comprising both pixels of the structure and pixels outside the structure is associated with the structure. This vote can be done manually by an operator or automatically. This vote can for example be based on a proportion of pixels that are part of the structure, and if this proportion is greater than a first threshold, the patch is selected as belonging to the structure. This determination can be carried out using the segmentation information obtained during step E2’.
La
Selon d’autres modes de réalisation, lorsque l’on ne dispose pas de la segmentation en structure d’intérêt donc de l’image en bas à droite (absence des étapes E2 et E2’), on obtient l’image annotée (image de gauche de la
Ainsi, on regroupe les tuiles associées à la même annotation, comme mentionné ci-dessus,
- on détermine le contour de la structure d’intérêt, le contour englobant les tuiles ayant la même annotation,
- on associe, à la structure d’intérêt, l’annotation des tuiles de la structure d’intérêt.So, we group the tiles associated with the same annotation, as mentioned above,
- we determine the outline of the structure of interest, the outline encompassing the tiles having the same annotation,
- we associate, with the structure of interest, the annotation of the tiles of the structure of interest.
Un exemple est donné en
Dans certains modes de réalisation, il peut être nécessaire d’ajuster les annotations, pour s’adapter à certaines contraintes morphologiques de la morphologie du patient dont l’image est l’image cible. Par exemple, il peut être nécessaire d’ajuster des contours de l’organe d’intérêt.In some embodiments, it may be necessary to adjust the annotations to accommodate certain morphological constraints of the morphology of the patient whose image is the target image. For example, it may be necessary to adjust contours of the organ of interest.
Afin d’être utilisée par le radiologue, l’image cible annotée peut être affichée, par exemple sur un écran, étape E8. Le radiologue peut ainsi, simplement et directement, visualiser l’image analysée du patient. Le procédé lui permet donc avantageusement de bénéficier d’un compte-rendu créé automatiquement à partir des images de référence. De plus, le niveau de détail des annotations peut avoir été personnalisé lors de l’étape E41, les annotations sont donc adaptées au niveau de détail personnalisé pour permettre de détecter des anomalies ou des pathologies. Si les annotations affichées ne suffisent pas pour l’interprétation d’une pathologie ou d’une anomalie, il peut être envisagé de sélectionner un nouvel atlas, étape E42, dont les annotations sont plus précises ou plus adaptées. Par exemple, un atlas correspondant au bras peut avoir été sélectionné. Lors de l’analyse de l’image affichée comprenant les annotations présentes dans l’atlas relatif au bras, le radiologue peut souhaiter afficher des précisions sur le poignet s’il suspecte un problème au niveau du poignet. Le procédé peut comprendre une nouvelle sélection d’un atlas relatif au poignet. Les étapes E7 et E8 sont réitérées suite à cette nouvelle sélection.In order to be used by the radiologist, the annotated target image can be displayed, for example on a screen, step E8. The radiologist can thus, simply and directly, view the analyzed image of the patient. The method therefore advantageously allows him to benefit from a report created automatically from the reference images. In addition, the level of detail of the annotations may have been personalized during step E41, the annotations are therefore adapted to the personalized level of detail to allow the detection of anomalies or pathologies. If the displayed annotations are not sufficient for the interpretation of a pathology or anomaly, it may be considered to select a new atlas, step E42, whose annotations are more precise or more suitable. For example, an atlas corresponding to the arm may have been selected. When analyzing the displayed image including the annotations present in the atlas relating to the arm, the radiologist may wish to display details on the wrist if he suspects a problem at the wrist level. The method may include a new selection of an atlas relating to the wrist. Steps E7 and E8 are repeated following this new selection.
Suite à la sélection d’un nouvel atlas, le procédé comprend les étapes E7 à E9. Lors de l’étape E7, on annote au moins une donnée médicale pour les tuiles de la structure d’intérêt de l’image cible, en affectant à chaque tuile de la structure d’intérêt de l’image cible, l’annotation d’une donnée médicale associée à la tuile sélectionnée de l’image de référence issue du nouvel atlas sélectionné.Following the selection of a new atlas, the method comprises steps E7 to E9. During step E7, at least one medical data item is annotated for the tiles of the structure of interest of the target image, by assigning to each tile of the structure of interest of the target image, the annotation of a medical data item associated with the selected tile of the reference image from the new selected atlas.
Dans certains modes de réalisation, le procédé comprend une étape de correction, E9. Cette étape peut avantageusement être mise en œuvre, par exemple lorsque les annotations visualisées lors de l’étape E8, sont incorrectes, notamment à l’échelle de la structure. Cette correction peut consister en une modification de l’annotation ou des annotations faite lors de l’étape E7, par exemple par une réception, à travers une interface utilisateur, d’une information d’annotation correctrice. Par exemple, il peut arriver que de nouvelles images cibles soient analysées, contenant des structures différentes de celles présentes dans les images de référence. La mesure de similarité entre les vecteurs représentatifs de ces nouvelles images et les vecteurs représentatifs des images de référence peut conduire à sélectionner des vecteurs de référence éloignés des vecteurs de référence des images cibles, même si ce sont les plus proches, ce qui peut conduire à une annotation peu précise, voire très éloignée.In certain embodiments, the method comprises a correction step, E9. This step can advantageously be implemented, for example when the annotations viewed during step E8 are incorrect, in particular at the scale of the structure. This correction can consist of a modification of the annotation or annotations made during step E7, for example by receiving, through a user interface, corrective annotation information. For example, it may happen that new target images are analyzed, containing structures different from those present in the reference images. The measurement of similarity between the vectors representative of these new images and the vectors representative of the reference images can lead to the selection of reference vectors distant from the reference vectors of the target images, even if they are the closest, which can lead to an annotation that is not very precise, or even very distant.
Par exemple, lorsqu’il y a de l’ascite autour du foie, dans certaines pathologies du foie, l’apparence du foie peut être altérée et une image cible contenant un tel foie peut être difficilement annotée comme étant une image de foie. L’étape E9 peut permettre de corriger cette erreur d’annotation.For example, when there is ascites around the liver, in some liver pathologies, the appearance of the liver may be altered and a target image containing such a liver may be difficult to annotate as a liver image. Step E9 can correct this annotation error.
Ainsi, par exemple, lorsqu’une nouvelle image cible présentant un foie malade baignant dans de l’ascite est analysée, ses vecteurs de référence sont proches des vecteurs de référence de l’image de référence précédemment analysée et corrigée contenant un tel foie. Les annotations de cette image de référence contenant le foie entouré d’ascite sont donc utilisées pour être reportées lors de l’étape E7 sur cette image cible.Thus, for example, when a new target image showing a diseased liver bathed in ascites is analyzed, its reference vectors are close to the reference vectors of the previously analyzed and corrected reference image containing such a liver. The annotations of this reference image containing the liver surrounded by ascites are therefore used to be transferred during step E7 to this target image.
Ainsi, avantageusement, l’étape E9 peut permettre au procédé de s’améliorer lorsque les images corrigées viennent alimenter, ou encore enrichir la base de données des images de référence. Ces nouvelles images de référence alimentant la base de données d’image de référence sont injectées dans le modèle de fondation pour en obtenir leur vecteur de référence. Ainsi, le modèle dispose d’une nouvelle image de référence, de son vecteur de référence et des annotations associées. Le procédé tel que décrit permet donc avantageusement, sans ré-entrainer le modèle de fondation, de bénéficier des informations médicales de nouvelles images de référence.Thus, advantageously, step E9 can allow the method to improve when the corrected images are added to, or even enriched, the database of reference images. These new reference images added to the reference image database are injected into the foundation model to obtain their reference vector. Thus, the model has a new reference image, its reference vector and the associated annotations. The method as described therefore advantageously makes it possible, without re-training the foundation model, to benefit from the medical information of new reference images.
Selon certains modes de réalisation, lors de l’étape E9, le radiologue, outre corriger, peut également ajuster les annotations obtenues à partir des annotations de l’image de référence sélectionnée. Ainsi, il peut être possible de personnaliser les annotations à l’image cible, par exemple si le radiologue détecte de nouvelles pathologies. Ainsi, suite à l’étape E9, le procédé peut passer à l’étape E3 dans laquelle les atlas existants peuvent être modifiés ou complétés à partir des informations identifiées lors de l’affichage, étape E8. Ceci peut permettre de rendre plus robuste les annotations. Dans certains cas, de nouveaux atlas peuvent également être créés.According to certain embodiments, during step E9, the radiologist, in addition to correcting, can also adjust the annotations obtained from the annotations of the selected reference image. Thus, it may be possible to customize the annotations to the target image, for example if the radiologist detects new pathologies. Thus, following step E9, the method can move on to step E3 in which the existing atlases can be modified or supplemented from the information identified during the display, step E8. This can make the annotations more robust. In certain cases, new atlases can also be created.
Cette personnalisation peut également être liée aux préférences du radiologue.This customization can also be linked to the radiologist's preferences.
Selon certains modes de réalisation, il peut être possible de modifier les contours par des méthodes de lissage lors de l’étape E9. Ceci est notamment pertinent lorsque les images n’ont pas fait l’objet d’une segmentation telle que décrites dans les étapes E2 et E2’. La méthode de lissage peut consister à utiliser des noyaux de convolution pour atténuer ce bruit.According to certain embodiments, it may be possible to modify the contours by smoothing methods during step E9. This is particularly relevant when the images have not been segmented as described in steps E2 and E2’. The smoothing method may consist of using convolution kernels to attenuate this noise.
Selon certains modes de réalisation, on peut mettre à disposition une plateforme collaborative permettant à des praticiens d’utiliser un tel procédé en l’enrichissant avec leurs propres images médicales et/ou leurs propres images de référence. Ainsi, lorsque certains praticiens ou centres de soin sont spécialisés sur une pathologie, un organe...ils peuvent annoter des images de référence ciblées sur cette pathologie et/ou cet organe d’intérêt, ces nouvelles annotations pouvant constituer de nouvelles classes sémantiques de l’atlas. La présente divulgation peut ainsi permettre avantageusement de détecter des pathologies qui ne sont pas présentes dans les images d'entraînement du modèle mais qui sont découvertes lors des examens des images cibles. Ces nouvelles images cibles deviennent des images de référence et apportent de nouvelles annotations.According to certain embodiments, a collaborative platform can be made available allowing practitioners to use such a method by enriching it with their own medical images and/or their own reference images. Thus, when certain practitioners or care centers are specialized in a pathology, an organ, etc., they can annotate reference images targeted on this pathology and/or this organ of interest, these new annotations being able to constitute new semantic classes of the atlas. The present disclosure can thus advantageously make it possible to detect pathologies that are not present in the training images of the model but which are discovered during examinations of the target images. These new target images become reference images and provide new annotations.
A cet effet, de nouvelles images de référence peuvent être ajoutées par des praticiens de manière à venir enrichir le procédé et rendre plus pertinent la mesure de similarité. Plus le nombre d’images de référence est élevé, plus le procédé est efficace en termes d’annotation et moins il nécessite d’ajustement par le praticien dans la mise en forme d’un compte-rendu.To this end, new reference images can be added by practitioners in order to enrich the process and make the similarity measurement more relevant. The higher the number of reference images, the more efficient the process is in terms of annotation and the less adjustment it requires by the practitioner in the formatting of a report.
La présente divulgation peut être utilisée pour l’identification de “signatures” caractéristiques de pathologies. Par exemple, il existe plusieurs sous-groupes de carcinomes hépatocellulaires (CHC), le cancer du foie le plus courant: typiquement il existe les sous-groupes des pseudo-progresseurs, des progresseurs, et des hyper-progresseurs. Des images représentatives d’un foie atteint de chacun des sous-groupes de pathologie peuvent être annotées par un praticien et le modèle de fondation peut être appliqué sur ces nouvelles images constituant des images de référence. En comparant ces images de référence avec un celle d’un nouveau patient atteint de CHC, on peut très simplement identifier le sous-groupe associé à ce CHC. On peut ainsi utiliser le modèle de fondation pour définir une signature des sous-groupes de CHC.The present disclosure can be used for the identification of characteristic “signatures” of pathologies. For example, there are several subgroups of hepatocellular carcinomas (HCC), the most common liver cancer: typically there are subgroups of pseudo-progressors, progressors, and hyper-progressors. Representative images of a liver affected by each of the pathology subgroups can be annotated by a practitioner and the foundation model can be applied to these new images constituting reference images. By comparing these reference images with that of a new patient suffering from HCC, it is very simple to identify the subgroup associated with this HCC. The foundation model can thus be used to define a signature of the HCC subgroups.
On peut notamment appliquer la présente divulgation à la détection de la maladie de Nash (acronyme anglais de « stéatose-hépatite non alcoolique »). Cette maladie touche potentiellement un nombre important de personnes dans la population générale, entre 1,5 et 6 % de la population et reste actuellement sous-diagnostiquée. Il y a donc potentiellement de nombreux patients atteints de cette maladie et qui l’ignorent dans les cohortes d’images déjà collectées et qui ont par exemple servies à entraîner le modèle de fondation. Grâce à la présente divulgation, des praticiens peuvent annoter des images comprenant des foies présentant cette pathologie. Ces images sont des images de référence qui sont rentrées dans le modèle de fondation et produisent chacune en sortie une représentation vectorielle (par patch). Ces représentations vectorielles sont ensuite également utilisées, avec toutes les représentations vectorielles des patchs des images de référence déjà collectées, pour les mesures de similarité effectuées lors de l’étape E6. Ainsi, la présente divulgation ne nécessite pas d’entrainer de nouveau le modèle de fondation avec des images représentatives de la pathologie NASH. Une mesure de similarité des représentations vectorielles de foie pathologique NASH issues du modèle de fondation avec les représentations vectorielles des images de référence présentant des foies NASH issues du modèle de fondation et annotées peut permettre d’annoter rapidement et automatiquement des images de foies NASH. Le modèle de fondation peut ainsi permettre d’identifier une signature des foies ayant la maladie de NASH.The present disclosure can in particular be applied to the detection of Nash disease (an acronym for “non-alcoholic steatosis-hepatitis”). This disease potentially affects a significant number of people in the general population, between 1.5 and 6% of the population, and currently remains underdiagnosed. There are therefore potentially many patients suffering from this disease who are unaware of it in the cohorts of images already collected and which have, for example, been used to train the foundation model. Thanks to the present disclosure, practitioners can annotate images comprising livers presenting this pathology. These images are reference images which are entered into the foundation model and each produce a vector representation (per patch) as output. These vector representations are then also used, with all the vector representations of the patches of the reference images already collected, for the similarity measurements carried out during step E6. Thus, the present disclosure does not require retraining the foundation model with images representative of the NASH pathology. A similarity measure of vector representations of NASH pathological livers from the foundation model with vector representations of reference images with NASH livers from the foundation model and annotated can allow for rapid and automatic annotation of NASH liver images. The foundation model can thus allow for the identification of a signature of livers with NASH disease.
La présente invention concerne également un dispositif d’annotation mettant en œuvre le procédé tel que décrit précédemment dans l’un au moins de ces modes de réalisation. A cette fin, la présente divulgation concerne un dispositif d’annotation d’au moins une image cible obtenue par imagerie médicale représentant au moins une structure d’intérêt, le dispositif comprenant un ou plusieurs processeurs configurés pour
- appliquer, sur une décomposition en tuiles d’une pluralité d’images de référence non annotées, un modèle de fondation préalablement entraîné pour obtenir une représentation vectorielle d’une image médicale décomposée en tuiles,
- annoter une pluralité de données médicales sur les images de référence, au moins une donnée médicale étant annotée sur les tuiles de la au moins une structure d’intérêt présente dans les images de référence,
- appliquer, sur une décomposition en tuiles de l’image cible, le modèle de fondation, pour obtenir une représentation vectorielle des tuiles de l’image cible
-comparer les représentations vectorielles des tuiles de l’image cible et les représentations vectorielles des tuiles d’au moins une des images de référence,
- sélectionner, pour chaque tuile d’une structure d’intérêt de l’image cible, au moins une tuile d’au moins une image de référence, dont la distance entre leur représentation vectorielle est inférieure à un seuil ou dont la distance est minimale,
- obtenir une annotation d’au moins une donnée médicale pour les tuiles de la structure d’intérêt de l’image cible, en affectant à chaque tuile de la structure d’intérêt de l’image cible, l’annotation d’une donnée médicale associée à la tuile sélectionnée de l’image de référence.The present invention also relates to an annotation device implementing the method as described previously in at least one of these embodiments. To this end, the present disclosure relates to a device for annotating at least one target image obtained by medical imaging representing at least one structure of interest, the device comprising one or more processors configured to
- applying, on a tile decomposition of a plurality of unannotated reference images, a previously trained foundation model to obtain a vector representation of a medical image decomposed into tiles,
- annotating a plurality of medical data on the reference images, at least one medical data being annotated on the tiles of the at least one structure of interest present in the reference images,
- apply, on a tile decomposition of the target image, the foundation model, to obtain a vector representation of the tiles of the target image
- compare the vector representations of the tiles of the target image and the vector representations of the tiles of at least one of the reference images,
- select, for each tile of a structure of interest of the target image, at least one tile of at least one reference image, the distance between their vector representation of which is less than a threshold or the distance of which is minimal,
- obtaining an annotation of at least one medical data item for the tiles of the structure of interest of the target image, by assigning to each tile of the structure of interest of the target image, the annotation of a medical data item associated with the selected tile of the reference image.
La
L’architecture matérielle 10 comprend un ou plusieurs processeurs 11 (un seul est représenté sur la
Le programme d’ordinateur Prog peut permettre au dispositif 10 de mettre en œuvre au moins une partie du procédé conforme à la présente divulgation et tel qu’illustré par exemple en
Ce programme d’ordinateur Prog peut ainsi définir des modules fonctionnels et logiciels, configurés pour mettre en œuvre les étapes d’un procédé d’annotation conforme à un exemple de mode de réalisation de l’invention, ou au moins une partie de ces étapes. Ces modules fonctionnels s’appuient sur ou commandent les éléments matériels 11, 12, 13, 14, 15 cités précédemment.This computer program Prog can thus define functional and software modules, configured to implement the steps of an annotation method in accordance with an exemplary embodiment of the invention, or at least part of these steps. These functional modules rely on or control the hardware elements 11, 12, 13, 14, 15 cited above.
Claims (19)
- une application (E5), sur une décomposition en tuiles d’une pluralité d’images de référence non annotées, d’un modèle de fondation préalablement entraîné pour obtenir une représentation vectorielle d’une image médicale décomposée en tuiles,
- une annotation (E3) d’une pluralité de données médicales sur lesdites images de référence, au moins une donnée médicale étant annotée sur les tuiles de la dite au moins une structure d’intérêt présente dans lesdites images de référence,
- une application (E5), sur une décomposition en tuiles de ladite image cible, dudit modèle de fondation, pour obtenir une représentation vectorielle des tuiles de ladite image cible
-une comparaison (E6) des représentations vectorielles des tuiles de l’image cible et des représentations vectorielles des tuiles d’au moins une desdites images de référence,
- une sélection (E6), pour chaque tuile d’une structure d’intérêt de ladite image cible, d’au moins une tuile d’au moins une image de référence, dont la distance entre leur représentation vectorielle est inférieure à un seuil ou dont la distance est minimale,
- une obtention (E7)d’une annotation d’au moins une donnée médicale pour les tuiles de ladite structure d’intérêt de ladite image cible, en affectant à chaque tuile de ladite structure d’intérêt de l’image cible, l’annotation d’une donnée médicale associée à la tuile sélectionnée de l’image de référence.Method of annotating at least one target image obtained by medical imaging representing at least one structure of interest:
- an application (E5), on a decomposition into tiles of a plurality of unannotated reference images, of a foundation model previously trained to obtain a vector representation of a medical image decomposed into tiles,
- an annotation (E3) of a plurality of medical data on said reference images, at least one medical data being annotated on the tiles of said at least one structure of interest present in said reference images,
- an application (E5), on a decomposition into tiles of said target image, of said foundation model, to obtain a vector representation of the tiles of said target image
- a comparison (E6) of the vector representations of the tiles of the target image and the vector representations of the tiles of at least one of said reference images,
- a selection (E6), for each tile of a structure of interest of said target image, of at least one tile of at least one reference image, the distance between their vector representation of which is less than a threshold or the distance of which is minimal,
- obtaining (E7) an annotation of at least one medical data item for the tiles of said structure of interest of said target image, by assigning to each tile of said structure of interest of the target image, the annotation of a medical data item associated with the selected tile of the reference image.
- une association d’un ou plusieurs labels à une tuile d’une image de référence, lesdits labels appartenant à un ou plusieurs atlas selon une classification déterminée.Method according to claim 1 wherein said annotation (E3) of a plurality of medical data comprises
- an association of one or more labels with a tile of a reference image, said labels belonging to one or more atlases according to a determined classification.
- une classification hiérarchique d’un organe du corps humain, la classification hiérarchique correspondant à un niveau de détail des composantes dudit organe
- une classification pathologique,
- une classification relative à une structure du corps humain,
The method of claim 2 wherein said classification of said labels is chosen from one or more of:
- a hierarchical classification of an organ of the human body, the hierarchical classification corresponding to a level of detail of the components of said organ
- a pathological classification,
- a classification relating to a structure of the human body,
- une sélection parmi ladite pluralité d’images de référence, des images de référence représentant au moins ladite structure d’intérêt,
- ladite comparaison étant effectuée entre les tuiles de l’image cible et les tuiles des images de référence sélectionnées.Method according to one of the preceding claims comprising, prior to the comparison of the vector representations of the tiles of the target image and the vector representations of the tiles of at least one of said reference images,
- a selection from said plurality of reference images, reference images representing at least said structure of interest,
- said comparison being carried out between the tiles of the target image and the tiles of the selected reference images.
- une segmentation (E2) d’au moins une partie desdites images de référence parmi ladite pluralité des images de référence, pour identifier une ou plusieurs structures d’intérêt dans lesdites images
- une segmentation (E2’) de l’image cible, pour identifier une ou plusieurs structures d’intérêt dans l’image cible.Method according to one of the preceding claims comprising,
- a segmentation (E2) of at least a part of said reference images among said plurality of reference images, to identify one or more structures of interest in said images
- a segmentation (E2') of the target image, to identify one or more structures of interest in the target image.
- une obtention d’une représentation vectorielle pour lesdites structures d’intérêt segmentées, à partir desdites représentations vectorielles des tuiles composant lesdites structures d’intérêt segmentées, pour les images de référence et pour l’image cible
- une comparaison (E6) des représentations vectorielles des tuiles de l’image cible et des représentations vectorielles des tuiles d’au moins une desdites images de référence étant obtenue par une comparaison des représentations vectorielles des structures d’intérêt segmentées,
- une sélection, pour lesdites structures d’intérêt de l’image cible, d’au moins une structure d’intérêt d’une image de référence dont la distance entre leur représentation vectorielle est inférieure à un seuil ou dont la distance est minimale
- une obtention d’une annotation d’au moins une donnée médicale pour ladite structure d’intérêt de ladite image cible, en affectant à ladite structure d’intérêt de l’image cible, l’annotation d’une donnée médicale associée à la structure d’intérêt de l’image de référence sélectionnée.The method of claim 5 comprising,
- obtaining a vector representation for said segmented structures of interest, from said vector representations of the tiles composing said segmented structures of interest, for the reference images and for the target image
- a comparison (E6) of the vector representations of the tiles of the target image and the vector representations of the tiles of at least one of said reference images being obtained by a comparison of the vector representations of the segmented structures of interest,
- a selection, for said structures of interest of the target image, of at least one structure of interest of a reference image whose distance between their vector representation is less than a threshold or whose distance is minimal
- obtaining an annotation of at least one medical data item for said structure of interest of said target image, by assigning to said structure of interest of the target image, the annotation of a medical data item associated with the structure of interest of the selected reference image.
- un regroupement des tuiles associées à la même annotation,
- une détermination du contour de ladite structure d’intérêt, ledit contour englobant lesdites tuiles ayant la même annotation,
- une association de ladite annotation desdites tuiles de ladite structure d’intérêt à ladite structure d’intérêt.Method according to one of claims 1 to 5 comprising, following the assignment of said annotation to each tile of said structure of interest of the target image,
- a grouping of tiles associated with the same annotation,
- a determination of the outline of said structure of interest, said outline encompassing said tiles having the same annotation,
- an association of said annotation of said tiles of said structure of interest to said structure of interest.
- un lissage des contours de ladite structure d’intérêt annotée.The method of claim 7 further comprising
- smoothing of the contours of said annotated structure of interest.
- une sélection (E42) d’un atlas en fonction d’un ou plusieurs critères choisis parmi :
- un niveau hiérarchique de détail relatif à une pathologie, ou une malformation, ou une anomalie suspectée, ou une structure,
-un ou plusieurs types de structures choisis parmi les vaisseaux, et/ou les artères, et/ou les muscles, et/ou les os,
- une zone du corps, associée à un ou plusieurs niveaux hiérarchiques de détail de cette zone,
ladite annotation contenant un ou plusieurs labels de l’atlas sélectionné pour la au moins une structure d’intérêt.Method according to one of claims 2 to 8 comprising, prior to said annotation of the target image,
- a selection (E42) of an atlas based on one or more criteria chosen from:
- a hierarchical level of detail relating to a pathology, or a malformation, or a suspected anomaly, or a structure,
-one or more types of structures chosen from vessels, and/or arteries, and/or muscles, and/or bones,
- an area of the body, associated with one or more hierarchical levels of detail of this area,
said annotation containing one or more labels of the atlas selected for the at least one structure of interest.
- un affichage (E8) de ladite image cible avec ladite annotation.Method according to one of the preceding claims further comprising
- a display (E8) of said target image with said annotation.
- la sélection (E42) d’un nouvel atlas différent d’un atlas précédemment sélectionné, le nouvel atlas sélectionné comprenant des annotations plus précises que l’atlas précédemment sélectionné ,
- l’annotation d’au moins une donnée médicale pour les tuiles de ladite structure d’intérêt de ladite image cible, en affectant à chaque tuile de ladite structure d’intérêt de l’image cible, l’annotation d’une donnée médicale associée à la tuile sélectionnée de l’image de référence issue du nouvel atlas sélectionné.A method according to claims 9 and 10 comprising, following the display of said target image with said annotation,
- the selection (E42) of a new atlas different from a previously selected atlas, the new selected atlas including more precise annotations than the previously selected atlas,
- the annotation of at least one medical data item for the tiles of said structure of interest of said target image, by assigning to each tile of said structure of interest of the target image, the annotation of a medical data item associated with the selected tile of the reference image from the new selected atlas.
- une correction (E9) des annotations d’au moins une donnée médicale pour les tuiles de ladite structure d’intérêt de ladite image cible, lorsque ladite annotation est incorrecte,
- un enrichissement de l’ensemble des images de référence avec ladite image cible sur laquelle les annotations ont été corrigées et un ajout de ladite au moins une annotation corrigée auxdits labels.Method according to one of claims 10 or 11 comprising
- a correction (E9) of the annotations of at least one medical data for the tiles of said structure of interest of said target image, when said annotation is incorrect,
- an enrichment of the set of reference images with said target image on which the annotations have been corrected and an addition of said at least one corrected annotation to said labels.
- une partie du corps humain,
- une pathologie d’une partie du corps humain.A method according to any preceding claim wherein said structure may be one or more of
- a part of the human body,
- a pathology of a part of the human body.
- des structures osseuses,
- des organes internes,
- des vaisseaux sanguins,
- des tissus mous.A method according to any preceding claim wherein said human body part may be one or more of
- bone structures,
- internal organs,
- blood vessels,
- soft tissues.
- un nommage d’un organe, et/ou d’une structure osseuse, et/ou d’un vaisseau sanguin, et/ ou de tissus mous, et/ou
- un nommage d’une pathologieMethod according to one of claims 2 or 3 in which said medical data relates to one or other or more of:
- a naming of an organ, and/or a bone structure, and/or a blood vessel, and/or soft tissue, and/or
- a naming of a pathology
- appliquer, sur une décomposition en tuiles d’une pluralité d’images de référence non annotées, un modèle de fondation préalablement entraîné pour obtenir une représentation vectorielle d’une image médicale décomposée en tuiles,
- annoter une pluralité de données médicales sur lesdites images de référence, au moins une donnée médicale étant annotée sur les tuiles de la dite au moins une structure d’intérêt présente dans lesdites images de référence,
- appliquer, sur une décomposition en tuiles de ladite image cible, ledit modèle de fondation, pour obtenir une représentation vectorielle des tuiles de ladite image cible
-comparer les représentations vectorielles des tuiles de l’image cible et les représentations vectorielles des tuiles d’au moins une desdites images de référence,
- sélectionner, pour chaque tuile d’une structure d’intérêt de ladite image cible, au moins une tuile d’au moins une image de référence, dont la distance entre leur représentation vectorielle est inférieure à un seuil ou dont la distance est minimale,
- obtenir une annotation d’au moins une donnée médicale pour les tuiles de ladite structure d’intérêt de ladite image cible, en affectant à chaque tuile de ladite structure d’intérêt de l’image cible, l’annotation d’une donnée médicale associée à la tuile sélectionnée de l’image de référence.Device for annotating at least one target image obtained by medical imaging representing at least one structure of interest, the device comprising one or more processors configured to
- applying, on a tile decomposition of a plurality of unannotated reference images, a previously trained foundation model to obtain a vector representation of a medical image decomposed into tiles,
- annotating a plurality of medical data on said reference images, at least one medical data being annotated on the tiles of said at least one structure of interest present in said reference images,
- applying, on a tile decomposition of said target image, said foundation model, to obtain a vector representation of the tiles of said target image
-comparing the vector representations of the tiles of the target image and the vector representations of the tiles of at least one of said reference images,
- select, for each tile of a structure of interest of said target image, at least one tile of at least one reference image, the distance between their vector representation of which is less than a threshold or the distance of which is minimal,
- obtaining an annotation of at least one medical data item for the tiles of said structure of interest of said target image, by assigning to each tile of said structure of interest of the target image, the annotation of a medical data item associated with the selected tile of the reference image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2401946A FR3159699A1 (en) | 2024-02-28 | 2024-02-28 | device and method for annotating medical images |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FR2401946 | 2024-02-28 | ||
| FR2401946A FR3159699A1 (en) | 2024-02-28 | 2024-02-28 | device and method for annotating medical images |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| FR3159699A1 true FR3159699A1 (en) | 2025-08-29 |
Family
ID=91247063
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| FR2401946A Pending FR3159699A1 (en) | 2024-02-28 | 2024-02-28 | device and method for annotating medical images |
Country Status (1)
| Country | Link |
|---|---|
| FR (1) | FR3159699A1 (en) |
-
2024
- 2024-02-28 FR FR2401946A patent/FR3159699A1/en active Pending
Non-Patent Citations (2)
| Title |
|---|
| DANIELA MUENZEL ET AL., INTRA- AND INTER-OBSERVER VARIABILITY IN MEASUREMENT OF TARGET LESIONS: IMPLICATION ON RESPONSE EVALUATION ACCORDING TO RECIST 1.1, 2 January 2012 (2012-01-02) |
| WANG YAN ET AL: "Patch-wise label propagation for MR brain segmentation based on multi-atlas images", MULTIMEDIA SYSTEMS, ACM, NEW YORK, NY, US, vol. 25, no. 2, 8 December 2017 (2017-12-08), pages 73 - 81, XP036761695, ISSN: 0942-4962, [retrieved on 20171208], DOI: 10.1007/S00530-017-0577-2 * |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Jaskari et al. | Deep learning method for mandibular canal segmentation in dental cone beam computed tomography volumes | |
| US11615879B2 (en) | System and method for automated labeling and annotating unstructured medical datasets | |
| US12067724B2 (en) | Method and system for image segmentation and identification | |
| Hosny et al. | Deep learning and optimization-based methods for skin lesions segmentation: a review | |
| Li et al. | DenseX-net: an end-to-end model for lymphoma segmentation in whole-body PET/CT images | |
| US20030028401A1 (en) | Customizable lung report generator | |
| EP2401719B1 (en) | Methods for segmenting images and detecting specific structures | |
| JP6719421B2 (en) | Learning data generation support device, learning data generation support method, and learning data generation support program | |
| WO2021112141A1 (en) | Document creation assistance device, method, and program | |
| Babarenda Gamage et al. | An automated computational biomechanics workflow for improving breast cancer diagnosis and treatment | |
| Gaber et al. | Comprehensive assessment of facial paralysis based on facial animation units | |
| Goyal et al. | Skin lesion boundary segmentation with fully automated deep extreme cut methods | |
| Abaid et al. | Synthesizing cta image data for type-b aortic dissection using stable diffusion models | |
| Breznik et al. | Multiple comparison correction methods for whole-body magnetic resonance imaging | |
| AU2019204365C1 (en) | Method and System for Image Segmentation and Identification | |
| Belyk et al. | An open-source toolbox for measuring vocal tract shape from real-time magnetic resonance images | |
| FR3159699A1 (en) | device and method for annotating medical images | |
| US12198340B2 (en) | System and method for cardiovascular risk prediction and computer readable medium thereof | |
| Wang et al. | Use of artificial intelligence to improve the calculation of percent adhesion for transdermal and topical delivery systems | |
| Woerner et al. | A comprehensive and easy-to-use multi-domain multi-task medical imaging meta-dataset | |
| Limprapaipong et al. | A paired multi-scale attention network for liver tumor segmentation in 99mTc-MAA SPECT/CT imaging | |
| Curto-Vilalta et al. | Semi-supervised Label Generation for 3D Multi-modal MRI Bone Tumor Segmentation | |
| Reddy et al. | Different algorithms for lung cancer detection and prediction | |
| Müller | Frameworks in medical image analysis with deep neural networks | |
| Cubillas et al. | Stroke Tomography for Enhanced Lesion Learning Analysis (STELLA. ai) Using Computer Vision |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PLFP | Fee payment |
Year of fee payment: 2 |
|
| PLSC | Publication of the preliminary search report |
Effective date: 20250829 |