[go: up one dir, main page]

WO2018104609A1 - Method for tracking a target in a sequence of medical images, associated device, terminal apparatus and computer programs - Google Patents

Method for tracking a target in a sequence of medical images, associated device, terminal apparatus and computer programs Download PDF

Info

Publication number
WO2018104609A1
WO2018104609A1 PCT/FR2017/053244 FR2017053244W WO2018104609A1 WO 2018104609 A1 WO2018104609 A1 WO 2018104609A1 FR 2017053244 W FR2017053244 W FR 2017053244W WO 2018104609 A1 WO2018104609 A1 WO 2018104609A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
interest
area
current
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/FR2017/053244
Other languages
French (fr)
Inventor
Lucas ROYER
Alexandre KRUPA
Maude MARCHAL
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INSTITUT NATIONAL SCIENCES APPLIQUEES
Institut National de Recherche en Informatique et en Automatique INRIA
B Com SAS
Original Assignee
INSTITUT NATIONAL SCIENCES APPLIQUEES
Institut National de Recherche en Informatique et en Automatique INRIA
B Com SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INSTITUT NATIONAL SCIENCES APPLIQUEES, Institut National de Recherche en Informatique et en Automatique INRIA, B Com SAS filed Critical INSTITUT NATIONAL SCIENCES APPLIQUEES
Publication of WO2018104609A1 publication Critical patent/WO2018104609A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the field of the invention is that of the treatment of medical images.
  • the invention relates to a method for tracking a clinical target in a sequence of medical digital images.
  • the invention finds particular application in the treatment of images obtained by an imaging technique for example ultrasonic or endoscopic type.
  • Ultrasound or endoscopic imaging techniques are widely used in the medical field to help physicians visualize in real time a clinical target and / or surgical tool during a surgical procedure or invasive examination intended to diagnose a pathology.
  • ultrasound techniques are frequently used during an intervention requiring the insertion of a needle, and especially in interventional radiology.
  • Target tracking methods are known that rely on determining a transformation to align different images over time. To do this, these approaches are usually based on a cost function that measures the similarity between these images.
  • the methods of monitoring can be classified into two categories:
  • a first type of approach consists in determining the position of anatomical structures by successive comparison between different pairs of images. Many methods are based on this model such as the approaches proposed by Shekhar and Zagrodsky and Heyde et al.
  • the optimal transformation T is obtained by minimizing the following cost function:
  • Ir and It respectively represent the reference image and the current image corresponding to the last image acquired over time.
  • S makes it possible to measure the alignment between a reference image (Ir) and a transformed current image (T ° It).
  • R penalizes unrealistic transformations.
  • the choice of the image of the reference image differs according to the methods proposed and can have an impact on the quality of the results of follow-up. Generally, paired strategies can be divided into three subcategories.
  • group policies compare all images in the sequence to the current image. With each new current image acquired, these approaches take into account all the information in the sequence in order to obtain a more robust tracking result.
  • various examples have been proposed by Metz et al. and Vijayan et al. These methods make it possible to follow an anatomical target by comparing the current image with a synthetic image obtained from the preceding images.
  • the estimation of target displacements is obtained from the minimization of the following cost function arg min 5 (/ m? T o I t ) ⁇ ⁇ 1 ⁇ ] ' ⁇
  • Ni represents the number of images in the sequence.
  • P (tk) represents the vector of the positions of the voxels belonging to the target at the time Tk. These positions depend directly on the transformation T.
  • Itk (Ptk) represents the intensity of the pixels / voxels of the image at time tk.
  • a disadvantage of these methods is that their performance is generally disturbed by artifacts present in the images of the sequence and whose type differs according to the modality used. For example, ultrasound images are affected by shadows and mirrors effects. In addition, changes in gain and probe orientation may also impact these images. Endoscopic imaging can also be affected by different artifacts such as specular reflections, occultations, and illumination changes.
  • a disadvantage of this method is that its performance depends on the quality of the reference image.
  • the invention improves the situation.
  • the invention particularly aims to overcome these disadvantages of the prior art.
  • an objective of the invention is to propose a solution that guarantees efficient monitoring, when the reference image includes artifacts in the area of interest.
  • a target tracking method in a sequence of medical digital images an area of interest that encompasses the target having been predetermined in an initial image of the sequence, called reference image, said method comprising the following steps, implemented for a current image of the sequence, distinct from the reference image:
  • Transforming the initial position of the model of the zone of interest into the current image comprising minimizing a cost function based at least on a difference between the intensities of the current image and the reference image
  • the method further comprises, following the transformation, a step (E4) of mapping of the image elements of the area of interest of the reference image and the image elements of the image. zone of interest of the current image, a step of detecting in the area of interest of the reference image of at least one image element to be corrected, comprising a comparing (E51) the confidence measure of a picture element of the area of interest of the reference picture with that of at least one corresponding picture element in the area of interest of the picture current, an image element to be corrected being detected (E52) when its confidence measurement is lower than that of the at least one corresponding image element and, when at least one image element has been detected, a step of correction of the at least one detected element at least from the intensity of at least one picture element of the area of interest of the current picture.
  • a step (E4) of mapping of the image elements of the area of interest of the reference image and the image elements of the image. zone of interest of the current image a step of detecting in the area of interest of the reference image of at least one image element to be corrected
  • the area of interest of the reference image is enriched by reliable information contained in the current image.
  • the invention is based on an entirely new and inventive approach, which consists in reconstructing an improved reference image, based on the following images of the sequence, by exploiting a local confidence measurement associated with the intensities of the image elements. images of the sequence.
  • the invention proposes to dynamically form an improved reference image as the sequence is processed. .
  • the reconstructed reference image for the current image becomes the reference image for the next image.
  • One advantage is to make the following images of the sequence of the contributions of the previous images benefit.
  • the quality of the reference image can thus improve over time and any acquisition artifacts are gradually erased by the successive corrections.
  • the proposed method has the advantage of being faster than the group methods since it relies only on the comparison of two images. It also makes it possible to avoid the accumulation of the error since it locally corrects the structures of the reference image only when the current image offers information likely to improve the quality of the reference image.
  • Another advantage is that only those image elements of the reference image that are identified as less reliable than their corresponding in the current image are corrected.
  • the invention thus makes it possible to solve the technical problem of the management of the artifacts present in a sequence of medical images and, in particular, in the image chosen as a reference for target tracking.
  • the correction of an image element detected in the reference image comprises a replacement of its intensity by the intensity of the at least one corresponding image element in the current image.
  • An advantage of this embodiment is its simplicity.
  • the additional information extracted from the current image is injected into the reference image in order to enrich it.
  • the correction of an image element detected in the reference image comprises a replacement of its intensity by an intensity calculated from a correction function which takes into account the intensities.
  • An advantage of this embodiment is that the calculation of the new intensity takes into account the intensities of the other image elements of the area of interest which are sufficiently trustworthy, and therefore any differences in intensity level. in the rest of the area of interest between the current image and the reference image. This makes it possible to compensate in particular for a variation of the gain level between the two images or, for a sequence of ultrasound images, a change of orientation of the probe and thus to obtain a corrected image presenting a zone of interest at more intensities. homogeneous.
  • the intensity correction function of a detected image element calculates an intensity corrected by a ratio between a joint probability density that defines the probability that a pixel in the area of interest takes a first intensity value in the current image and a second value in the reference image and a probability that this image element takes the second value in the reference image.
  • the method further comprises a step of correcting the confidence measurements associated with the intensities corrected in the reference image at least from the confidence measurements of the corresponding picture elements of the picture. current image.
  • the confidence measure of a corrected picture element is replaced by that of the corresponding picture element of the current picture.
  • the invention also relates to a tracking device adapted to implement the tracking method according to one of the particular embodiments defined above.
  • This device may of course include the various features relating to the method according to the invention. Thus, the features and advantages of this device are the same as those of the method, and are not detailed further.
  • the invention also relates to a terminal equipment comprising an image acquisition module, an acquired image processing module, a processed image display module, a user interaction module and a tracking device. target according to the invention.
  • the invention also relates to a computer program comprising instructions for implementing the steps of a method as described above, when this program is executed by a processor.
  • This program can use any programming language. It can be downloaded from a communication network and / or saved on a computer-readable medium.
  • the invention finally relates to a recording medium, readable by a processor, integrated or not to the target device according to the invention, possibly removable, respectively storing a computer program implementing a monitoring method, such as previously described.
  • FIG. 1 schematically illustrates in two images of a medical image sequence, an area of interest delimited around a clinical target
  • FIG. 2 is a block diagram of the steps of a clinical target tracking method according to an embodiment of the invention.
  • Fig. 3 is a view of a segmented contour of a target in a section of an image of a sequence
  • FIG. 4 illustrates a confidence measurement image for a zone of interest of a section of an image of the sequence
  • FIG. 5 schematically illustrates a mapping function between a picture element of the area of interest of the reference picture and picture elements of the area of interest of the current picture
  • FIG. 6 shows sections of images of an ultrasound sequence processed by the target tracking method according to the invention.
  • Figure 7 schematically shows an example of a hardware structure of a clinical target tracking device according to the invention.
  • the general principle of the invention is based on the detection of image elements to be corrected in an area of interest of a reference image from local confidence measurements obtained for the reference image and the current image. and on the correction of the intensities of the detected picture elements using the intensities of the corresponding picture elements in the area of interest of the current picture.
  • the image sequence is obtained by ultrasound imaging. It is a sequence of three-dimensional images, the elements of which are voxels.
  • the invention is not limited to this example and could relate to a sequence from another imaging modality, such as for example an endoscopic sequence and apply to a sequence of two-dimensional images.
  • an initial position of a model of an area of interest of the current image is obtained from a zone of interest Z1 (It-i) of the preceding image .
  • a simple transposition of the model of the zone of interest of the preceding image into the current image is carried out, placing it at the same position as in the preceding image.
  • the initial area of interest is therefore identical in terms of position, size and shape to that of the previous image.
  • the area of interest of the reference image I t o has itself been obtained by simple input of the user who delimited by hand the contours of this area of interest in the image, so as to completely encompass the target Cb he wishes to follow throughout the sequence.
  • This area of interest usually takes a simple geometric shape such as a rectangle, as shown in Figure 1.
  • the zone of interest ZI (I t o) of the reference image was obtained by delimiting a contour of the target, by a segmentation method known per se, which can be manual or automatic.
  • the contour of the segmented target was then smoothed to remove the sharp edges and discontinuities of shape that appeared on its outline.
  • Ir is then obtained by constructing a representation of the interior of the target contour, for example by generating a tetrahedral mesh.
  • FIG. 3 An example of a mesh of the zone ZI (I t o) is illustrated in FIG. 3. This figure corresponds to an echographic image section comprising a target partly situated in a shaded area, hatched in white.
  • the mesh of the zone ZI has N c vertices delimiting tetrahedral cells.
  • Zone Z includes Nu voxels in total.
  • a measure of confidence of a picture element is a value indicative of a probability or likelihood that the intensity of the pixel / voxel with which it is associated represents the target and is not affected by different disturbances such as shadows, specular reflections, or occultations generated by the presence of other objects.
  • this local confidence measure provides information on a quality of the intensity of the picture element.
  • low confidence measurement values for example less than 20, are attributed to the intensity of each voxel located in a shaded portion PO of zone ZI, such as that shown hatched in FIG.
  • FIG. 4 An example of an image of a confidence map U1 obtained for the zone ZI is illustrated in FIG. 4. In this figure, the higher the confidence value of a pixel, the greater the confidence value of a pixel. high intensity and therefore appears clearer.
  • a map U t of local confidence measurements of the current image It can therefore be obtained in E2, on the basis of this method.
  • a map U t o local confidence measurements of the reference image Ito was obtained previously, for example with this method.
  • the step E2 of obtaining confidence measurements for the area of interest of the current image It comprises a sub-step of detecting shaded parts in the area of interest.
  • this detection of the shaded parts of the zone ZI (It) implements a technique known per se, for example described in the document by Pierre Hellier et al, entitled “An automatic geometric and statistical method to detect acoustic shadows in intraoperative ultrasound brain images "in the journal Medical Image Analysis, published by Elsevier, in 2010, vol. 14 (2), pp.195-204.
  • This method involves analyzing ultrasound lines to determine positions corresponding to noise and intensity levels below predetermined thresholds.
  • a confidence measurement is calculated for each image element taking into account the part of the zone where it is located. For example, a bit mask is applied to the intensities of the area of interest of the target. Voxels belonging to an outlier will get zero confidence and voxels outside an outlier will get a confidence measure of 1.
  • Step E2 thus comprises a reading of the Uto confidence card in this memory.
  • a step E3 transforming the initial position of the model corresponding to the zone of interest ZI (I t -i) in the current image so as to coincide with the new position of the target in the current image It.
  • the objective of this step is to determine a transformation of the model positions to optimize a cost function that defines the similarity between the image elements of the area of interest of the current image and the image elements. the area of interest of the reference image. For this, we define a relation allowing to link the positions of the model "q" and the positions of the elements of images "p".
  • the model representing the initial area of interest is of simple geometrical shape, for example rectangular for a 2D or parallelepipedic image for a 3D image. It includes the summits of the form geometric and defines from these vertices the tetrahedral cells of a mesh of the zone of interest delimited by this geometric form.
  • This type of model further defines a function for linking the positions of the image elements of the area of interest to the position of the vertices of the rectangle.
  • an intensity-based approach is implemented which consists in minimizing a cost function C based on the intensity differences between the pixels / voxels of the zone of interest in the reference image and of the area of interest in the current image.
  • this approach calculates the new positions of the vertices of the model constituting the target by using the function connecting the positions of the N u voxels with the positions of the N c vertices of the rectangle.
  • the initial zone of interest of the current image is delimited by a segmented contour.
  • a segmented contour For example, consider a model comprising vertices of this contour and defining a mesh of the zone of interest delimited by this contour.
  • an intensity-based approach is used to calculate the so-called external displacements of the target contour, which consists in minimizing a cost function C based on the intensity differences between the vertices. Contours of the target in the reference image and in the current image.
  • This approach described in the document Royer et al already cited above, is based on a mesh of the area of interest.
  • this estimate of the external displacements undergone by the contour of the target is combined with that of internal displacements resulting from the simulation of the deformation of a mechanical mass-spring-damper system applied to the target.
  • An optimal displacement of the vertices of the contour of the target is estimated iteratively by taking into account the two types of internal and external displacements.
  • the confidence measurements associated with the image elements are advantageously used to weight the external displacement, so as to minimize the external displacement of image elements associated with a measurement of low confidence.
  • this transformed zone of interest ZI T (I t ) whose shape, size and position in the current image are optimized with respect to the actual position of the target to follow in this image. More precisely, this transformed area of interest is represented by a vector p (t) whose picture elements px (t) are the transforms of picture elements px (tl) of the vector p (tl) of the area d interest of the previous image.
  • the local transforms successively applied to the vector p (tl) thus define a global transform that makes it possible to pass from the vector p (to) of the reference image to the vector p (t) of the current image.
  • a picture element pxtodu p (to) has the corresponding pixel px t in the current image.
  • the coordinates of the pixel px t may not be integer because of the successive transformations. In this case, it is associated with the image elements having the neighboring integer positions, as illustrated by Figure 5. It is therefore possible that a pxto image element has several correspondents in the current image.
  • the image elements of the vector p (to) of the reference image are scanned, in a predetermined order, for example that of the N components of the vector, with N non-zero integer and we associate to a current pixel, px t o of vector p (t), its corresponding picture element pxt in the vector p (t).
  • the current picture element px t o of the vector p (to) is compared with the corresponding picture element px t of the vector p (t).
  • the comparison more precisely relates to the confidence measurements of the Uto and Ut images associated with the corresponding image elements in the Ito and It images.
  • Ut (pxt) and Uto (pxto) we compare the confidence measures Ut (pxt) and Uto (pxto) and we determine in E52 if Ut (pxt) is greater than U (pxto).
  • the picture element px t o of the reference picture is detected as correct.
  • the result of each of their comparisons contributes to the decision on the pixel px t o.
  • the average of their confidence measures is compared with that of px t o or alternatively, the highest confidence measure.
  • a dynamic correction of the pixel px t o (i) detected in the area of interest of the reference image Ito is carried out at E6.
  • I d represents the corrected or dynamic reference image.
  • px t o is an image element detected as to be corrected.
  • the intensity of the reference image is corrected dynamically in the areas where the local confidence of the elements of the reference image is less than that of the corresponding elements of the reference image.
  • the intensity of the picture element to be corrected is simply replaced by that of the picture element Pt which corresponds to it in the reference picture.
  • a correction value is calculated, for example by averaging the intensities of the elements pxto, pxto2 , pxto3, pxto4 corresponding or by interpolation.
  • the correction of a picture element of the reference picture also takes into account the intensities of the other picture elements in the reference picture and in the picture. and their associated confidence measures.
  • a corrected intensity Id (pxto) is calculated for the pixel px as follows:
  • pr, tko (i, j) represents a joint probability density function that defines the probability that a picture element in the area of interest will take the intensity value i in the current picture and the value j in the reference image.
  • pr h (i) represents the probability that an image element takes the value i in the current image It.
  • This calculation takes into account a ratio between an attached probability density that an image element of the reference image takes a value j and an image element of the current image takes the value i and the probability that the pixel px t o takes the value j in the reference image.
  • the joint probability density is calculated in the following way: pr Vm (.i, j) (Pkto) H t Pkt) Siiit (Pkt)) SjOto Pkto))
  • Vr hho i i , i) j P hho (i, i)
  • the corrected intensity in the reference image Id corresponds to the intensities of the other image elements of the reference image Ito.
  • This makes it possible to take into account a possible global variation in intensity between the reference image and the current image, which could make the correction of the incoherent reference image possible. In the case of ultrasound, such variation may be caused by a change in gain or probe orientation.
  • the Uto confidence card associated with the reference image is corrected in turn, by replacing the Uto confidence measurement (pxto) of an image element whose intensity has been corrected. by a corrected confidence measurement, a function of the confidence measurement or measurements of the corresponding picture element (s) in the current Ito image.
  • a dynamic confidence image U d is obtained which represents the quality of the dynamic reference image I d .
  • the correction here consists of a simple replacement of the confidence measure associated with the pixel px t o by that of the corresponding pixel P from which it has been corrected.
  • the corrected confidence measure Ud (pxto) is obtained from the image element confidence measurements. pxt, for example by averaging or interpolating their values.
  • the first line represents sections of the images of the sequence over time.
  • the second line represents an evolution over time of the dynamically corrected reference image according to the invention.
  • the third line shows an enlargement of the area of interest in the corrected reference image and its evolution over time.
  • the initial image Ito is disturbed by the presence of a shadow.
  • the images e) to h), respectively i) to I) in their enlarged versions highlight the improvement of the quality of the area of interest of the reference image over time, as and when successive corrections by the trustworthy intensities of the current image It.
  • the proposed method has the advantage of being faster than the group methods of the prior art because it relies only on the comparison of two images.
  • the invention makes it possible to avoid the accumulation of the error since it locally replaces the structures of the reference image until its quality is sufficient. It has improved performance compared to a tracking method based on a fixed reference image, potentially of poor quality.
  • Figure 7 shows the simplified structure of a target tracking device adapted to implement the target tracking method of the invention.
  • the device 100 is adapted, for a current image of the sequence, è:
  • the device 100 is further configured to implement the various embodiments of the invention which have just been described in relation to FIG. 2.
  • the steps of the monitoring method are implemented by computer program instructions.
  • the device 100 has the conventional architecture of a computer and notably comprises a memory MEM1, a processing unit UT1, equipped for example with a microprocessor ⁇ , and driven by the computer program Pgl stored in memory MEM1 .
  • the computer program Pgl includes instructions for implementing the steps of the tracking method as described above, when the program is executed by the processor ⁇ .
  • the code instructions of the computer program Pgl are for example loaded into a RAM memory before being executed by the processor ⁇ , which implements, in particular, the steps of the tracking method described above, according to the instructions of the computer program Pgl.
  • the method is implemented by modules or functional units (the) s.
  • the tracking device 100 further comprises the following modules: GET ZI (I t -i) obtaining an initial position of the area of interest in the current image;
  • TRANS Zl (It-i) the initial position of the area of interest in the current image by minimizing a cost function based at least on a difference between the intensities of the current image and the image of reference, following the transformation, detecting DET EI (I t o) in the area of interest of the reference image of at least one image element to be corrected, based on the confidence measurements obtained and,
  • the CORR correction El (Ito) at least from the intensity of at least one picture element of the area of interest of the current picture.
  • the device further comprises a CORR Uto module for correcting the confidence measurement associated with the corrected element.
  • the processing unit UT1 cooperates with the various functional modules described above and the memory MEM1 in order to implement the steps of the monitoring method.
  • the device 100 furthermore comprises a unit Mi for storing the position of the area of interest of the reference image, the images of confidence Ut, UtO, of the image of Ud corrected reference, of the Udto corrected confidence image.
  • These units are driven by the ⁇ processor of the processing unit 110.
  • such a device 100 may be integrated with a user terminal equipment ET, such as a medical image acquisition system, for example an ultrasound system or an endoscope. It includes an acquisition module such as an ultrasound probe, a data processing module acquired, a data display module such as a screen and a user interaction module such as a keyboard , a mouse etc.
  • a user terminal equipment ET such as a medical image acquisition system, for example an ultrasound system or an endoscope. It includes an acquisition module such as an ultrasound probe, a data processing module acquired, a data display module such as a screen and a user interaction module such as a keyboard , a mouse etc.
  • a functional module can be in hardware and / or software form.
  • a functional module may include a processor, a memory, and program code instructions for implementing the function corresponding to the module when the code instructions are executed by the processor.
  • a functional module can be implemented by any type of suitable encoding circuits, such as, for example and without limitation microprocessors, signal processing processors (DSP for Digital Signal Processor). , application-specific integrated circuits (ASICs for Application Specifies Integrated Circuit in English), FPGAs for Field Programmable Gate Arrays in English, logic unit wiring.
  • DSP Digital Signal Processor
  • ASICs application-specific integrated circuits
  • FPGAs Field Programmable Gate Arrays in English

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Abstract

The invention concerns a method for tracking a target in a sequence of digital medical images, an area of interest having been predetermined in an initial image of sequence, referred to as the reference image (It0), the method comprising the following steps, implemented for a current image of the sequence that is distinct from the reference image: - obtaining (E1) an initial position of a model of an area of interest in the current image from a position of a model of an area of interest in a preceding image of the sequence; - obtaining (E2) a confidence measure for each image element for said reference image and for said current image, said measure being representative of a confidence in an intensity of the image element; - transforming (E3) the initial position of the model of the area of interest in the current image, comprising a minimisation of a cost function based at least on a difference between the intensities of the current image and of the reference image, - following the transformation, detecting (E5), in the area of interest of the reference image, at least one image element to be corrected, on the basis of confidence measures obtained for the reference image and the current image, and correcting (E6) the at least one detected element at least on the basis of the intensity of the at least one image element of the area of interest of the current image.

Description

Procédé de suivi de cible dans une séquence d'images médicales, dispositif, équipement terminal et programmes d'ordinateurs associés  A method of tracking a target in a sequence of medical images, device, terminal equipment and associated computer programs

1. Domaine de l'invention 1. Field of the invention

Le domaine de l'invention est celui du traitement des images médicales.  The field of the invention is that of the treatment of medical images.

Plus précisément, l'invention concerne un procédé de suivi d'une cible clinique dans une séquence d'images numériques médicales.  More specifically, the invention relates to a method for tracking a clinical target in a sequence of medical digital images.

L'invention trouve notamment une application dans le traitement des images obtenues par une technique d'imagerie par exemple de type ultrasonore ou endoscopique.  The invention finds particular application in the treatment of images obtained by an imaging technique for example ultrasonic or endoscopic type.

2. Etat de la technique  2. State of the art

Les techniques d'imagerie par ultrasons ou d'endoscopie sont largement utilisées dans le domaine médical pour aider les médecins à visualiser en temps-réel une cible clinique et/ou un outil chirurgical lors d'une intervention chirurgicale ou d'un examen invasif destiné à diagnostiquer une pathologie. Ainsi par exemple, les techniques d'échographie sont fréquemment utilisées lors d'une intervention nécessitant l'insertion d'une aiguille, et notamment en radiologie interventionnelle.  Ultrasound or endoscopic imaging techniques are widely used in the medical field to help physicians visualize in real time a clinical target and / or surgical tool during a surgical procedure or invasive examination intended to diagnose a pathology. For example, ultrasound techniques are frequently used during an intervention requiring the insertion of a needle, and especially in interventional radiology.

Il est parfois difficile pour un chirurgien de repérer par lui-même certaines cibles cliniques, telles que des tumeurs, dans une image obtenue par une technique d'imagerie par ultrasons ou par endoscopie. Afin de l'aider, on a mis à disposition des chirurgiens des outils permettant d'estimer automatiquement la position d'une cible chirurgicale dans une image échographique.  It is sometimes difficult for a surgeon to identify by himself certain clinical targets, such as tumors, in an image obtained by an ultrasound imaging technique or endoscopy. In order to help, surgeons have tools to automatically estimate the position of a surgical target in an ultrasound image.

On connaît des méthodes de suivi de cible qui reposent sur la détermination d'une transformation permettant d'aligner différentes images au cours du temps. Pour ce faire, ces approches sont généralement basées sur une fonction de coût mesurant la similarité entre ces images. Les méthodes de suivi peuvent être classées selon deux catégories : Target tracking methods are known that rely on determining a transformation to align different images over time. To do this, these approaches are usually based on a cost function that measures the similarity between these images. The methods of monitoring can be classified into two categories:

2.1 Stratégies par paires  2.1 Paired Strategies

Un premier type d'approches consiste à déterminer la position de structures anatomiques par comparaison successive entre différentes paires d'images. De nombreuses méthodes sont basées sur ce modèle telles que les approches proposées par Shekhar and Zagrodsky et Heyde et al.  A first type of approach consists in determining the position of anatomical structures by successive comparison between different pairs of images. Many methods are based on this model such as the approaches proposed by Shekhar and Zagrodsky and Heyde et al.

De manière générale, la transformation optimale T est obtenue grâce à la minimisation de la fonction de coût suivante:  In general, the optimal transformation T is obtained by minimizing the following cost function:

arg min 5. /,·. T o ) + R{T) Dans cette fonction de coût, Ir et It représentent respectivement l'image de référence et l'image courante correspondant à la dernière image acquise au cours du temps.. Le premier terme de la fonction de coût, dénommé S, permet de mesurer l'alignement entre une image de référence (Ir) et une image courante transformée (T°It). Un deuxième terme, appelé R, permet de pénaliser les transformations non réalistes. Le choix de l'image de l'image de référence diffère en fonction des méthodes proposées et peut avoir un impact sur la qualité des résultats de suivi. Généralement, les stratégies par paires peuvent être divisées en trois sous-catégories. arg min 5. /, ·. T o) + R {T) In this cost function, Ir and It respectively represent the reference image and the current image corresponding to the last image acquired over time. The first term of the cost function, called S, makes it possible to measure the alignment between a reference image (Ir) and a transformed current image (T ° It). A second term, called R, penalizes unrealistic transformations. The choice of the image of the reference image differs according to the methods proposed and can have an impact on the quality of the results of follow-up. Generally, paired strategies can be divided into three subcategories.

2.1.1 Stratégies par paires non-itératives  2.1.1 Non-iterative pairing strategies

A chaque acquisition, ces méthodes comparent l'image courante à une image de référence fixe. Généralement, l'image initiale de la séquence est choisie comme image de référence. Ainsi la fonction de coût décrite ci-dessus peut être exprimée sous la forme suivante :  At each acquisition, these methods compare the current image with a fixed reference image. Generally, the initial image of the sequence is chosen as the reference image. Thus the cost function described above can be expressed in the following form:

ar min S(I , T o It) + R{T) armin S (I, T o I t ) + R (T)

Où ItO représente l'image initiale de la séquence. Cependant, la performance de cette approche est liée au choix de l'image de référence. En effet, des résultats de suivi imprécis peuvent être obtenus si la qualité de l'image de référence n'est pas suffisante. Where ItO represents the initial image of the sequence. However, the performance of this approach is related to the choice of the reference image. Indeed, inaccurate monitoring results can be obtained if the quality of the reference image is not sufficient.

2.1.2 Stratégies par paires itératives  2.1.2 Iterative pairing strategies

Pour pallier le problème précédent, ce deuxième type d'approche permet de comparer l'image courante à son image précédente. La fonction de coût peut donc être exprimée sous la forme suivante:  To overcome the previous problem, this second type of approach makes it possible to compare the current image with its previous image. The cost function can therefore be expressed in the following form:

arg min j o !.. ·. . '}. ' o /t) + R(T) arg min jo! .. ·. . '}. 'o / t ) + R (T)

Où It- 1 représente l'image précédant l'image courante. La transformation optimale Tt-1 représente la transformation optimale calculée à l'étape précédente. Cependant, l'inconvénient de ce type d'approche est lié à la dérive de l'algorithme. En effet, des résultats de suivi imprécis peuvent être observés à cause d'une accumulation de l'erreur au cours du temps. Where It- 1 represents the image preceding the current image. The optimal transformation Tt-1 represents the optimal transformation calculated in the previous step. However, the disadvantage of this type of approach is related to the drift of the algorithm. Indeed, inaccurate tracking results can be observed because of an accumulation of error over time.

2.1.3 Stratégies par paires hybrides  2.1.3 Hybrid Pair Strategies

Afin de compenser cette dérive, un troisième type d'approche, proposé par Matthews et al., 2004., permet de combiner les deux précédentes stratégies. Pour ce faire, la transformation optimale T est initialisée en minimisant une fonction de coût entre l'image courante et l'image précédente. Ensuite, cette transformation est affinée en utilisant une fonction de coût entre l'image courante et l'image initiale. Cependant, ce type d'approche reste sensible à la qualité de l'image initiale. 2.2 Stratégies par groupes To compensate for this drift, a third type of approach, proposed by Matthews et al., 2004, combines the two previous strategies. To do this, the optimal transformation T is initialized by minimizing a cost function between the current image and the previous image. Then, this transformation is refined using a cost function between the current image and the initial image. However, this type of approach remains sensitive to the quality of the initial image. 2.2 Group Strategies

Contrairement aux méthodes présentées ci-dessus, les stratégies par groupe comparent toutes les images de la séquence à l'image courante. A chaque nouvelle image courante acquise, ces approches prennent en compte toute l'information de la séquence afin d'obtenir un résultat de suivi plus robuste. Pour des applications basées sur l'image échographique, différents exemples ont été proposés par Metz et al. et Vijayan et al. Ces méthodes permettent de suivre une cible anatomique en comparant l'image courante avec une image synthétique obtenue à partir des images précédentes. L'estimation des déplacements des cibles est obtenue à partir de la minimisation de la fonction de coût suivante arg min 5(/m ? T o It)→ 1 {{ '] ' } Unlike the methods presented above, group policies compare all images in the sequence to the current image. With each new current image acquired, these approaches take into account all the information in the sequence in order to obtain a more robust tracking result. For applications based on the ultrasound image, various examples have been proposed by Metz et al. and Vijayan et al. These methods make it possible to follow an anatomical target by comparing the current image with a synthetic image obtained from the preceding images. The estimation of target displacements is obtained from the minimization of the following cost function arg min 5 (/ m? T o I t ) → 1 {{ ' ] ' }

Où Im représente l'image synthétique générée à partir des images précédentes. Pour l'obtenir, Metz et al. propose d'utiliser l'équation suivante: Where Im represents the synthetic image generated from the previous images. To obtain it, Metz et al. proposes to use the following equation:

Ni représente le nombre d'images de la séquence. P(tk) représente le vecteur des positions des voxels appartenant à la cible au temps Tk. Ces positions dépendent directement de la transformation T. Itk(Ptk) représente l'intensité des pixels/voxels de l'image au temps tk. On peut voir que l'image de référence synthétique est obtenue à partir de la moyenne de toutes les images précédant l'image courante. Ainsi, cette méthode a l'avantage d'éviter de sélectionner une image de référence. De plus, elle permet de s'affranchir des problèmes liés à la dérive. En revanche, la principale limitation de ces stratégies est liée au fait que l'intensité de la structure doit rester constante au cours du temps. Cependant, l'intensité d'une structure est souvent affectée par différents effets indésirables comme la présence de bruit, d'artefacts, ou d'ombres. Ni represents the number of images in the sequence. P (tk) represents the vector of the positions of the voxels belonging to the target at the time Tk. These positions depend directly on the transformation T. Itk (Ptk) represents the intensity of the pixels / voxels of the image at time tk. It can be seen that the synthetic reference image is obtained from the average of all the images preceding the current image. Thus, this method has the advantage of avoiding selecting a reference image. In addition, it eliminates problems related to drift. On the other hand, the main limitation of these strategies is that the intensity of the structure must remain constant over time. However, the intensity of a structure is often affected by various undesirable effects such as the presence of noise, artifacts, or shadows.

3. Inconvénients de l'art antérieur 3. Disadvantages of prior art

Un inconvénient de ces méthodes est que leur performance est généralement perturbée par des artéfacts présents dans les images de la séquence et dont le type diffère selon la modalité utilisée. Par exemple, les images échographiques sont affectées par des effets d'ombres et de miroirs. De plus, les changements de gains et d'orientation de sonde peuvent aussi avoir un impact sur ces images. L'imagerie endoscopique peut aussi être affectée par différents artéfacts tels que des réflexions spéculaires, des occultations, et des changements d'illuminations. On connaît aussi du document de Royer et al intitulé « Real-time target tracking of soft tissues in 3D ultrasound images based on robust Visua l information and mechanical simulation », publié dans la revue « Médical Image Analysis », en septembre 2016, une méthode de suivi de cible basée sur une stratégie par paires qui met en œuvre une mesure de confiance locale des intensités de l'image de référence et de l'image suivante et l'exploite de façon à minimiser l'impact de ces artéfacts sur le suivi de cible. A disadvantage of these methods is that their performance is generally disturbed by artifacts present in the images of the sequence and whose type differs according to the modality used. For example, ultrasound images are affected by shadows and mirrors effects. In addition, changes in gain and probe orientation may also impact these images. Endoscopic imaging can also be affected by different artifacts such as specular reflections, occultations, and illumination changes. Also known from Royer et al entitled "Real-time target tracking of soft tissue in 3D ultrasound images based on robust Visua information and mechanical simulation", published in the journal "Medical Image Analysis", in September 2016, a method a pairwise strategy-based target tracking that implements a local confidence measure of the intensities of the reference image and the next image and exploits it to minimize the impact of these artifacts on monitoring target.

Un inconvénient de cette méthode est que ses performances dépendent de la qualité de l'image de référence.  A disadvantage of this method is that its performance depends on the quality of the reference image.

4. Objectifs de l'invention  4. Objectives of the invention

L'invention vient améliorer la situation.  The invention improves the situation.

L'invention a notamment pour objectif de pallier ces inconvénients de l'art antérieur.  The invention particularly aims to overcome these disadvantages of the prior art.

Plus précisément, un objectif de l'invention est de proposer une solution qui garantisse un suivi performant, lorsque l'image de référence comporte des artéfacts dans la zone d'intérêt.  More specifically, an objective of the invention is to propose a solution that guarantees efficient monitoring, when the reference image includes artifacts in the area of interest.

5. Exposé de l'invention  5. Presentation of the invention

Ces objectifs, ainsi que d'autres qui apparaîtront par la suite, sont atteints à l'aide d'un procédé de suivi de cible dans une séquence d'images numériques médicales, une zone d'intérêt qui englobe la cible ayant été prédéterminée dans une image initiale de la séquence, dite image de référence, ledit procédé comprenant les étapes suivantes, mises en œuvre pour une image courante de la séquence, distincte de l'image de référence :  These objectives, as well as others that will appear later, are achieved by using a target tracking method in a sequence of medical digital images, an area of interest that encompasses the target having been predetermined in an initial image of the sequence, called reference image, said method comprising the following steps, implemented for a current image of the sequence, distinct from the reference image:

- Obtention d'une position initiale d'un modèle d'une zone d'intérêt dans l'image courante partir d'une position d'un modèle d'une zone d'intérêt dans une image précédente de la séquence ; - Obtention d'une mesure de confiance par élément d'image pour ladite image de référence et pour ladite image courante, ladite mesure étant représentative d'une confiance en une intensité de l'élément d'image;  Obtaining an initial position of a model of a zone of interest in the current image from a position of a model of a zone of interest in a previous image of the sequence; - Obtaining a confidence measure per image element for said reference image and for said current image, said measurement being representative of a confidence in an intensity of the image element;

- Transformation de la position initiale du modèle de la zone d'intérêt dans l'image courante comprenant une minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence,  Transforming the initial position of the model of the zone of interest into the current image comprising minimizing a cost function based at least on a difference between the intensities of the current image and the reference image,

Selon l'invention, le procédé comprend en outre, suite è la transformation, une étape (E4) de mise en correspondance des éléments d'image de la zone d'intérêt de l'image de référence et des éléments d'image de la zone d'intérêt de l'image courante, une étape de détection dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger, comprenant une comparaison (E51) de la mesure de confiance d'un élément d'image de la zone d'intérêt de l'image de référence à celle d'au moins un élément d'image correspondant dans la zone d'intérêt de l'image courante, un élément d'image à corriger étant détecté (E52) lorsque sa mesure de confiance est inférieure à celle du au moins un élément d'image correspondant et, lorsqu'au moins un élément d'image a été détecté, une étape de correction du au moins un élément détecté au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante. According to the invention, the method further comprises, following the transformation, a step (E4) of mapping of the image elements of the area of interest of the reference image and the image elements of the image. zone of interest of the current image, a step of detecting in the area of interest of the reference image of at least one image element to be corrected, comprising a comparing (E51) the confidence measure of a picture element of the area of interest of the reference picture with that of at least one corresponding picture element in the area of interest of the picture current, an image element to be corrected being detected (E52) when its confidence measurement is lower than that of the at least one corresponding image element and, when at least one image element has been detected, a step of correction of the at least one detected element at least from the intensity of at least one picture element of the area of interest of the current picture.

Selon l'invention, la zone d'intérêt de l'image de référence est enrichie par de l'information digne de confiance contenue dans l'image courante.  According to the invention, the area of interest of the reference image is enriched by reliable information contained in the current image.

Ainsi, l'invention repose sur une approche tout à fait nouvelle et inventive, qui consiste à reconstruire une image de référence améliorée, à partir des images suivantes de la séquence, en exploitant une mesure de confiance locale associée aux intensités des éléments d'images des images de la séquence.  Thus, the invention is based on an entirely new and inventive approach, which consists in reconstructing an improved reference image, based on the following images of the sequence, by exploiting a local confidence measurement associated with the intensities of the image elements. images of the sequence.

Contrairement à l'art antérieur qui utilise soit les images précédentes originales, soit une image synthétique issue d'un moyennage des images précédentes originales, l'invention propose de former dynamiquement une image de référence améliorée au fur et à mesure du traitement de la séquence. L'image de référence reconstruite pour l'image courante devient l'image de référence pour l'image suivante.  Unlike the prior art which uses either the original preceding images or a synthetic image derived from an averaging of the original preceding images, the invention proposes to dynamically form an improved reference image as the sequence is processed. . The reconstructed reference image for the current image becomes the reference image for the next image.

Un avantage est de faire profiter aux images suivantes de la séquence des apports des images précédentes. La qualité de l'image de référence peut ainsi s'améliorer au cours du temps et les éventuels artéfacts d'acquisition sont petit à petit gommés par les corrections successives.  One advantage is to make the following images of the sequence of the contributions of the previous images benefit. The quality of the reference image can thus improve over time and any acquisition artifacts are gradually erased by the successive corrections.

La méthode proposée a l'avantage d'être plus rapide que les méthodes par groupes puisqu'elle repose seulement sur la comparaison de deux images. Elle permet aussi d'éviter l'accumulation de l'erreur puisqu'elle ne corrige localement les structures de l'image de référence que lorsque l'image courante offre des informations susceptibles d'améliorer la qualité de l'image de référence.  The proposed method has the advantage of being faster than the group methods since it relies only on the comparison of two images. It also makes it possible to avoid the accumulation of the error since it locally corrects the structures of the reference image only when the current image offers information likely to improve the quality of the reference image.

Un autre avantage est qu'on ne corrige que les éléments d'image de l'image de référence qui sont identifiés comme moins dignes de confiance que leurs correspondants dans l'image courante. Another advantage is that only those image elements of the reference image that are identified as less reliable than their corresponding in the current image are corrected.

L'invention permet ainsi de résoudre le problème technique de la gestion des artéfacts présents dans une séquence d'images médicales et, en particulier dans l'image choisie comme référence pour le suivi de cible. Selon un autre aspect de l'invention, la correction d'un élément d'image détecté dans l'image de référence comprend un remplacement de son intensité par l'intensité du au moins un élément d'image correspondant dans l'image courante. The invention thus makes it possible to solve the technical problem of the management of the artifacts present in a sequence of medical images and, in particular, in the image chosen as a reference for target tracking. According to another aspect of the invention, the correction of an image element detected in the reference image comprises a replacement of its intensity by the intensity of the at least one corresponding image element in the current image.

Un avantage de ce mode de réalisation est sa simplicité. L'information supplémentaire extraite de l'image courante est injectée dans l'image de référence afin de l'enrichir.  An advantage of this embodiment is its simplicity. The additional information extracted from the current image is injected into the reference image in order to enrich it.

Selon encore un autre aspect de l'invention, la correction d'un élément d'image détecté dans l'image de référence comprend un remplacement de son intensité par une intensité calculée à partir d'une fonction de correction qui prend en compte les intensités des éléments d'image de la zone d'intérêt de l'image de référence et celles des éléments correspondants dans la zone d'intérêt de l'image courante et leurs mesures de confiance associées. According to yet another aspect of the invention, the correction of an image element detected in the reference image comprises a replacement of its intensity by an intensity calculated from a correction function which takes into account the intensities. image elements of the area of interest of the reference image and those of the corresponding elements in the area of interest of the current image and their associated confidence measurements.

Un avantage de ce mode de réalisation est que le calcul de la nouvelle intensité prend en compte les intensités des autres éléments d'images de la zone d'intérêt qui sont suffisamment dignes de confiance, et donc d'éventuelles divergences de niveau d'intensité dans le reste de la zone d'intérêt entre l'image courante et l'image de référence. Ceci permet de compenser notamment une variation du niveau de gain entre les deux images ou, pour une séquence d'images échographiques, un changement d'orientation de la sonde et ainsi d'obtenir une image corrigée présentant une zone d'intérêt aux intensités plus homogènes.  An advantage of this embodiment is that the calculation of the new intensity takes into account the intensities of the other image elements of the area of interest which are sufficiently trustworthy, and therefore any differences in intensity level. in the rest of the area of interest between the current image and the reference image. This makes it possible to compensate in particular for a variation of the gain level between the two images or, for a sequence of ultrasound images, a change of orientation of the probe and thus to obtain a corrected image presenting a zone of interest at more intensities. homogeneous.

Selon encore un autre aspect de l'invention, la fonction de correction de l'intensité d'un élément d'image détecté calcule une intensité corrigée par un rapport entre une densité de probabilité jointe qui définit la probabilité qu'un élément d'image dans la zone d'intérêt prenne une première valeur d'intensité dans l'image courante et une deuxième valeur dans l'image de référence et une probabilité que cet élément d'image prenne la deuxième valeur dans l'image de référence. Un avantage de ce mode de réalisation est qu'il est simple à calculer et adapté à une application temps réel. In yet another aspect of the invention, the intensity correction function of a detected image element calculates an intensity corrected by a ratio between a joint probability density that defines the probability that a pixel in the area of interest takes a first intensity value in the current image and a second value in the reference image and a probability that this image element takes the second value in the reference image. An advantage of this embodiment is that it is simple to calculate and adapted to a real-time application.

Selon encore un autre aspect de l'invention, le procédé comprend en outre une étape de correction des mesures de confiance associées aux intensités corrigées dans l'image de référence au moins à partir des mesures de confiance des éléments d'image correspondants de l'image courante. Un avantage est que le suivi de cible dans l'image suivante bénéficiera non seulement d'une image de référence corrigée, mais aussi de mesures de confiances mises à jour suite à la correction. De cette manière, on garantit de stopper la correction dynamique de l'image de référence dès qu'elle a atteint un niveau de confiance suffisant. According to yet another aspect of the invention, the method further comprises a step of correcting the confidence measurements associated with the intensities corrected in the reference image at least from the confidence measurements of the corresponding picture elements of the picture. current image. One advantage is that the target tracking in the next image will not only benefit from a corrected reference image, but also from updated confidence measurements following the correction. Of this way, it is guaranteed to stop the dynamic correction of the reference image as soon as it has reached a sufficient level of confidence.

Selon un autre aspect de l'invention, la mesure de confiance d'un élément d'image corrigé est remplacée par celle de l'élément d'image correspondant de l'image courante.  According to another aspect of the invention, the confidence measure of a corrected picture element is replaced by that of the corresponding picture element of the current picture.

Les différents modes ou caractéristiques de réalisation mentionnés ci-après peuvent être ajoutés indépendamment ou en combinaison les uns avec les autres, aux caractéristiques du procédé d'authentification défini ci-dessus.  The various embodiments or features mentioned below may be added independently or in combination with each other, to the characteristics of the authentication method defined above.

L'invention concerne également un dispositif de suivi adapté pour mettre en œuvre le procédé de suivi selon l'un des modes particuliers de réalisation définis ci-dessus. Ce dispositif pourra bien sûr comporter les différentes caractéristiques relatives au procédé selon l'invention. Ainsi, les caractéristiques et avantages de ce dispositif sont les mêmes que ceux du procédé, et ne sont pas détaillés plus amplement. The invention also relates to a tracking device adapted to implement the tracking method according to one of the particular embodiments defined above. This device may of course include the various features relating to the method according to the invention. Thus, the features and advantages of this device are the same as those of the method, and are not detailed further.

Corrélativement, l'invention concerne aussi un équipement terminal comprenant un module d'acquisition d'images, un module de traitement des images acquises, un module d'affichage des images traités, un module d'interaction avec un utilisateur et un dispositif de suivi de cible selon l'invention. Correlatively, the invention also relates to a terminal equipment comprising an image acquisition module, an acquired image processing module, a processed image display module, a user interaction module and a tracking device. target according to the invention.

L'invention concerne encore un programme d'ordinateur comportant des instructions pour la mise en œuvre des étapes d'un procédé tel que décrit précédemment, lorsque ce programme est exécuté par un processeur. The invention also relates to a computer program comprising instructions for implementing the steps of a method as described above, when this program is executed by a processor.

Ce programme peut utiliser n'importe quel langage de programmation. Il peut être téléchargé depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur. This program can use any programming language. It can be downloaded from a communication network and / or saved on a computer-readable medium.

L'invention se rapporte enfin à un support d'enregistrement, lisible par un processeur, intégrés ou non au dispositif de cible selon l'invention, éventuellement amovible, mémorisant respectivement un programme d'ordinateur mettant en œuvre un procédé de suivi, tel que décrit précédemment. The invention finally relates to a recording medium, readable by a processor, integrated or not to the target device according to the invention, possibly removable, respectively storing a computer program implementing a monitoring method, such as previously described.

6. Liste des figures 6. List of figures

D'autres avantages et caractéristiques de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation particulier de l'invention, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : la figure 1 illustre de façon schématique dans deux images d'une séquence d'images médicales, une zone d'intérêt délimitée autour d'une cible clinique ; Other advantages and characteristics of the invention will emerge more clearly on reading the following description of a particular embodiment of the invention, given as a simple illustrative and nonlimiting example, and the appended drawings, among which: : FIG. 1 schematically illustrates in two images of a medical image sequence, an area of interest delimited around a clinical target;

-la figure 2 est une représentation synoptique, sous forme de blocs des étapes d'un procédé de suivi de cible clinique selon un mode de réalisation de l'invention ;  FIG. 2 is a block diagram of the steps of a clinical target tracking method according to an embodiment of the invention;

la figure 3 est une vue d'un contour segmenté d'une cible dans une coupe d'une image d'une séquence ;  Fig. 3 is a view of a segmented contour of a target in a section of an image of a sequence;

la figure 4 illustre une image de mesure de confiance pour une zone d'intérêt d'une coupe d'une image de la séquence ;  FIG. 4 illustrates a confidence measurement image for a zone of interest of a section of an image of the sequence;

la figure 5 illustre de façon schématique une fonction de correspondance entre un élément d'image de la zone d'intérêt de l'image de référence et des éléments d'image de la zone d'intérêt de l'image courante ;  FIG. 5 schematically illustrates a mapping function between a picture element of the area of interest of the reference picture and picture elements of the area of interest of the current picture;

la figure 6 présente des coupes d'images d'une séquence échographique traitée par le procédé de suivi de cible selon l'invention ; et  FIG. 6 shows sections of images of an ultrasound sequence processed by the target tracking method according to the invention; and

la figure 7 présente de façon schématique un exemple de structure matérielle d'un dispositif de suivi de cible clinique selon l'invention.  Figure 7 schematically shows an example of a hardware structure of a clinical target tracking device according to the invention.

7. Description d'un mode de réalisation particulier de l'invention 7. Description of a particular embodiment of the invention

Le principe général de l'invention repose sur la détection d'éléments d'images à corriger dans une zone d'intérêt d'une image de référence à partir de mesures de confiance locale obtenues pour l'image de référence et l'image courante et sur la correction des intensités des éléments d'image détectés à l'aide des intensités des éléments d'images correspondants dans la zone d'intérêt de l'image courante.  The general principle of the invention is based on the detection of image elements to be corrected in an area of interest of a reference image from local confidence measurements obtained for the reference image and the current image. and on the correction of the intensities of the detected picture elements using the intensities of the corresponding picture elements in the area of interest of the current picture.

On détaille maintenant un exemple de mise en œuvre de l'invention. Dans ce mode de réalisation particulier de l'invention, la séquence d'images est obtenue par imagerie par ultrasons. Il s'agit d'une séquence d'images tridimensionnelles, dont les éléments sont des voxels.  We now detail an example of implementation of the invention. In this particular embodiment of the invention, the image sequence is obtained by ultrasound imaging. It is a sequence of three-dimensional images, the elements of which are voxels.

Bien sûr, l'invention n'est pas limitée à cet exemple et pourrait concerner une séquence issue d'une autre modalité d'imagerie, telle que par exemple une séquence endoscopique et s'appliquer à une séquence d'images bidimensionnelles.  Of course, the invention is not limited to this example and could relate to a sequence from another imaging modality, such as for example an endoscopic sequence and apply to a sequence of two-dimensional images.

En relation avec la Figure 1, on considère une séquence d'images comprenant T images avec T entier supérieur ou égal à 3 images, parmi lesquelles une image de référence Ito, une image précédente It-i et une image courante It. Par simplicité, on a représenté des images 2D. Dans chacune des images apparaît une cible Cb dont le contour est représenté schématiquement par une courbe fermée. In relation to FIG. 1, consider a sequence of images comprising T images with T integer greater than or equal to 3 images, among which a reference image I t o, a previous image I t -i and a current image I t . For simplicity, 2D images are shown. In each images appears a target Cb whose contour is represented schematically by a closed curve.

En référence à la figure 2, on a illustré de façon synoptique, sous forme de schéma-bloc, les étapes d'un exemple de procédé de suivi d'une cible clinique dans une séquence d'images selon l'invention.  With reference to FIG. 2, the steps of an exemplary method of monitoring a clinical target in a sequence of images according to the invention are schematically illustrated in block diagram form.

Au cours d'une première étape El, on obtient une position initiale d'un modèle d'une zone d'intérêt de l'image courante à partir d'une zone d'intérêt Zl(It-i) de l'image précédente. Par exemple, on réalise une simple transposition du modèle de la zone d'intérêt de l'image précédente dans l'image courante, en le plaçant à la même position que dans l'image précédente. Comme illustré par la Figure 1, la zone d'intérêt initiale est donc identique en termes de position, de dimension et de forme è celle de l'image précédente.  During a first step E1, an initial position of a model of an area of interest of the current image is obtained from a zone of interest Z1 (It-i) of the preceding image . For example, a simple transposition of the model of the zone of interest of the preceding image into the current image is carried out, placing it at the same position as in the preceding image. As illustrated in FIG. 1, the initial area of interest is therefore identical in terms of position, size and shape to that of the previous image.

Selon un premier mode de réalisation de l'invention, la zone d'intérêt de l'image de référence Ito a elle-même été obtenue par simple saisie de l'utilisateur qui a délimité à la main les contours de cette zone d'intérêt dans l'image, de façon à englober complètement la cible Cb qu'il souhaite suivre tout au long de la séquence. Cette zone d'intérêt prend généralement une forme géométrique simple telle qu'un rectangle, comme illustré par la Figure 1. According to a first embodiment of the invention, the area of interest of the reference image I t o has itself been obtained by simple input of the user who delimited by hand the contours of this area of interest in the image, so as to completely encompass the target Cb he wishes to follow throughout the sequence. This area of interest usually takes a simple geometric shape such as a rectangle, as shown in Figure 1.

Selon un deuxième mode de réalisation, la zone d'intérêt ZI(Ito) de l'image de référence a été obtenue par délimitation d'un contour de la cible, par une méthode de segmentation connue en soi, qui peut être manuelle ou automatique. Le contour de la cible segmentée a été ensuite lissé afin de supprimer les arêtes vives et les discontinuités de forme apparues sur son contour. According to a second embodiment, the zone of interest ZI (I t o) of the reference image was obtained by delimiting a contour of the target, by a segmentation method known per se, which can be manual or automatic. The contour of the segmented target was then smoothed to remove the sharp edges and discontinuities of shape that appeared on its outline.

Une zone d'intérêt ZI(Ito) délimitant le contour segmenté de la cible dans l'image de référenceA zone of interest ZI (I t o) delimiting the segmented contour of the target in the reference image

Ir est ensuite obtenue en construisant une représentation de l'intérieur du contour de la cible, par exemple en générant un maillage tétraédrique. Ir is then obtained by constructing a representation of the interior of the target contour, for example by generating a tetrahedral mesh.

Un exemple de maillage de la zone ZI(Ito) est illustré sur la figure 3. Cette figure correspond à une coupe d'image échographique comprenant une cible en partie située dans une zone d'ombre, hachurée en blanc. Dans cet exemple, le maillage de la zone ZI présente Nc sommets délimitant des cellules tétraédriques. La zone Z comprend au total Nu voxels. An example of a mesh of the zone ZI (I t o) is illustrated in FIG. 3. This figure corresponds to an echographic image section comprising a target partly situated in a shaded area, hatched in white. In this example, the mesh of the zone ZI has N c vertices delimiting tetrahedral cells. Zone Z includes Nu voxels in total.

Au cours d'une étape E2, on obtient des mesures de confiance Uto et Ut des éléments d'images des zones d'intérêt Zl(Ito) et ZI(It) . During a step E2, Uto and Ut confidence measurements are obtained from the image elements of the zones of interest Zl (Ito) and ZI (It).

Dans la suite, on désigne par mesure de confiance d'un élément d'image, une valeur indicative d'une probabilité ou vraisemblance que l'intensité du pixel/voxel auquel elle est associée représente la cible et ne soit pas affectée par différentes perturbations telles par exemple que des ombres, des réflexions spéculaires, ou des occultations générées par la présence d'autres objets. Autrement dit, cette mesure de confiance locale renseigne sur une qualité de l'intensité de l'élément d'image. In the following, a measure of confidence of a picture element is a value indicative of a probability or likelihood that the intensity of the pixel / voxel with which it is associated represents the target and is not affected by different disturbances such as shadows, specular reflections, or occultations generated by the presence of other objects. In other words, this local confidence measure provides information on a quality of the intensity of the picture element.

On connaît des méthodes d'estimation d'une mesure de confiance par élément d'image, par exemple celle décrite par Karamalis et al. dans un document intitule "Ultrasonic confidence map using random walks", dans la revue Médical Image Analysis, publiée par Elsevier en 2012, pp.1101- 1112, . Dans cet article on mesure la confiance d'un pixel/voxel de l'image échographique comme la probabilité qu'une marche aléatoire (« random walk » en anglais) partant de ce pixel/voxel atteigne les transducteurs de la sonde échographique. Le chemin est contraint par le modèle de propagation d'une onde ultrasonore dans les tissus mous. La valeur de la mesure de confiance qui est attribuée à chaque voxel est par exemple comprise entre 0 et 255.  Methods for estimating a confidence measure per pixel are known, for example that described by Karamalis et al. in a paper titled "Ultrasonic confidence map using random walks" in the journal Medical Image Analysis, published by Elsevier in 2012, pp.1101-1112. In this paper we measure the confidence of a pixel / voxel of the ultrasound image as the probability that a random walk in this pixel / voxel reaches the transducers of the ultrasound probe. The path is constrained by the model of propagation of an ultrasonic wave in the soft tissues. The value of the confidence measure that is assigned to each voxel is for example between 0 and 255.

Avec cette méthode, des valeurs de la mesure de confiance faibles, par exemple inférieures à 20 sont attribuées à l'intensité de chaque voxel situé dans une partie ombrée PO de la zone ZI, telle que celle représentée hachurée sur la figure 3.  With this method, low confidence measurement values, for example less than 20, are attributed to the intensity of each voxel located in a shaded portion PO of zone ZI, such as that shown hatched in FIG.

On comprend que cette méthode de mesure d'une valeur de confiance des intensités des éléments de l'image donne une indication de localisation d'éventuelles parties aberrantes dans la zone de la cible.  It will be understood that this method of measuring a confidence value of the intensities of the elements of the image gives an indication of the location of any outliers in the area of the target.

Un exemple d'une image d'une carte de confiance Ut obtenue pour la zone ZI est illustré sur la figure 4. Sur cette figure, plus la valeur de confiance d'un élément d'image est importante et plus celui-ci présente une intensité élevée et apparaît donc plus clair.  An example of an image of a confidence map U1 obtained for the zone ZI is illustrated in FIG. 4. In this figure, the higher the confidence value of a pixel, the greater the confidence value of a pixel. high intensity and therefore appears clearer.

Une carte Ut des mesures de confiance locale de l'image courante It peut donc être obtenue en E2, sur la base de cette méthode. Une carte Uto des mesures de confiance locale de l'image de référence Ito a été obtenue précédemment, par exemple avec cette méthode. A map U t of local confidence measurements of the current image It can therefore be obtained in E2, on the basis of this method. A map U t o local confidence measurements of the reference image Ito was obtained previously, for example with this method.

De façon alternative, l'étape E2 d'obtention de mesures de confiance pour la zone d'intérêt de l'image courante It comprend une sous-étape de détection de parties ombrées dans la zone d'intérêt.  Alternatively, the step E2 of obtaining confidence measurements for the area of interest of the current image It comprises a sub-step of detecting shaded parts in the area of interest.

Par exemple, cette détection des parties ombrées de la zone ZI(It) met en œuvre une technique connue en soi, par exemple décrite dans le document de Pierre Hellier et al, intitulé « An automatic geometrical and statistical method to detect acoustic shadows in intraoperative ultrasound brain images » dans la revue Médical Image Analysis, publiée par Elsevier, en 2010, vol. 14 (2), pp.195-204. Cette méthode consiste à analyser les lignes de tir échographiques pour déterminer les positions correspondant à des niveaux de bruit et d'intensité inférieurs à des seuils prédéterminés. Pour la détection de parties claires, de type halo ou spécularité, plus adaptée à des images de type endoscopique, on se référera par exemple à la technique de détection décrite dans le document de Morgand et al, intitulé « Détection générique et temps réel des spécularités », publié dans les Proceedings des Journées francophones des jeunes chercheurs en vision par ordinateur, qui se sont tenues à Amiens, en juin 2015. Les spécularités sont détectées en seuillant de façon dynamique l'image dans l'espace TSV pour Teinte-Saturation-Valeur (ou HSV pour « Hue Saturation Value » en anglais). La valeur des seuils utilisés est estimée automatiquement en fonction de la luminosité globale de l'image. For example, this detection of the shaded parts of the zone ZI (It) implements a technique known per se, for example described in the document by Pierre Hellier et al, entitled "An automatic geometric and statistical method to detect acoustic shadows in intraoperative ultrasound brain images "in the journal Medical Image Analysis, published by Elsevier, in 2010, vol. 14 (2), pp.195-204. This method involves analyzing ultrasound lines to determine positions corresponding to noise and intensity levels below predetermined thresholds. For the detection of clear parts, of the halo or specular type, more suitable for endoscopic type images, reference will be made, for example, to the detection technique described in the document by Morgand et al, entitled "Generic detection and real-time specularities". ", Published in the Proceedings of the Francophone Days of Young Researchers in Computer Vision, held in Amiens, June 2015. Specularities are detected by dynamically thresholding the image in the HSV space for Hue-Saturation- Value (or HSV for "Hue Saturation Value"). The value of the thresholds used is automatically estimated according to the overall brightness of the image.

On calcule, dans un deuxième temps, une mesure de confiance pour chaque élément d'image en tenant compte de la partie de la zone où il se trouve. Par exemple, on applique un masque binaire aux intensités de la zone d'intérêt de la cible. Les voxels appartenant à une partie aberrante obtiendront une mesure de confiance nulle et les voxels situés en dehors d'une partie aberrante obtiendront une mesure de confiance égale à 1. In a second step, a confidence measurement is calculated for each image element taking into account the part of the zone where it is located. For example, a bit mask is applied to the intensities of the area of interest of the target. Voxels belonging to an outlier will get zero confidence and voxels outside an outlier will get a confidence measure of 1.

On comprend qu'un élément d'image obtiendra une mesure de confiance plus faible s'il se trouve dans une partie détectée comme aberrante.  It is understood that a picture element will get a lower confidence measure if it is in a part detected as aberrant.

En ce qui concerne l'image de référence Ito, ces mesures de confiance ont déjà été estimées lors du traitement de l'image de référence et sont disponibles en mémoire, par exemple sous la forme d'une carte de confiance. L'étape E2 comprend donc une lecture de la carte de confiance Uto dans cette mémoire. As regards the reference image I t o, these confidence measurements have already been estimated during the processing of the reference image and are available in memory, for example in the form of a confidence card. Step E2 thus comprises a reading of the Uto confidence card in this memory.

A l'issue de cette étape E2, on dispose pour l'image courante It d'une carte ou image de confiance Ut et pour l'image de référence Ito d'une carte ou image de confiance Uto-At the end of this step E2, there is available for the current image I t a map or image of confidence Ut and for the reference image I t o of a map or image of confidence Uto-

Au cours d'une étape E3, on transforme la position initiale du modèle correspondant à la zone d'intérêt ZI(It-i) dans l'image courante de façon à la faire coïncider avec la nouvelle position de la cible dans l'image courante It. On exploite pour ce faire les similarités entre l'image de référence et l'image courante. L'objectif de cette étape est de déterminer une transformation des positions du modèle permettant d'optimiser une fonction de coût qui définit la similarité entre les éléments d'images de la zone d'intérêt de l'image courante et les éléments d'images de la zone d'intérêt de l'image de référence. Pour cela, nous définissons une relation permettant de lier les positions du modèle « q » et les positions des éléments d'images « p ». During a step E3, transforming the initial position of the model corresponding to the zone of interest ZI (I t -i) in the current image so as to coincide with the new position of the target in the current image It. To do this, the similarities between the reference image and the current image are exploited. The objective of this step is to determine a transformation of the model positions to optimize a cost function that defines the similarity between the image elements of the area of interest of the current image and the image elements. the area of interest of the reference image. For this, we define a relation allowing to link the positions of the model "q" and the positions of the elements of images "p".

Selon le premier mode de réalisation de l'invention, le modèle représentant la zone d'intérêt initiale est de forme géométrique simple, par exemple rectangulaire pour une image 2D ou parallélépipédique pour une image 3D. Il comprend notamment les sommets de la forme géométrique et définit à partir de ces sommets les cellules tétraédriques d'un maillage de la zone d'intérêt délimitée par cette forme géométrique. Ce type de modèle définit en outre une fonction permettant de lier les positions des éléments d'image de la zone d'intérêt à la position des sommets du rectangle. Afin de calculer les déplacements du modèle, on met en œuvre une approche basée intensité qui consiste à minimiser une fonction de coût C basée sur les différences d'intensité entre les pixels/voxels de la zone d"intérêt dans l'image de référence et de la zone d"intérêt dans l'image courante. Plus précisément, cette approche calcule les nouvelles positions des sommets du modèle constituant la cible en utilisant la fonction reliant les positions des Nu voxels avec les positions des Nc sommets du rectangle. Cette fonction s'exprime sous la forme p=M.q, où p est un vecteur, de dimension (3. Nu) x l, représentant les positions des Nu voxels de la zone d'intérêt, q est un vecteur, de dimension (3. Nc) x l, représentant les positions des Nc sommets du rectangle, et M est une matrice à coefficients constants, de dimension

Figure imgf000014_0001
(3.NC), définissant un ensemble de coefficients bilinéaires. Grâce à la minimisation de la fonction de coût C, nous obtenons les nouvelles positions des sommets q(t) ainsi que l'ensemble des nouvelles positions des pixels p(t) de la zone d'intérêt dans l'image courante. According to the first embodiment of the invention, the model representing the initial area of interest is of simple geometrical shape, for example rectangular for a 2D or parallelepipedic image for a 3D image. It includes the summits of the form geometric and defines from these vertices the tetrahedral cells of a mesh of the zone of interest delimited by this geometric form. This type of model further defines a function for linking the positions of the image elements of the area of interest to the position of the vertices of the rectangle. In order to compute the displacements of the model, an intensity-based approach is implemented which consists in minimizing a cost function C based on the intensity differences between the pixels / voxels of the zone of interest in the reference image and of the area of interest in the current image. More precisely, this approach calculates the new positions of the vertices of the model constituting the target by using the function connecting the positions of the N u voxels with the positions of the N c vertices of the rectangle. This function is expressed in the form p = Mq, where p is a vector, of dimension (3. Nu) xl, representing the positions of the N u voxels of the zone of interest, q is a vector, of dimension (3 N c ) xl, representing the positions of the N c vertices of the rectangle, and M is a matrix with constant coefficients, of dimension
Figure imgf000014_0001
(3.N C ), defining a set of bilinear coefficients. Thanks to the minimization of the cost function C, we obtain the new positions of the vertices q (t) as well as all the new positions of the pixels p (t) of the zone of interest in the current image.

Selon le deuxième mode de réalisation de l'invention, la zone d'intérêt initiale de l'image courante est délimitée par un contour segmenté. On considère par exemple un modèle comprenant des sommets de ce contour et définissant un maillage de la zone d'intérêt délimitée par ce contour. According to the second embodiment of the invention, the initial zone of interest of the current image is delimited by a segmented contour. For example, consider a model comprising vertices of this contour and defining a mesh of the zone of interest delimited by this contour.

De façon analogue à celle du premier mode de réalisation, on met en œuvre une approche basée intensité pour calculer les déplacements dits externe du contour de la cible, qui consiste à minimiser une fonction de coût C basée sur les différences d'intensité entre les sommets des contours de la cible dans l'image de référence et dans l'image courante. Cette approche, décrite dans le document de Royer et al déjà cité plus avant, s'appuie sur un maillage de la zone d'intérêt.  In a manner analogous to that of the first embodiment, an intensity-based approach is used to calculate the so-called external displacements of the target contour, which consists in minimizing a cost function C based on the intensity differences between the vertices. Contours of the target in the reference image and in the current image. This approach, described in the document Royer et al already cited above, is based on a mesh of the area of interest.

Plus précisément, cette approche consiste à calculer une déformation de cellules tétraédriques constituant la cible et applique une fonction affine par morceaux reliant les positions des u voxels de la cible avec les positions des Nc sommets du maillage, s'exprimant sous la forme p=M.q, où p est un vecteur, de dimension (3. Nu) l, représentant les positions des Νυ voxels de la cible, q est un vecteur, de dimension (3.Nc)x l, représentant les positions des Nc sommets du maillage, et M est une matrice à coefficients constants, de dimension (3.Nu)x (3.NC), définissant un ensemble de coordonnées barycentriques. Pour obtenir la position optimale du contour segmenté, on combine cette estimation des déplacements externes subis par le contour de la cible à celle de déplacements internes résultant de la simulation de la déformation d'un système mécanique masse-ressort-amortisseur appliquée à la cible. More precisely, this approach consists in calculating a deformation of tetrahedral cells constituting the target and applies a piecewise affine function connecting the positions of the u voxels of the target with the positions of the N c vertices of the mesh, expressing in the form p = mq, where p is a vector of dimension (3. Nu) l, representing the positions of Ν υ voxels of the target, q is a vector of dimension (3.N c) xl, representing N c vertices positions of the mesh, and M is a matrix with constant coefficients, of dimension (3.Nu) x (3.N C ), defining a set of barycentric coordinates. To obtain the optimal position of the segmented contour, this estimate of the external displacements undergone by the contour of the target is combined with that of internal displacements resulting from the simulation of the deformation of a mechanical mass-spring-damper system applied to the target.

Un déplacement optimal des sommets du contour de la cible est estimé de façon itérative en prenant en compte les deux types de déplacements interne et externe.  An optimal displacement of the vertices of the contour of the target is estimated iteratively by taking into account the two types of internal and external displacements.

Dans la solution décrite, les mesures de confiance associées aux éléments d'images, respectivement aux sommets des cellules tétraédriques, sont avantageusement exploitées pour pondérer le déplacement externe, de sorte à minimiser le déplacement externe d'éléments d'image associés à une mesure de confiance faible.  In the solution described, the confidence measurements associated with the image elements, respectively at the vertices of the tetrahedral cells, are advantageously used to weight the external displacement, so as to minimize the external displacement of image elements associated with a measurement of low confidence.

A l'issue de cette étape E3, on dispose d'une zone d'intérêt ZIT(It) transformée, dont la forme, la taille et la position dans l'image courante sont optimisées par rapport à la position réelle de la cible à suivre dans cette image. Plus précisément, cette zone d'intérêt transformée est représentée par un vecteur p(t) dont les éléments d'image px(t) sont les transformés des éléments d'image px(t-l) du vecteur p(t-l) de la zone d'intérêt de l'image précédente. At the end of this step E3, we have a transformed zone of interest ZI T (I t ) whose shape, size and position in the current image are optimized with respect to the actual position of the target to follow in this image. More precisely, this transformed area of interest is represented by a vector p (t) whose picture elements px (t) are the transforms of picture elements px (tl) of the vector p (tl) of the area d interest of the previous image.

Pour déterminer la correspondance entre deux images non successives de la séquence d'image, on concatène les différentes transformations locales appliquées aux images successives. To determine the correspondence between two non-successive images of the image sequence, we concatenate the different local transformations applied to the successive images.

On comprend que les transformées locales successivement appliquées au vecteur p(t-l) définissent ainsi une transformée globale qui permet de passer du vecteur p(to) de l'image de référence au vecteur p(t) de l'image courante. Autrement dit un élément d'image pxtodu vecteur p(to) a pour correspondant l'élément d'image pxt dans l'image courante. It will be understood that the local transforms successively applied to the vector p (tl) thus define a global transform that makes it possible to pass from the vector p (to) of the reference image to the vector p (t) of the current image. In other words, a picture element pxtodu p (to) has the corresponding pixel px t in the current image.

On notera que les coordonnées de l'élément d'image pxt peuvent ne pas être entières du fait des transformations successives. Dans ce cas, on lui associe les éléments d'images ayant les positions entières voisines, comme illustré par la Figure 5. Il se peut donc qu'un élément d'image pxto ait plusieurs correspondants dans l'image courante. It should be noted that the coordinates of the pixel px t may not be integer because of the successive transformations. In this case, it is associated with the image elements having the neighboring integer positions, as illustrated by Figure 5. It is therefore possible that a pxto image element has several correspondents in the current image.

Au cours d'une étape E4, on parcourt les éléments d'image du vecteur p(to) de l'image de référence, selon un ordre prédéterminé, par exemple celui des N composantes du vecteur, avec N entier non nul et on associe à un élément d'image courant, pxto du vecteur p(to), son élément d'image correspondant pxt dans le vecteur p(t). En E5i, on compare l'élément d'image courant pxto du vecteur p(to) à l'élément d'image pxt correspondant du vecteur p(t). During a step E4, the image elements of the vector p (to) of the reference image are scanned, in a predetermined order, for example that of the N components of the vector, with N non-zero integer and we associate to a current pixel, px t o of vector p (t), its corresponding picture element pxt in the vector p (t). In E5i, the current picture element px t o of the vector p (to) is compared with the corresponding picture element px t of the vector p (t).

La comparaison concerne plus précisément les mesures de confiance des images Uto et Ut associées aux éléments d'image correspondants dans les images Ito et It. On compare les mesures de confiance Ut(pxt) et Uto(pxto) et on détermine en E52 si Ut(pxt) est supérieure à U(pxto). The comparison more precisely relates to the confidence measurements of the Uto and Ut images associated with the corresponding image elements in the Ito and It images. We compare the confidence measures Ut (pxt) and Uto (pxto) and we determine in E52 if Ut (pxt) is greater than U (pxto).

Si c'est le cas, l'élément d'image pxto de l'image de référence est détecté comme à corriger. If this is the case, the picture element px t o of the reference picture is detected as correct.

On notera que si plusieurs éléments d'images pxt correspondent à l'élément d'image pxto, le résultat de chacune de leurs comparaisons contribue à la prise de décision concernant l'élément d'image pxto. Par exemple, la moyenne de leurs mesures de confiance est comparée à celle de pxto ou de façon alternative, la mesure de confiance la plus élevée. Note that if several pxt image elements correspond to the pxto image element, the result of each of their comparisons contributes to the decision on the pixel px t o. For example, the average of their confidence measures is compared with that of px t o or alternatively, the highest confidence measure.

Selon l'invention, on réalise en E6 une correction dynamique de l'élément d'image pxto(i) détecté dans la zone d'intérêt de l'image de référence Ito. According to the invention, a dynamic correction of the pixel px t o (i) detected in the area of interest of the reference image Ito is carried out at E6.

Dans un premier mode de réalisation de l'invention, elle est mise en œuvre de la façon suivante :

Figure imgf000016_0001
In a first embodiment of the invention, it is implemented as follows:
Figure imgf000016_0001

Id représente l'image de référence corrigée ou dynamique. pxto est un élément d'image détecté comme à corriger. I d represents the corrected or dynamic reference image. px t o is an image element detected as to be corrected.

On comprend que l'intensité de l'image de référence est corrigée dynamiquement dans les zones où la confiance locale des éléments de l'image de référence est inférieure à celle des éléments correspondants de l'image de référence. Dans ce mode, on remplace simplement l'intensité de l'élément d'image à corriger par celle de l'élément d'image Pt qui lui correspond dans l'image de référence. It is understood that the intensity of the reference image is corrected dynamically in the areas where the local confidence of the elements of the reference image is less than that of the corresponding elements of the reference image. In this mode, the intensity of the picture element to be corrected is simply replaced by that of the picture element Pt which corresponds to it in the reference picture.

Si, comme illustré par la Figure 5, plusieurs éléments d'image de l'image courante correspondent à l'élément d'image pxto courant, on calcule une valeur de correction, par exemple par moyennage des intensités des éléments pxto, pxto2, pxto3, pxto4 correspondants ou encore par interpolation. Selon un deuxième mode de réalisation de l'invention, la correction d'un élément d'image de l'image de référence prend en outre en compte les intensités des autres éléments d'image dans l'image de référence et dans l'image courante et leurs mesures de confiance associées. If, as illustrated in FIG. 5, several image elements of the current image correspond to the current pixel px t o, a correction value is calculated, for example by averaging the intensities of the elements pxto, pxto2 , pxto3, pxto4 corresponding or by interpolation. According to a second embodiment of the invention, the correction of a picture element of the reference picture also takes into account the intensities of the other picture elements in the reference picture and in the picture. and their associated confidence measures.

Avantageusement, on calcule une intensité corrigée Id(pxto) pour l'élément d'image px de la façon suivante : Advantageously, a corrected intensity Id (pxto) is calculated for the pixel px as follows:

Figure imgf000017_0001
Le terme pr,tko(i,j) représente une fonction de densité de probabilité jointe qui définit la probabilité qu'un élément d'image dans la zone d'intérêt prenne la valeur d'intensité i dans l'image courante et la valeur j dans l'image de référence. Le terme prh(i) représente la probabilité qu'un élément d'image prenne la valeur i dans l'image courante It.
Figure imgf000017_0001
The term pr, tko (i, j) represents a joint probability density function that defines the probability that a picture element in the area of interest will take the intensity value i in the current picture and the value j in the reference image. The term pr h (i) represents the probability that an image element takes the value i in the current image It.

Ce calcul prend en compte un rapport entre une densité de probabilité jointe qu'un élément d'image de l'image de référence prenne une valeur j et un élément d'image de l'image courante prenne la valeur i et la probabilité que l'élément d'image pxto prenne la valeur j dans l'image de référence. This calculation takes into account a ratio between an attached probability density that an image element of the reference image takes a value j and an image element of the current image takes the value i and the probability that the pixel px t o takes the value j in the reference image.

Ceci permet de compenser une éventuelle différence de gain entre les deux images et éviter d'introduire dans l'image de référence une intensité corrigée qui n'est pas homogène avec la structure locale. Avantageusement, la densité de probabilité jointe est calculée de la façon suivante : prVm(.i,j) (Pkto)Ht Pkt)Siiit(Pkt))SjOto Pkto)) This makes it possible to compensate for a possible difference in gain between the two images and to avoid introducing into the reference image a corrected intensity that is not homogeneous with the local structure. Advantageously, the joint probability density is calculated in the following way: pr Vm (.i, j) (Pkto) H t Pkt) Siiit (Pkt)) SjOto Pkto))

L-l L-l

Vrhhoii,i) = j P hho(i,i) Vr hho i i , i) = j P hho (i, i)

H*., et H* représentent des matrices de pondération associées à l'image de référence corrigée et à l'image courante. Ces matrices permettent de pondérer l'influence des pixels/voxels en fonction de leurs mesures de confiance associée. Elles sont obtenues à partir des cartes de confiance Ut et représentant la mesure de confiance locale associés aux éléments d'images de l'image courante et l'image initiale. La fonction vaut 1 lorsque x=k, et 0 ailleurs. H *., And H * represent weighting matrices associated with the corrected reference image and the current image. These matrices make it possible to weight the influence of the pixels / voxels as a function of their associated confidence measures. They are obtained from the confidence maps U t and representing the local confidence measurement associated with the image elements of the current image and the initial image. The function is 1 when x = k, and 0 elsewhere.

De cette manière, on garantit que 'intensité corrigée dans l'image de référence Id corresponde aux intensités des autres éléments d'images de l'image de référence Ito. Ceci permet de prendre en compte une éventuelle variation globale d'intensité entre l'image de référence et 'image courante, qui risquerait de rendre correction de l'image de référence incohérente. Dans le cas de 'échographie, une telle variation peut être occasionnée par un changement de gain ou d'orientation de sonde. In this way, it is ensured that the corrected intensity in the reference image Id corresponds to the intensities of the other image elements of the reference image Ito. This makes it possible to take into account a possible global variation in intensity between the reference image and the current image, which could make the correction of the incoherent reference image possible. In the case of ultrasound, such variation may be caused by a change in gain or probe orientation.

Au cours d'une étape E7, la carte de confiance Uto associée à l'image de référence est corrigée à son tour, en remplaçant la mesure de confiance Uto(pxto) d'un élément d'image dont l'intensité a été corrigée par une mesure de confiance corrigée, fonction de la ou des mesures de confiance du ou des éléments d'image correspondants dans l'image courante Ito. During a step E7, the Uto confidence card associated with the reference image is corrected in turn, by replacing the Uto confidence measurement (pxto) of an image element whose intensity has been corrected. by a corrected confidence measurement, a function of the confidence measurement or measurements of the corresponding picture element (s) in the current Ito image.

On obtient une image de confiance dynamique Ud qui représente bien la qualité de l'image de référence dynamique Id. A dynamic confidence image U d is obtained which represents the quality of the dynamic reference image I d .

Par exemple, cette correction est réalisée à partir de l'équation suivante :

Figure imgf000018_0001
For example, this correction is made from the following equation:
Figure imgf000018_0001

La correction consiste ici en un simple remplacement de la mesure de confiance associée à 'élément d'image pxto par celle de 'élément d'image p correspondant à partir duquel il a été corrigé. The correction here consists of a simple replacement of the confidence measure associated with the pixel px t o by that of the corresponding pixel P from which it has been corrected.

Dans le cas où l'élément d'image pxto correspond à plusieurs éléments d'image pxt dans l'image courante, la mesure de confiance corrigée Ud(pxto) est obtenue à partir des mesures de confiance des éléments d'image pxt correspondants, par exemple par moyennage ou interpolation de leurs valeurs. In the case where the picture element px t o corresponds to several picture elements px t in the current picture, the corrected confidence measure Ud (pxto) is obtained from the image element confidence measurements. pxt, for example by averaging or interpolating their values.

Les opérations qui viennent d'être décrites sont répétées pour tous les éléments d'image de la zone d'intérêt de l'image de référence Ito. Dans le mode de réalisation qui vient d'être présenté, on passe en revue les éléments d'image de la zone d'intérêt de l'image de référence et dès, qu'un élément d'image détecté comme à corriger en E5, il est directement corrigé en E6, et sa mesure de confiance mise à jour en E7, avant de passer à l'élément suivant. Bien sûr, l'invention n'est pas limitée à cet exemple de réalisation. On pourrait par exemple prévoir une implémentation de l'invention selon laquelle chaque étape est réalisée tous les éléments du vecteur ptO de l'image de référence, avant de passer à l'étape suivante. The operations which have just been described are repeated for all the pixels of the area of interest of the reference image Ito. In the embodiment that has just been presented, the image elements of the area of interest of the reference image are reviewed and, as soon as an image element detected as to be corrected in E5, it is directly corrected in E6, and its confidence measurement updated in E7, before moving on to the next element. Of course, the invention is not limited to this embodiment. One could for example provide an implementation of the invention according to which each step is performed all the elements of the vector ptO of the reference image, before going to the next step.

En relation avec la Figure 6, on présente des exemples de coupes d'une séquence d'image traitée selon l'invention. La première ligne représente des coupes des images de la séquence au cours du temps. La deuxième ligne représente une évolution au cours du temps de l'image de référence corrigée dynamiquement selon l'invention. La troisième ligne montre un agrandissement de la zone d'intérêt dans l'image de référence corrigée et son évolution au cours du temps. Comme on peut le voir sur les images a), e) et i), l'image initiale Ito est perturbée par la présence d'une ombre. Les images e) à h), respectivement i) à I) dans leurs versions agrandies, mettent en évidence l'amélioration de la qualité de la zone d'intérêt de l'image de référence au cours du temps, au fur et à mesure des corrections successives par les intensités dignes de confiance de l'image courante It. In connection with FIG. 6, examples of sections of a processed image sequence according to the invention are presented. The first line represents sections of the images of the sequence over time. The second line represents an evolution over time of the dynamically corrected reference image according to the invention. The third line shows an enlargement of the area of interest in the corrected reference image and its evolution over time. As can be seen in the images a), e) and i), the initial image Ito is disturbed by the presence of a shadow. The images e) to h), respectively i) to I) in their enlarged versions, highlight the improvement of the quality of the area of interest of the reference image over time, as and when successive corrections by the trustworthy intensities of the current image It.

La méthode proposée a l'avantage d'être plus rapide que les méthodes par groupes de l'art antérieur du fait qu'elle repose seulement sur la comparaison de deux images. De plus, l'invention permet d'éviter l'accumulation de l'erreur puisqu'elle remplace localement les structures de l'image de référence jusqu'à ce que sa qualité soit suffisante. Elle présente des performances améliorées par rapport à une méthode de suivi basée sur une image de référence fixe, potentiellement de mauvaise qualité. The proposed method has the advantage of being faster than the group methods of the prior art because it relies only on the comparison of two images. In addition, the invention makes it possible to avoid the accumulation of the error since it locally replaces the structures of the reference image until its quality is sufficient. It has improved performance compared to a tracking method based on a fixed reference image, potentially of poor quality.

La figure 7 présente la structure simplifiée d'un dispositif de suivi d'une cible adapté pour mettre en œuvre le procédé de suivi de cible de l'invention. Le dispositif 100 est adapté, pour une image courante de la séquence, è : Figure 7 shows the simplified structure of a target tracking device adapted to implement the target tracking method of the invention. The device 100 is adapted, for a current image of the sequence, è:

obtenir une position initiale d'un modèle d'une zone d'intérêt dans l'image courante à partir d'une position d'un modèle de zone d'intérêt d'une image précédente ;  obtaining an initial position of a model of a zone of interest in the current image from a position of a model of area of interest of a previous image;

obtenir une mesure de confiance par élément d'image dans ladite zone pour ladite image de référence et pour ladite image courante, ladite mesure étant représentative d'une confiance associée à l'intensité de l'élément d'image; transformer la position initiale de la zone d'intérêt dans l'image courante par minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence, obtaining a confidence measure per image element in said zone for said reference image and for said current image, said measurement being representative of a confidence associated with the intensity of the pixel; transforming the initial position of the area of interest in the current image by minimizing a cost function based at least on a difference between the intensities of the current image and the reference image,

suite à la transformation, détecter dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger, à partir des mesures de confiance obtenues et, following the transformation, detecting in the area of interest of the reference image of at least one image element to be corrected, based on the obtained confidence measurements and,

-lorsqu'au moins un élément d'image a été détecté, le corriger au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante. Le dispositif 100 est en outre configuré pour mettre en œuvre les différents modes de réalisation de l'invention qui viennent d'être décrits en relation avec la figure 2. when at least one picture element has been detected, correcting it at least from the intensity of at least one picture element of the area of interest of the current picture. The device 100 is further configured to implement the various embodiments of the invention which have just been described in relation to FIG. 2.

Selon un mode particulier de réalisation de l'invention, les étapes du procédé de suivi sont mises en œuvre par des instructions de programme d'ordinateur. Pour cela, le dispositif 100 a l'architecture classique d'un ordinateur et comprend notamment une mémoire MEM1, une unité de traitement UTl, équipée par exemple d'un microprocesseur μΐ, et pilotée par le programme d'ordinateur Pgl stocké en mémoire MEM1. Le programme d'ordinateur Pgl comprend des instructions pour mettre en œuvre les étapes du procédé de suivi tel que décrit ci-dessus, lorsque le programme est exécuté par le processeur μΐ.  According to a particular embodiment of the invention, the steps of the monitoring method are implemented by computer program instructions. For this purpose, the device 100 has the conventional architecture of a computer and notably comprises a memory MEM1, a processing unit UT1, equipped for example with a microprocessor μΐ, and driven by the computer program Pgl stored in memory MEM1 . The computer program Pgl includes instructions for implementing the steps of the tracking method as described above, when the program is executed by the processor μΐ.

A l'initialisation, les instructions de code du programme d'ordinateur Pgl sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur μΐ, qui met notamment en œuvre les étapes du procédé de suivi décrit ci-dessus, selon les instructions du programme d'ordinateur Pgl . At initialization, the code instructions of the computer program Pgl are for example loaded into a RAM memory before being executed by the processor μΐ, which implements, in particular, the steps of the tracking method described above, according to the instructions of the computer program Pgl.

Selon un autre mode particulier de réalisation de l'invention, le procédé est mis en œuvre par des modules ou unités fonctionnel(le)s. Pour cela, le dispositif de suivi 100 comprend en outre les modules suivants : obtention GET ZI(It-i) d'une position initiale de la zone d'intérêt dans l'image courante ; According to another particular embodiment of the invention, the method is implemented by modules or functional units (the) s. For this, the tracking device 100 further comprises the following modules: GET ZI (I t -i) obtaining an initial position of the area of interest in the current image;

obtenir GET Ut, Uto une mesure de confiance par élément d'image dans ladite zone d'intérêt de ladite image de référence et de ladite image courante; obtain GET U t , U t o a confidence measure per image element in said zone of interest of said reference image and of said current image;

transformer TRANS Zl(It-i) la position initiale de la zone d'intérêt dans l'image courante par minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence, suite à la transformation, détecter DET EI(Ito) dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger, à partir des mesures de confiance obtenues et, transforming TRANS Zl (It-i) the initial position of the area of interest in the current image by minimizing a cost function based at least on a difference between the intensities of the current image and the image of reference, following the transformation, detecting DET EI (I t o) in the area of interest of the reference image of at least one image element to be corrected, based on the confidence measurements obtained and,

-lorsqu'au moins un élément d'image a été détecté, le corriger CORR El(Ito) au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante.  when at least one picture element has been detected, the CORR correction El (Ito) at least from the intensity of at least one picture element of the area of interest of the current picture.

Avantageusement, le dispositif comprend en outre un module CORR Uto de correction de la mesure de confiance associée à l'élément corrigé.  Advantageously, the device further comprises a CORR Uto module for correcting the confidence measurement associated with the corrected element.

L'unité de traitement UT1 coopère avec les différents modules fonctionnels décrits ci-dessus et la mémoire MEM1 afin de mettre en œuvre les étapes du procédé de suivi. The processing unit UT1 cooperates with the various functional modules described above and the memory MEM1 in order to implement the steps of the monitoring method.

Selon un mode de réalisation de l'invention, le dispositif 100 comprend en outre une unité Mi de stockage de la position de la zone d'intérêt de l'image de référence, des images de confiance Ut, UtO, de l'image de référence corrigée Ud, de l'image de confiance corrigée Udto. According to one embodiment of the invention, the device 100 furthermore comprises a unit Mi for storing the position of the area of interest of the reference image, the images of confidence Ut, UtO, of the image of Ud corrected reference, of the Udto corrected confidence image.

Ces unités sont pilotées par le processeur μι de l'unité de traitement 110. These units are driven by the μι processor of the processing unit 110.

De façon avantageuse, un tel dispositif 100 peut être intégré à un équipement terminal d'utilisateur ET, tel qu'un système d'acquisition d'images médicales, par exemple un échographe ou un endoscope. Il comprend notamment un module d'acquisition telle qu'une sonde échographique, un module de traitement des données acquises, un module d'affichage des données tel qu'un écran et un module d'interaction avec l'utilisateur tel qu'un clavier, une souris etc. Advantageously, such a device 100 may be integrated with a user terminal equipment ET, such as a medical image acquisition system, for example an ultrasound system or an endoscope. It includes an acquisition module such as an ultrasound probe, a data processing module acquired, a data display module such as a screen and a user interaction module such as a keyboard , a mouse etc.

Les différents modules fonctionnels décrits ci-dessus peuvent être sous forme matérielle et/ou logicielle. Sous une forme logicielle, un tel module fonctionnel peut comprendre un processeur, une mémoire et des instructions de code de programme pour mettre en œuvre la fonction correspondante au module lorsque les instructions de code sont exécutées par un le processeur. Sous une forme matérielle, un tel module fonctionnel peut mis en œuvre par tout type de circuits d'encodage adaptés, tels que par exemple et de manière non limitative des microprocesseurs, des processeurs de traitement du signal (DSP pour Digital Signal Processor en anglais), des circuits intégrés spécifiques à des applications (ASICs pour Application Spécifie Integrated Circuit en anglais), des circuits FPGA pour Field Programmable Gâte Arrays en anglais, un câblage d'unités logiques. Il va de soi que les modes de réalisation qui ont été décrits ci-dessus ont été donnés à titre purement indicatif et nullement limitatif, et que de nombreuses modifications peuvent être facilement apportées par l'homme de l'art sans pour autant sortir du cadre de l'invention. The various functional modules described above can be in hardware and / or software form. In a software form, such a functional module may include a processor, a memory, and program code instructions for implementing the function corresponding to the module when the code instructions are executed by the processor. In a material form, such a functional module can be implemented by any type of suitable encoding circuits, such as, for example and without limitation microprocessors, signal processing processors (DSP for Digital Signal Processor). , application-specific integrated circuits (ASICs for Application Specifies Integrated Circuit in English), FPGAs for Field Programmable Gate Arrays in English, logic unit wiring. It goes without saying that the embodiments which have been described above have been given for purely indicative and non-limiting purposes, and that many modifications can easily be made by those skilled in the art without departing from the scope. of the invention.

Claims

Procédé de suivi de cible dans une séquence d'images numériques médicales, une zone d'intérêt qui englobe la cible ayant été prédéterminée dans une image initiale de la séquence, dite image de référence, ledit procédé comprenant les étapes suivantes, mises en œuvre pour une image courante de la séquence, distincte de l'image de référence : A method of tracking a target in a sequence of medical digital images, an area of interest that encompasses the target having been predetermined in an initial image of the sequence, said reference image, said method comprising the following steps, implemented for a current image of the sequence, distinct from the reference image: Obtention (El) d'une position initiale d'un modèle d'une zone d'intérêt dans l'image courante partir d'une position d'un modèle d'une zone d'intérêt dans une image précédente de la séquence ;  Obtaining (El) an initial position of a model of a zone of interest in the current image from a position of a model of a zone of interest in a previous image of the sequence; Obtention (E2) d'une mesure de confiance par élément d'image pour ladite image de référence et pour ladite image courante, ladite mesure étant représentative d'une confiance en une intensité de l'élément d'image;  Obtaining (E2) a confidence measure per image element for said reference image and for said current image, said measurement being indicative of a confidence in an intensity of the image element; Transformation (E3) de la position initiale du modèle de la zone d'intérêt dans l'image courante comprenant une minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence, caractérisé en ce qu'il comprend en outre, suite à la transformation, une étape (E4) de mise en correspondance des éléments d'image de la zone d'intérêt de l'image de référence et des éléments d'image de la zone d'intérêt de l'image courante, une étape (E5) de détection dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger comprenant une comparaison (E51) de la mesure de confiance d'un élément d'image de la zone d'intérêt de l'image de référence à celle d'au moins un élément d'image correspondant dans la zone d'intérêt de l'image courante, un élément d'image à corriger étant détecté (E52) lorsque sa mesure de confiance est inférieure à celle du au moins un élément d'image correspondant et, lorsqu'au moins un élément d'image a été détecté, une étape de correction (E6) du au moins un élément détecté au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante.  Transforming (E3) the initial position of the model of the area of interest into the current image comprising minimizing a cost function based at least on a difference between the intensities of the current image and the image of the reference, characterized in that it further comprises, following the transformation, a step (E4) of mapping of the image elements of the area of interest of the reference image and the image elements of the area of interest of the current image, a detection step (E5) in the area of interest of the reference image of at least one image element to be corrected, comprising a comparison (E51) of the measurement of a picture element of the area of interest of the reference picture to that of at least one corresponding picture element in the area of interest of the current picture, a picture element to be corrected being detected (E52) when its confidence measure is lower than that of the at least one corresponding picture element and, when at least one picture element has been detected, a step of correcting (E6) the at least one detected element at least from the intensity of at least one picture element the area of interest of the current image. Procédé de suivi de cible selon la revendication 1, caractérisé en ce que la correction d'un élément d'image détecté dans l'image de référence comprend un remplacement de son intensité par l'intensité du au moins un élément d'image correspondant dans l'image courante. Procédé de suivi de cible selon la revendication 1, caractérisé en ce que la correction d'un élément d'image détecté dans l'image de référence comprend un remplacement de son intensité par une intensité calculée à partir d'une fonction de correction qui prend en compte les intensités des éléments d'image de la zone d'intérêt de l'image de référence et celles des éléments correspondants dans la zone d'intérêt de l'image courante et leurs mesures de confiance associées. A target tracking method according to claim 1, characterized in that the correction of an image element detected in the reference image comprises a replacement of its intensity by the intensity of the at least one corresponding image element in the current image. A target tracking method according to claim 1, characterized in that the correction of an image element detected in the reference image comprises a replacement of its intensity by an intensity calculated from a correction function which takes the intensities of the image elements of the area of interest of the reference image and those of the corresponding elements in the area of interest of the current image and their associated confidence measurements. Procédé de suivi de cible selon la revendication 3, caractérisé en ce que la fonction de correction de l'intensité d'un élément d'image détecté calcule une intensité corrigée par un rapport entre une densité de probabilité jointe qui définit la probabilité qu'un élément d'image dans la zone d'intérêt prenne une première valeur d'intensité dans l'image courante et une deuxième valeur dans l'image de référence et une probabilité que cet élément d'image prenne la deuxième valeur dans l'image de référence. A target tracking method according to claim 3, characterized in that the correction function of the intensity of a detected image element calculates an intensity corrected by a ratio between a joint probability density which defines the probability that a image element in the area of interest takes a first intensity value in the current image and a second value in the reference image and a probability that this image element takes the second value in the image of reference. Procédé de suivi de cible selon l'une des revendications 1 à 4, caractérisé en ce qu'il comprend en outre une étape de correction des mesures de confiance associées aux intensités corrigées dans l'image de référence au moins à partir des mesures de confiance des éléments d'image correspondants de l'image courante. A target tracking method according to one of claims 1 to 4, characterized in that it further comprises a step of correcting the confidence measures associated with the intensities corrected in the reference image at least from the confidence measurements corresponding picture elements of the current picture. Procédé de suivi de cible selon la revendication 5, caractérisé en ce que la mesure de confiance d'un élément d'image corrigé est remplacée par celle de l'élément d'image correspondant de l'image courante.  A target tracking method according to claim 5, characterized in that the confidence measure of a corrected picture element is replaced by that of the corresponding picture element of the current picture. Dispositif (100) de suivi de cible dans une séquence d'images numériques médicales à partir d'une image courante, une zone d'intérêt (Zl(Ito)) qui englobe la cible ayant été prédéterminée dans une image de référence de la séquence, comprenant une machine dédiée à ou configurée pour mettre en œuvre, pour une image courante de la séquence : A target tracking device (100) in a medical digital image sequence from a current image, an area of interest (Zl (Ito)) which encompasses the target having been predetermined in a reference image of the sequence , comprising a machine dedicated to or configured to implement, for a current image of the sequence: - Obtention d'une position initiale d'un modèle d'une zone d'intérêt dans l'image courante partir d'une position d'un modèle d'une zone d'intérêt dans une image précédente de la séquence ; Obtaining an initial position of a model of a zone of interest in the current image from a position of a model of a zone of interest in a previous image of the sequence; - Obtention d'une mesure de confiance par élément d'image (Uto) pour ladite image de référence et (Ut) pour ladite image courante, ladite mesure étant représentative d'une confiance en une intensité de l'élément d'image; - Transformation de la zone d'intérêt dans l'image courante comprenant une minimisation d'une fonction de coût basée au moins sur une différence entre les intensités de l'image courante et de l'image de référence, - Obtaining a confidence measure per image element (Uto) for said reference image and (Ut) for said current image, said measurement being representative of a confidence in an intensity of the pixel; Transforming the area of interest into the current image comprising minimizing a cost function based at least on a difference between the intensities of the current image and the reference image, caractérisé en ce que, suite à la transformation, elle est apte à :  characterized in that, following the transformation, it is able to: - détecter dans la zone d'intérêt de l'image de référence d'au moins un élément d'image à corriger, à partir des mesures de confiance obtenues et,  detecting, in the area of interest of the reference image, at least one image element to be corrected, based on the obtained confidence measurements and - lorsqu'au moins un élément d'image a été détecté, le corriger au moins à partir de l'intensité d'au moins un élément d'image de la zone d'intérêt de l'image courante.  when at least one picture element has been detected, correcting it at least from the intensity of at least one picture element of the area of interest of the current picture. 8. Equipement terminal (ET) comprenant un module d'acquisition (ACQ) d'images, un module de traitement (PROC) des images acquises, un module (DISP) d'affichage des images traités, un module d'interaction (INT) avec un utilisateur, caractérisé en ce qu'il comprend un dispositif (100) de suivi de cible selon la revendication 7. 9. Programme d'ordinateur (Pgl) comportant des instructions pour la mise en oeuvre du procédé de suivi de cible selon l'une quelconque des revendications 1 à 6, lorsque ledit programme est exécuté par un processeur. 8. Terminal equipment (ET) comprising an acquisition module (ACQ) of images, a processing module (PROC) acquired images, a module (DISP) display processed images, an interaction module (INT ) with a user, characterized in that it comprises a target tracking device (100) according to claim 7. 9. Computer program (Pgl) comprising instructions for implementing the target tracking method according to any one of claims 1 to 6, when said program is executed by a processor. 10. Support d'enregistrement lisible par un ordinateur, sur lequel est enregistré un programme d'ordinateur comprenant des instructions de code de programme pour l'exécution des étapes du procédé selon l'une des revendications 1 à 6. A computer-readable recording medium, on which is recorded a computer program comprising program code instructions for performing the steps of the method according to one of claims 1 to 6.
PCT/FR2017/053244 2016-12-06 2017-11-24 Method for tracking a target in a sequence of medical images, associated device, terminal apparatus and computer programs Ceased WO2018104609A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1661980A FR3059807A1 (en) 2016-12-06 2016-12-06 METHOD FOR TRACKING A TARGET IN A SEQUENCE OF MEDICAL IMAGES, DEVICE, TERMINAL EQUIPMENT AND COMPUTER PROGRAMS
FR1661980 2016-12-06

Publications (1)

Publication Number Publication Date
WO2018104609A1 true WO2018104609A1 (en) 2018-06-14

Family

ID=58228200

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2017/053244 Ceased WO2018104609A1 (en) 2016-12-06 2017-11-24 Method for tracking a target in a sequence of medical images, associated device, terminal apparatus and computer programs

Country Status (2)

Country Link
FR (1) FR3059807A1 (en)
WO (1) WO2018104609A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685839A (en) * 2018-12-20 2019-04-26 广州华多网络科技有限公司 Image alignment method, mobile terminal and computer storage medium
CN118838132A (en) * 2024-09-20 2024-10-25 青岛天仁微纳科技有限责任公司 Method for monitoring alignment of mold and substrate in nanoimprint process
CN119520771A (en) * 2025-01-15 2025-02-25 中国科学院自动化研究所 Virtual training and evaluation method and device for intelligent focusing of surgical microscope

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111145152B (en) * 2019-12-24 2024-02-27 上海联影智能医疗科技有限公司 Image detection method, computer device, and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150117761A1 (en) * 2013-10-29 2015-04-30 National Taipei University Of Technology Image processing method and image processing apparatus using the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150117761A1 (en) * 2013-10-29 2015-04-30 National Taipei University Of Technology Image processing method and image processing apparatus using the same

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
KARAMALIS ET AL.: "Medical Image Analysis", 2012, ELSEVIER, article "Ultrasonic confidence map using random walks", pages: 1101 - 1112
MORGAND ET AL.: "Proceedings des Journées francophones des jeunes chercheurs en vision par ordinateur", June 2015, article "Détection générique et temps réel des spécularités"
PIERRE HELLIER ET AL.: "Medical Image Analysis", vol. 14, 2010, ELSEVIER, article "An automatic geometrical and statistical method to detect acoustic shadows in intraoperative ultrasound brain images", pages: 195 - 204
ROYER ET AL.: "Medical Image Analysis", September 2016, article "Real-time target tracking of soft tissues in 3D ultrasound images based on robust visual information and mechanical simulation"
ROYER LUCAS ET AL: "Real-time target tracking of soft tissues in 3D ultrasound images based on robust visual information and mechanical simulation", MEDICAL IMAGE ANALYSIS, vol. 35, 15 September 2016 (2016-09-15), pages 582 - 598, XP029801732, ISSN: 1361-8415, DOI: 10.1016/J.MEDIA.2016.09.004 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685839A (en) * 2018-12-20 2019-04-26 广州华多网络科技有限公司 Image alignment method, mobile terminal and computer storage medium
CN109685839B (en) * 2018-12-20 2023-04-18 广州华多网络科技有限公司 Image alignment method, mobile terminal and computer storage medium
CN118838132A (en) * 2024-09-20 2024-10-25 青岛天仁微纳科技有限责任公司 Method for monitoring alignment of mold and substrate in nanoimprint process
CN119520771A (en) * 2025-01-15 2025-02-25 中国科学院自动化研究所 Virtual training and evaluation method and device for intelligent focusing of surgical microscope

Also Published As

Publication number Publication date
FR3059807A1 (en) 2018-06-08

Similar Documents

Publication Publication Date Title
Ambellan et al. Automated segmentation of knee bone and cartilage combining statistical shape knowledge and convolutional neural networks: Data from the Osteoarthritis Initiative
JP7558243B2 (en) Feature Point Detection
Liu et al. Region level based multi-focus image fusion using quaternion wavelet and normalized cut
Li et al. Specular reflections removal for endoscopic image sequences with adaptive-RPCA decomposition
Sen et al. Robust patch-based hdr reconstruction of dynamic scenes.
US8755628B2 (en) Image de-hazing by solving transmission value
WO2018104609A1 (en) Method for tracking a target in a sequence of medical images, associated device, terminal apparatus and computer programs
Xia et al. A robust edge-preserving stereo matching method for laparoscopic images
Häne et al. A patch prior for dense 3d reconstruction in man-made environments
Asif et al. Intrinsic layer based automatic specular reflection detection in endoscopic images
Vlachos et al. Finger vein segmentation from infrared images based on a modified separable mumford shah model and local entropy thresholding
JP2017107573A (en) Image processor, image processing method, and program
Zheng et al. Underwater low-light enhancement network based on bright channel prior and attention mechanism
EP2353144A2 (en) Image processing method for estimating a brain shift in a patient
Azam et al. Smoke removal and image enhancement of laparoscopic images by an artificial multi-exposure image fusion method
EP3314572A1 (en) Edge detection on images with correlated noise
CN113012031A (en) Image processing method and image processing apparatus
Floor et al. 3D reconstruction of the human colon from capsule endoscope video
Islam et al. Robust enhancement of depth images from depth sensors
US10122996B2 (en) Method for 3D multiview reconstruction by feature tracking and model registration
Smitha et al. A nonlocal deep image prior model to restore optical coherence tomographic images from gamma distributed speckle noise
Li et al. Automated motion-artifact correction in an OCTA image using tensor voting approach
Thomas et al. Improved image dehazing model with color correction transform-based dark channel prior
Chao et al. Specular reflections removal for endoscopic images based on improved criminisi algorithm
Ko et al. Accurate depth estimation of skin surface using a light‐field camera toward dynamic haptic palpation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17821971

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17821971

Country of ref document: EP

Kind code of ref document: A1