[go: up one dir, main page]

WO2025119829A1 - Procede de production et d'affichage d'images echographiques 3d - Google Patents

Procede de production et d'affichage d'images echographiques 3d Download PDF

Info

Publication number
WO2025119829A1
WO2025119829A1 PCT/EP2024/084292 EP2024084292W WO2025119829A1 WO 2025119829 A1 WO2025119829 A1 WO 2025119829A1 EP 2024084292 W EP2024084292 W EP 2024084292W WO 2025119829 A1 WO2025119829 A1 WO 2025119829A1
Authority
WO
WIPO (PCT)
Prior art keywords
needle
images
target
practitioner
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/EP2024/084292
Other languages
English (en)
Inventor
Alexandre Hostettler
Flavien BRIDAULT
Toby COLLINS
Jacques Marescaux
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institut de Recherche contre les Cancers de l'Appareil Digestif (IRCAD)
Original Assignee
Institut de Recherche contre les Cancers de l'Appareil Digestif (IRCAD)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut de Recherche contre les Cancers de l'Appareil Digestif (IRCAD) filed Critical Institut de Recherche contre les Cancers de l'Appareil Digestif (IRCAD)
Publication of WO2025119829A1 publication Critical patent/WO2025119829A1/fr
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
    • A61B8/4218Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • A61B8/5276Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4272Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue
    • A61B8/4281Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue characterised by sound-transmitting media or devices for coupling the transducer to the tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5284Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving retrospective matching to a physiological signal
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints

Definitions

  • the present invention relates to the fields of medical imaging and assistance in the positioning of needles under ultrasound guidance assisted by a robotic installation, and more particularly the creation and exploitation of 3D ultrasound images from the autonomous or semi-autonomous acquisition of a set of 2D ultrasound images and its advantageous use in relation to procedures for inserting and implanting sampling, injection or localized (target) treatment needles in subjects.
  • Its objects are an assisted and interactive method for producing and displaying 3D ultrasound images by controlled acquisition and processing of 2D images, a needle insertion method, automatic or preferably assisted or collaborative, using the aforementioned method, and a robotic medical installation for implementing these two methods.
  • a medical technique currently in full development is percutaneous surgery using a needle inserted into the patient, both for the treatment of cancers and for injection or localized sampling.
  • the known methods implementing X-ray imaging suffer from a complex installation configuration (markers, cameras), a high cost of the imaging equipment (CT scanner), the impact of a high dose of X-rays and above all the obsolescence of the imaging data when they are actually used, due to the acquisition and processing times of the latter.
  • these 3D ultrasound scanners are expensive, lack precision (poor quality images compared to 2D ultrasound imagers), use a bulky probe that is tedious to handle, also require a spatial location and referencing system (camera or electromagnetic sensor) and are not optimized in terms of data processing (quantity and relevance of the data acquired and processed).
  • the problem of data obsolescence also affects the images provided by these 3D ultrasound imagers, unlike 2D ultrasound imagers (which are not always suitable for use in the aforementioned context and require controlled movement to provide usable images).
  • the aim of the present invention is to propose a new solution making it possible to overcome at least some of the main limitations mentioned above, in particular those linked to the obsolescence of the images used, in particular at the end of the preparatory period preceding the start of insertion, to the presence of a camera, to the absence of consideration of changes occurring between two apneas and to limited collaboration between the robotic devices and the practitioner, all while exploiting the advantages linked to the use of ultrasound.
  • the invention aims to provide a relevant, ergonomic and interactive visual aid for the practitioner, at least before an intervention involving needle insertion with the aid of a needle holder or needle guide.
  • its main object is an assisted and interactive method for producing and displaying 3D ultrasound images, by controlled acquisition and processing of 2D images acquired by means of a 2D ultrasound probe that can be moved over a living subject by a robotic arm, or by a practitioner with the assistance of a robotic arm, in particular before a needle insertion operation using a needle holder or needle guide in said subject, during a preparatory planning phase, the insertion operation being carried out for example by means of or with the assistance of another robotic arm equipped with a needle holder, said method implementing a medical installation comprising, on the one hand, at least one human-machine interface with a display device and command or control means and, on the other hand, at least the robotic arm carrying said 2D ultrasound probe, the position and orientation of which are known in real time and can be used and recorded, concomitantly with the 2D images generated at each exploration, by said installation, method characterized in that it comprises at least the steps consisting of: a) locating one or more targets to be treated in the subject by
  • FIG. 1 schematically represents a medical installation according to a preferred embodiment, for implementing the imaging and needle insertion methods according to the invention
  • FIG. 2 represents the installation of figure 1 during an intervention on a subject, here a human patient;
  • FIG. 3 is a detailed schematic representation in section of a part of the subject's body just before the insertion of a needle
  • FIG. 4 is a representation similar to that of Figure 3 during the insertion of the needle, for example as a partial and detailed view (on another scale) of the scene shown in Figure 2;
  • FIG. 5 is a representation of a set of 2D ultrasound images acquired, automatically or collaboratively with the practitioner, by means of the probe carried by the first robotic arm forming part of the installation according to the invention;
  • FIG. 6 is a representation of a volumetric region of a patient's abdomen in the form of a planisphere showing the fragile/soft structures and making it possible to estimate the different possible trajectories for inserting a needle in order to reach the target;
  • FIG. 7A and FIG. 7B are 3D images of a tubular/truncated volume region of the patient's body between the skin and the target and surrounding a needle trajectory, viewed from two different directions;
  • FIG. 8 is an image showing the tubular/truncated region of Figures 7A and 7B viewed along the insertion direction, the entry point being marked by a cross
  • FIG. 9 is a 3D image showing a needle having reached the target.
  • the invention relates, according to a first aspect of the invention, to an assisted and interactive method for producing and displaying 3D ultrasound images, by controlled acquisition and processing of 2D images acquired by means of a 2D ultrasound probe (1) which can be moved over a living subject (S) by a robotic arm (2) carrying it, or by a practitioner with the assistance of a robotic arm (2) moved by the latter and holding said probe (1), in particular before an operation of inserting a needle (3) using a needle holder or needle guide (8) into said subject (S), during a preparatory planning phase, the operation being carried out for example by means of or with the assistance of another robotic arm (4) equipped with the needle holder or needle guide (8).
  • This method implements a medical installation (5) comprising, on the one hand, at least one human-machine interface with a display device (6) and command or control means (7) and, on the other hand, at least the robotic arm (2) carrying said 2D ultrasound probe (1), the position and orientation of which are known in real time and can be used and recorded, concomitantly with the 2D images generated at each exploration, by said installation (5).
  • This method is characterized in that it comprises at least the steps consisting of: a) locating one or the target (C) to be treated in the subject (S) by exploratory movement of the probe (1) on the skin (P) of the latter and analysis of the acquired 2D ultrasound images, by a practitioner possibly assisted by suitable detection software; b) producing a first 3D image of a volume region (RV) of the subject (S), extending from the skin (P) to the target (C) concerned and containing the latter and the reasonable possible introduction trajectories of a needle (3) to reach said target (C) estimated by the practitioner, this 3D image being obtained from a set of 2D images acquired, during an apnea phase of the subject (S), by movement of the 2D ultrasound probe (1) by the practitioner with the assistance of the robotic arm (2) and potentially by exploitation of the location information from step a); c) automatically determining, during or after step b), the parameters and the path of an optimized and reproducible trajectory for the 2D ultrasound probe (1) allowing the production of
  • the method in question makes it possible to provide continuous, collaborative and interactive assistance to the practitioner at least during the preparatory phase of planning the intervention and during the fine adjustment phase just before the start of the insertion of the needle with the help of the needle holder, which determines the insertion trajectory and will guide the needle during its insertion.
  • This method exploits the advantages of 2D ultrasound, while allowing 3D visualization, this by means of particular provisions.
  • the method also takes advantage of preliminary targeted learning phases, provided by the practitioner for the robotic arm (2) carrying the probe (1) and the software means forming part of the installation (5), to subsequently assist effectively the said practitioner by automation or semi-automation of ultrasound explorations and automation of target recognition and tracking.
  • the proposed solution can further provide continuous, collaborative and interactive assistance to the practitioner throughout the insertion period until the target is reached.
  • the aforementioned method may also comprise, after step f) and during the insertion of the needle (3), a step g) consisting of: visualizing in quasi-real time the progressive insertion of the needle (3) by repeated creation and visualization of refreshed 3D images of a volume (VR), for example substantially cylindrical or truncated, as a fraction of the aforementioned volume region (RV) of the subject (S), preferably as a variable fraction of this volume region, the 3D images of this volume (VR) showing either said target (C) and at least one end portion (3') of the needle (3), preferably the entire part of the needle (3) inserted into the subject (S), or at least one end portion (3') of the needle (3) and a volume (VP) preceding this end (3') during the insertion, this visualization of refreshed 3D images of said volume (VR) preferably extending at least until the target (C) is reached by the needle (3), the two steps f) and g) then being carried out together during the same apnea phase
  • the method according to the invention provides an evolving 3D visualization.
  • a large volume region RV
  • the skin or at least one internal area close to the skin
  • a smaller volume VR, VT
  • VT a smaller volume comprising at least the end of the needle and at least one intermediate volume just large enough to be able to know and take into account the presence of the target, the organs, vessels and/or tissues or similar fragile structures present in this environment, this just before and during the intervention.
  • the visualized volume may, from step b), be limited to a smaller volume than the volume region (RV) explored by the probe (1), for example a truncated cone volume (VR) extending around a median insertion direction deemed reasonable by the practitioner (passing through the center of the target) and between the skin and the target.
  • a truncated cone volume VR
  • such a truncated cone would have a base in the form of a disc or ellipse with a diameter at the base of approximately 5 to 10 cm at the skin level) and the apex of which surrounds the center of the target, or even the latter.
  • the robotic arm (2) can facilitate the movement of the probe (1) by applying a controlled force to it so that the practitioner is not obliged to force during this exploration, while avoiding excessive pressure.
  • the practitioner is able to trigger explorations and recovery of 2D images with the probe (1) held by the robotic arm (2), to navigate in the 3D images produced by changing in particular the viewing angle relative to the volume displayed (for example to view this volume with its contents along the axis of a needle insertion trajectory, which is advantageously coincident with the median axis of this volume) and to choose the components that he wishes to see displayed (apart from automatic acquisition and visualization operations).
  • the method according to the invention therefore provides interactive, almost instantaneous visual assistance, timed to the patient's breathing, non-interfering with the practitioner's other tasks and adaptive according to the progress of the treatment protocol. This assistance also continues continuously throughout the different phases of the protocol implemented: prior planning, rapid replanning just before insertion and the insertion phase.
  • steps b) and c) correspond to a learning phase of the robotic arm (2) carrying the probe (1), in order to then allow it to carry out explorations automatically or semi-automatically, steps d) and e) are associated with a preparatory phase of planning the intervention resulting, where appropriate by successive repetitions, in obtaining a substantially standardized 3D image of the volume region (VR) deemed optimal, and in its visualization, for example in the form of a planisphere, with integrated indication of the possible trajectories for insertion of the needle (3) determined automatically or by the practitioner, then a proposal for a possible optimized and secure insertion trajectory of the needle (3), selected automatically or by the practitioner.
  • step f corresponds to a replanning phase preceding, during the same apnea phase, imminently the start of the insertion phase and taking into account a probable minor modification of the position of the target (C) and of the soft structures (OVT) between two apneas of the subject (S), this step f) comprising the creation and the visualization of a new substantially standardized 3D image of the volume region (RV) of the same type as that obtained at the end of step e), this with a view to a possible automatic or manual adjustment of the positioning and/or the orientation of the needle holder (8) corresponding to the optimized trajectory selected at the end of step e) and at least one validation of this trajectory, possibly finely readjusted, by the practitioner.
  • the trajectories estimated as reasonable by the practitioner are defined by the latter by means of a median insertion direction passing through the target (C) and correspond to rectilinear trajectories included in a conical or truncated volume, preferably with a circular or ellipsoidal base, possibly corresponding to the reduced volume (VR), extending by tapering from the skin (P) to the target (C) at least and with a median axis (AML) passing through the target (C), this median axis corresponding to the aforementioned median direction and being able to be materialized by a corresponding
  • the substantially standardized 3D images of step c) and step d) advantageously consist of 3D images produced from 2D images acquired along intersecting planes relative to the reasonable insertion trajectories of step b) and with sufficient and constant quality, namely with an optimized and reproducible trajectory of the 2D ultrasound probe (1), that is to say in particular by applying a substantially constant and as low as possible force at the 2D probe (1) allowing the acquisition of 2D images with the aforementioned quality and by moving the latter with a controlled and optimized acquisition speed, in particular the highest possible speed nevertheless guaranteeing sufficient density and quality of volume information to produce images of acceptable quality.
  • a substantially constant and high speed (with the aforementioned restriction) is advantageously applied during the exploration, advantageously with variations less than a predetermined threshold value, for example 10%, preferably 5%.
  • a predetermined threshold value for example 10%, preferably 5%.
  • the visualization of the tissues or structures (OVT) in the substantially standardized 3D image of the volume region (VR) is carried out by means of a visualization mode among: i) a successive visualization of sectional views corresponding to 2D interpolated images, ii) a 3D visualization obtained by a direct volume rendering method and iii) a 3D visualization obtained by a surface rendering method, after carrying out a segmentation phase of said substantially standardized 3D image of the volume region (VR).
  • the method may comprise an additional final step h) consisting of simultaneously displaying, and where appropriate superimposed, at least two 3D images of the volume region (RV) of the subject (S) extending from the skin (P) to the target (C) concerned, and comprising the latter, or alternatively of a more restricted volume region containing the location of the target (C), one of which was taken before the intervention and the treatment by means of the needle (3) and the other of which was taken after this intervention.
  • This optional step makes it possible, after completion of the treatment, by merging before/after images or their display in parallel, to verify that the treatment carried out during the intervention does indeed affect, in its entirety, the area of the target (C).
  • the method may consist, before step a), in positioning the robotic arm (2) carrying the probe (1), relative to the subject (S) lying on a surgical table (9), in such a way that the base (10) of said robotic arm (2) is located on the lateral side of said table (9) which is opposite to that occupied by the practitioner, and where appropriate likely to be subjected to the passage of the 2D ultrasound probe (1).
  • This arrangement makes it possible to avoid any interference between the practitioner and the robotic arm (2) and also to be able to easily apply sufficient pressure during explorations with the probe (1).
  • the indication of the possible rectilinear insertion trajectories or of the optimized trajectory of the needle (3) can be carried out by the practitioner, with a view to their display in the 3D images, either virtually by means of the human-machine interface, or preferably by manipulation by the practitioner of the needle holder (8) and validation of the position and orientation of the latter by said practitioner when the desired trajectory is displayed in the 3D image.
  • the needle holder (8) is advantageously position-controlled in such a way that it remains permanently oriented so that the direction of insertion of the needle that it carries passes through the center of the target (C).
  • the practitioner can indicate a trajectory by suitable positioning of the needle holder (8) for example (its position being known due to the knowledge of the position of the two robotic arms by the medical installation also comprising the display means), in order to visualize this trajectory during the acquisition of the first 3D image produced in an assisted manner during step b), but also during step d). It is thus possible to provide guidance information during the manual or assisted acquisition of the 2D images and to facilitate the visualization of only the relevant volume (to avoid the display of irrelevant information likely to distract the practitioner).
  • VT tubular volume
  • AML median axis
  • a second option is to offer the practitioner a map of the possible insertion options (for example on a planisphere of the volume region).
  • all the options are taken into account and the practitioner can make the best choice in an informed manner.
  • his choice of optimized trajectory is made, he directs the needle holder as close as possible to its choice, advantageously visualizing the position of its trajectory in said map (planisphere for example).
  • the method may consist of carrying out the explorations with the probe (1), which are subsequent to step c) and initiated at the initiative of the practitioner, in a semi-automatic or collaborative manner, the movement of displacement of the probe (1) and the extent of the exploration being determined by manual action of the practitioner, the actual displacement of the probe (1) being nevertheless constrained by the trajectory parameters determined in step c).
  • the exploration movements of the probe (1) may be carried out either bidirectionally or unidirectionally with initial repositioning of the probe (1) after completion of an exploration. In the latter case, it may possibly be possible to envisage an automatic initial relocation of the probe (1) with regard to the target (C), with an adequate position and orientation, by the robotic arm (2) before each new exploratory movement of the latter carried out during the subsequent stages.
  • the analysis of the 2D images acquired in step a), with a view to identifying and locating the target (C) to be treated, for example a cancerous tumor is carried out by or with the assistance of an algorithm, for example an artificial intelligence program having previously undergone adequate training, this location of the target (C) being automatically repeated at each subsequent 3D image exploration and display.
  • an algorithm for example an artificial intelligence program having previously undergone adequate training
  • step d) make it possible to ensure the position of the target very frequently.
  • at least one repetition is necessary after step b), when the practitioner or clinician has planned and positioned the needle holder or needle guide (8) for the first time.
  • this phase is relatively long and therefore incompatible with continuous apnea on the part of the subject (S).
  • step d) makes it possible to correct, as provided for in step f), an expected error in repositioning the target (C) and the organs, tissues and structures (OVT) surrounding the target (C) at the time of the apnea (second, third, etc.) during which the insertion of the needle (3) will actually take place.
  • the movement by the practitioner of the ultrasound probe (1) in steps a) and b), is controlled by constraint and limitation of movement by the robotic arm (2), in terms of orientation and position of the probe (1) relative to the skin (P) of the subject (S) and speed of movement, the practitioner being able to advantageously adjust the pressure setpoint for applying the probe (1) to the skin (P), controlled by the robotic arm (2) during the movement and/or deactivate the assistance of the robotic arm (2), by means of suitable means forming part of the human-machine interface (6, 7).
  • These arrangements make it possible to avoid harmful movements of the probe (1) potentially involving laborious and time-consuming, or even impossible, reconstruction of the 3D images.
  • the successively acquired 2D images must, as much as possible, follow one after the other in a regular and continuous manner, and in particular, overlapping of these images and intersections between these images must be avoided. This is in order to produce a sequence of 2D images whose relative position and acquisition conditions facilitate the calculation and consistency of the resulting 3D image. Deactivation of the assistance of the robotic arm may be desired for finer control by the practitioner, with less effort.
  • the invention may provide that the pressure of application of the probe (1) on the skin (P) is, during the movement of the latter at each exploration carried out during the phase b) and/or phase d), automatically controlled by the robotic arm (2) by real-time control of the value of this pressure by means of a suitable sensor or a control loop exploiting the result of an analysis of the quality of the 2D ultrasound image generated in real time, said application pressure being minimized during phases d), e) and f) to a value just allowing the acquisition of 2D images of sufficient quality to produce a standardized 3D image, in order to generate minimal deformation of the tissues visualized.
  • the control aims, in particular in the last three phases mentioned above, in particular to optimize the quality of the 2D images produced while limiting as much as possible the pressure exerted on the skin (P) of the patient or subject (S) in order to limit as much as possible the deformations induced at the level of the underlying tissues and structures.
  • step b effective pressure control can also be implemented, especially if the robotic arm is in exoskeleton mode, so as not to injure the patient.
  • step g) (during which 3D images are acquired regularly), there is a permanent monitoring of the pressure so as to take into account a possible movement of the patient or a possible problem with the robotic arm.
  • the production of substantially standardized 3D images at the level of steps c), d) and f) is carried out automatically, on the basis of the 2D images produced by the probe (1) manipulated by the robotic arm (2), at each command or with the participation of the practitioner, by making the probe (1) follow a determined trajectory, in particular optimized in terms of position and orientation of the probe (1) relative to the skin (P) of the subject (S) and speed of movement of the probe (1), during movement, this trajectory having been determined during or after step b).
  • the method according to the invention may further consist, on request or automatically, in spreading by spraying, by means of a suitable device associated or integrated with the probe (1), ultrasound contact gel in front of and/or behind the probe (1) during one, preferably each exploratory movement.
  • a suitable device associated or integrated with the probe (1) ultrasound contact gel in front of and/or behind the probe (1) during one, preferably each exploratory movement.
  • the 3D visualization of the organs, vessels and/or tissues present between the surface of the skin (P) and the target (C) as provided in step e), comprises the display by overprinting of a collimation or aiming pattern centered on the target (C), making it possible to define and visually simulate the virtual trajectory of insertion of the needle (3) for a given positioning and orientation of the needle holder (8), and advantageously by interaction via the human-machine interface, to explore the possibilities of rectilinear trajectory of insertion of the needle (3) and entry point in the subject (S) and to select one or more proposals.
  • This pattern e.g. a cross as in Figure 8 is set up and visible when the target is viewed in the displayed 3D image (e.g. of a reduced VR volume as in Figures 7A and 7B) along the axis of the relevant insertion direction.
  • the determination of the positioning and orientation of the needle holder (8) with a view to a possible optimal insertion trajectory by using a 3D visualization of the organs, vessels and/or tissues or structures (OVT) present between the skin (P) and the target (C), as provided in step e), comprises the automatic analysis and display of at least one, preferably several, proposals for a rectilinear trajectory for insertion of the needle (3) and entry point (PE) in the subject (S), each associated with an orientation or a plurality of orientations contained in a virtual cone whose apex touches the target (C), for example the center thereof, the practitioner being able to select or validate one or one of the proposals via the human-machine interface.
  • This cone is normally included in the truncated volume (VR) delimiting the displayed volume.
  • VR truncated volume
  • the method may consist, after selecting a proposed trajectory for insertion of the needle (3) and entry point (PE) in the subject (S), in visualizing a limited cylindrical tubular volume (VT) with said trajectory as longitudinal median axis (AML) and making it possible to visualize the organs, vessels and/or tissues or structures (OVT) possibly present in this volume.
  • VT cylindrical tubular volume
  • AML longitudinal median axis
  • OVT organs, vessels and/or tissues or structures
  • step g) may comprise the prior segmentation of the needle (3) in the images acquired successively as the needle (3) is inserted and in that the volume (VR) visualized consists of a volume elongated along the direction of insertion of the needle. (3), preferably a tubular volume comprising said target (C) and at least one end portion (3') of the needle, as well as the intermediate volume (VP) located between them, with the organs, vessels and/or tissues or structures (OVT) possibly present in this volume. It is thus possible to know quantitatively the distance to the target remaining to be covered by the needle during its insertion and after the acquisition of each 3D image.
  • this arrangement also makes it possible to check whether the trajectory is still directed towards the target, the latter possibly moving during insertion.
  • it will also be possible to visualize in real time the bending of the needle during its insertion and to carry out a possible slight trajectory correction if necessary.
  • step g) the delimitation of the reduced volume (VR) intended to be visualized in 3D is controlled by the insertion movement of the needle (3) and subject to the fraction of the trajectory remaining to be covered at the end portion (3') of the needle (3) up to the target (C), this delimitation being carried out either upstream during the acquisition of the 2D images, or downstream during the 3D visualization.
  • the delimitation of the reduced volume (VR) intended to be visualized in 3D is controlled by the insertion movement of the needle (3) and subject to the fraction of the trajectory remaining to be covered at the end portion (3') of the needle (3) up to the target (C), this delimitation being carried out either upstream during the acquisition of the 2D images, or downstream during the 3D visualization.
  • each of the volumes (VT) or (VR) visualized can therefore vary in size during insertion to be limited to a smaller volume comprising only an end portion (3') of the needle (3) and a volume (VP) preceding this end (3') during insertion up to the target (C), as shown for example in Figure 4.
  • the invention also relates, according to a second aspect, to a collaborative method for inserting a needle (3) into a living subject (S), implementing a medical installation (5) comprising, on the one hand, at least one human-machine interface with a display device (6) and command or control means (7) and, on the other hand, at least the robotic arm (2) carrying said 2D ultrasound probe (1), the position and orientation of which are known in real time and can be used and recorded, concomitantly with the 2D images generated at each exploration, by said installation (5), said installation (5) further comprising another or second robotic arm (4) on which is fixed a needle holder or needle guide (8), at least the relative position of the two arms (2 and 4) between them being known permanently by said installation (5), said method comprising a preparatory planning phase preceding the actual insertion operation, the latter being carried out automatically by the second robotic arm (4) or by a practitioner with guidance by this second robotic arm (4), the needle holder or needle guide (8) being prepositioned and preoriented during the preparatory
  • this insertion method is characterized in that it consists of implementing the assisted and interactive method for producing and displaying 3D ultrasound images as described above, and in particular the aforementioned steps a) to e) during a preparatory planning phase, step f) during a replanning phase following the preparatory planning phase and immediately before the start of the insertion of the needle (3) and step g) during the actual operation of inserting the needle (3), the replanning phase and the operation of inserting the needle (3) taking place during the same apnea phase of the subject (S).
  • This collaborative insertion process therefore closely integrates the assisted and interactive process for producing and displaying 3D ultrasound images and is dependent for its various constituent phases on the respectively associated steps of the latter process.
  • the target can move during insertion, it may be possible to consider compensating for any movements and displacements of the target occurring during insertion of the needle (3), by modifying the orientation of the needle holder or needle guide (8) by the arm robotic (4) carrying it (and therefore the orientation of the trajectory of the needle), carried out automatically or by the practitioner, with a limiting constraint. Another reason for compensation may lie in a possible bending of the needle during insertion.
  • the replanning phase carried out at the start of the apnea during which the insertion must be carried out, consists of creating a new standardized 3D image in accordance with step f), checking the adequacy of the positioning of the needle holder (8) and of the resulting trajectory in relation to the situation visualized in this new 3D image and carrying out, where appropriate, automatically or not, and at least after validation by the practitioner, a possible adjustment of the orientation of said needle holder or needle guide (8) necessary to find an optimized insertion trajectory taking into account a possible minor modification of the position of the target (C) and/or of the soft structures (OVT) between two apneas of the subject (S).
  • the adjustment will consist at most of slightly modifying the orientation of the needle holder (8) constrained by a passage of the trajectory through the entry point (PE) selected beforehand.
  • the invention also relates, according to a third aspect, and as is apparent for example from Figures 1 and 2, to a medical installation (5) for implementing the aforementioned image production method, and preferably the needle insertion method (3) as mentioned previously, this installation (5) comprising, on the one hand, at least one human-machine interface with a display device (6) and command or control means (7) and, on the other hand, at least the robotic arm (2) carrying said 2D ultrasound probe (1), the position and orientation of which are known in real time and can be used and recorded, concomitantly with the 2D images generated at each exploration, by said installation (5).
  • the 2D ultrasound probe (1) is connected to an image processing device allowing the production of 3D images and forming part of the medical installation.
  • This installation is characterized in that it also comprises, on the one hand, another or second robotic arm (4) on which a needle holder (8) is fixed, less the relative position of the two arms (2 and 4) between them being known permanently by said installation (5), and, on the other hand, means for the controlled acquisition, processing and exploitation of images produced by the 2D ultrasound probe (1) when the latter is moved during an exploration on a living subject (S) by the robotic arm (2) concerned, or by a practitioner with the assistance of said robotic arm (2), these means allowing the implementation of the assisted and interactive method of production and display of 3D ultrasound images described above.
  • the two robotic arms (2 and 4) are preferably six-axis robots and together with their control and piloting means constitute a robotic device or robot cooperating interactively with the ultrasound device and the human-machine interface, where appropriate under the control of a centralized control unit of the installation.
  • the two robotic arms (2 and 4) are mounted on the same and single base (10), being advantageously kinematically and structurally separate and independent from each other.
  • the two arms are not connected to each other, except when mounted on the same base.
  • This base advantageously integrates a control unit for these two arms (2 and 4) and is preferably equipped with rolling means and associated with a control means (7) for each arm, for example a pedal, forming part of the human-machine interface.
  • the two arms thus extend separately and freely from each other from the base, which contains their control and piloting means and physically determines their common reference frame.
  • the human-machine interface comprises a control console (11), possibly mounted on rolling means, comprising computer means for calculating and processing data, in particular image processing algorithms and software, and the display device (6), advantageously in the form of a touch-sensitive display device, said control console (11) interacting with the two robotic arms (2 and 4).
  • a robotic device comprising two robotic arms (2 and 4) mounted side by side, for example on the same base, one of which manipulates a 2D ultrasound probe (1) and the other of which manipulates a needle holder (8).
  • This device is associated with a human-machine interface comprising a control console (11) with an interactive screen (6) and control means (7).
  • the first arm (2) manipulates, autonomously or semi-autonomously, the 2D ultrasound probe (1) in order to scan a large area including the needle insertion region (3) and the surrounding structures (OVT). This scanning will thus make it possible to create 3D images on demand in near real time.
  • the scan will be carried out manually by the user (practitioner/clinician) who will co-manipulate the probe (1) with the assistance of the robotic arm. This makes it possible to facilitate but also to slightly constrain the practitioner's gesture to get closer to an ideal trajectory.
  • a trajectory will be calculated in order to make the movement of the ultrasound probe manipulated by the robot optimal in terms of speed, pressure applied and the number of 2D images acquired, making it possible to obtain a high-quality 3D image autonomously.
  • the position of the target (C) is detected automatically and in real time in the successively acquired 3D ultrasound images.
  • the structures to be preserved (OVT) are made visible in these 3D images so as to allow the clinician to visualize all of the secure insertion options available and thus enable him to make a truly informed choice.
  • the speed of image acquisition and the planning rectification tools allow the inevitable adjustments necessary to take into account the potential and almost inevitable modification of the position of the target (C) between the planning phase and the execution phase of the gesture (insertion). Indeed, the planning and execution phases are necessarily carried out from two different images since they are associated with two different apneas.
  • the second robotic arm (4) manipulates a needle guide or needle holder (8) which is always oriented towards the target (C), in other words the direction of the trajectory that it imposes on the needle that it receives always passes through the target (orientation control).
  • This second arm (4) is able, after validation by the clinician, to slightly correct its orientation, and therefore that of the needle holder and the longitudinal direction and trajectory of the needle, to compensate for a change in position of the target (C) between the planning phase and the execution phase.
  • a map of all the potential options for the passage of the needle is proposed by juxtaposing the projection of the different volumetric representations on a planisphere because:
  • a new 3D image is acquired automatically or semi-automatically and is compared to a 3D image acquired before the treatment in order to facilitate the evaluation of the treated area.
  • Phase 1 Positioning and preparing the patient
  • the patient (S) is positioned and prepared for the procedure. This includes preparing the area to be treated and positioning the patient in such a way as to ensure optimal access for the practitioner.
  • Phase 2 Positioning of the robotic device or robot
  • the robot comprising the two robotic arms (2 and 4) is positioned on the other side of the table (9) relative to the practitioner so as not to limit his movements, ensuring optimal coordination throughout the procedure.
  • Phase 3 Search for the target using the ultrasound probe (1)
  • the practitioner manipulates the 2D transabdominal ultrasound probe to locate the target (C) to be treated.
  • An AI algorithm assists him by automatically detecting the target tumor, which accelerates and improves the accuracy of the localization process.
  • the ultrasound probe (1) is associated with the first arm (2) of the robot.
  • the robot assists the practitioner so that the movement of the probe (1) can be carried out without effort, limiting its parasitic movements while applying limited but sufficient pressure on the skin (8) of the patient (S).
  • Phase 4 Creation of a 3D ultrasound image of the needle insertion area
  • the practitioner scans using the ultrasound probe (1) an area (RV volume region) which encompasses the reasonable potential trajectories of the needle. Scanning this area makes it possible to automatically create a 3D image including the target (C), the possible trajectories as well as the surrounding structures (OVT).
  • the robot is capable of performing similar acquisitions autonomously or semi-autonomously. At any time, the practitioner can now view a 3D image updated in near real time.
  • This first scan takes place during the patient's first apnea (S).
  • Phase 5 Planning the insertion trajectory
  • the practitioner chooses an optimal trajectory for the needle (3) by consulting a map that represents all possible trajectories.
  • the map is created by taking into account the presence of fragile structures (OVT) along their paths.
  • This map is presented concretely on the touch display interface (6) of the installation in the form of a planisphere including risk-free zones and risk zones. This allows access to all possible options.
  • Phase 6 Positioning the needle holder
  • the practitioner positions the needle holder in the optimal position chosen using the trajectory options map.
  • the needle holder being associated with the second robotic arm (4), when the practitioner moves the needle holder, the latter always remains oriented towards the target (C).
  • the position of the needle holder (8) and the resulting trajectory are naturally reported on the real-time map (for example planisphere) corresponding to all the options to facilitate this positioning.
  • the clinician will insert the needle (3) while regularly asking the installation (5) comprising the robotic arm (2) with the probe (1) to update the visualization of the 3D image limited to a cylinder located around the trajectory of the needle for near-real-time control of the precision of the procedure.
  • Phase 8 Target treatment by radiofrequency
  • the practitioner can perform the radiofrequency treatment (or another operation involving the needle).
  • the practitioner asks the installation (5) to acquire a new 3D image to evaluate the extent of the treatment. This makes it possible to verify the effectiveness of the treatment by comparing two images, the first having been acquired before and the second after the treatment.
  • the invention can be implemented in its various aspects indifferently with a needle holder or a needle guide, the mention of one being worth mentioning the other as well.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

ProcĂ©dĂ© de production et d'affichage d'images Ă©chographiques 3D, procĂ©dĂ© d'insertion d'aiguille l'utilisant et installation pour leur mise en Ɠuvre L'invention concerne un procĂ©dĂ© assistĂ© et interactif de production et d'affichage d'images Ă©chographiques 3D, par acquisition contrĂŽlĂ©e et traitement d'images 2D acquises par l'intermĂ©diaire d'une sonde Ă©chographique 2D (1) pouvant ĂȘtre dĂ©placĂ©e sur un sujet vivant (S) par un bras robotisĂ© (2), ou par un praticien avec l'assistance d'un bras robotisĂ© (2), notamment avant et durant une opĂ©ration d'insertion d'aiguille (3) dans ledit sujet (S), cette opĂ©ration Ă©tant rĂ©alisĂ©e par exemple par le biais ou avec l'assistance d'un autre bras robotisĂ© (4) Ă©quipĂ© d'un porte-aiguille (8). Ce procĂ©dĂ© est utilisĂ© durant une phase de planification de l'insertion, durant une phase de replanification juste avant insertion et durant l'insertion, et rĂ©alise l'affichage de volumes pertinents adaptĂ©s aux diffĂ©rentes phases montrant la trajectoire de l'aiguille (3), les structures fragiles (OVT) et la cible (C).

Description

Description
PROCEDE DE PRODUCTION ET D'AFFICHAGE D'IMAGES ECHOGRAPHIQUES 3D
[0001 ] La prĂ©sente invention concerne les domaines de l’imagerie mĂ©dicale et de l’assistance au positionnement d’aiguilles sous guidage Ă©chographique assistĂ© par une installation robotisĂ©e, et plus particuliĂšrement la crĂ©ation et l’exploitation d’images Ă©chographique 3D Ă  partir de l’acquisition autonome ou semi-autonome d’un ensemble d’images Ă©chographiques 2D et son utilisation avantageuse en relation avec des procĂ©dures d’insertion et d’implantation d’aiguilles de prĂ©lĂšvement, d’injection ou de traitement localisĂ© (cible) dans des sujets.
[0002] Elle a pour objets un procĂ©dĂ© assistĂ© et interactif de production et d’affichage d’images Ă©chographiques 3D par acquisition contrĂŽlĂ©e et traitement d’images 2D, un procĂ©dĂ© d’insertion d’aiguille, automatique ou prĂ©fĂ©rentiellement assistĂ© ou collaboratif, utilisant le procĂ©dĂ© prĂ©citĂ©, et une installation mĂ©dicale robotisĂ©e pour la mise en oeuvre de ces deux procĂ©dĂ©s.
[0003] Une technique mĂ©dicale actuellement en plein dĂ©veloppement est la chirurgie percutanĂ©e par l’intermĂ©diaire d’une aiguille enfoncĂ©e dans le patient, autant pour le traitement de cancers que pour l’injection ou le prĂ©lĂšvement localisĂ©.
[0004] Dans le cas du traitement des cancers localisĂ©s dans la rĂ©gion abdominale, elle consiste Ă  positionner l’extrĂ©mitĂ© d’une ou de plusieurs aiguilles dans une tumeur, en passant Ă  travers la paroi abdominale. La destruction de la tumeur a notamment lieu en gĂ©nĂ©rant en bout d’aiguille des variations de tempĂ©ratures importantes (chaud ou froid). Il est ainsi possible par exemple de traiter les tumeurs par radiofrĂ©quence, cryoablation, micro-ondes ou encore par Ă©lectroporation.
[0005] Cette approche gagne en popularitĂ© car elle est peu coĂ»teuse, trĂšs peu invasive et que les progrĂšs des techniques d’ablation permettent de traiter des cibles ayant des tailles, des formes et des localisations de plus en plus diverses. Cela permet Ă  ce type de traitements d’ĂȘtre effectuĂ©s le plus souvent en ambulatoire, source d’économie pour le systĂšme de santĂ© mais Ă©galement de bien-ĂȘtre pour le patient. [0006] La principale difficultĂ© associĂ©e Ă  cette technique curative est le positionnement prĂ©cis des aiguilles, tout en prĂ©servant les structures fragiles environnantes. Le positionnement correct des aiguilles est un geste qui nĂ©cessite une expertise singuliĂšre.
[0007] Dans le cas du pancrĂ©as, du rein et du foie, ces organes Ă©tant constituĂ©s de tissus mous et de surcroit localisĂ©s dans la cavitĂ© abdominale, ils sont sujets Ă  des dĂ©placements ainsi qu’à des dĂ©formations. Ces dĂ©placements et ces dĂ©formations sont notamment induits par les mouvements physiologiques, principalement le mouvement respiratoire, et l’insertion de l’aiguille en elle-mĂȘme.
[0008] Il est fondamental de noter que s’il est imposĂ© au patient d’effectuer une apnĂ©e durant l’insertion des aiguilles, deux apnĂ©es successives ne permettent en aucune façon de garantir que la cible sera localisĂ©e de maniĂšre analogue. Il en est de mĂȘme des structures (tissus, organes, vaisseaux) situĂ©es entre la peau et la cible.
[0009] Actuellement, diffĂ©rentes solutions techniques sont connues pour rĂ©aliser des procĂ©dĂ©s d’insertion d’aiguilles (assistĂ©s ou guidĂ©s) dans des patients ou des sujets, s’appuyant sur des technologies d’imagerie mĂ©dicale 3D diverses (scanner, IRM ou Ă©chographie 3D). Elles prĂ©sentent toutes des inconvĂ©nients plus ou moins importants, en termes de coĂ»ts, de complexitĂ© de mise en oeuvre des installations nĂ©cessaires, de durĂ©e de la procĂ©dure, d’exposition nĂ©faste Ă  des radiations, de compatibilitĂ© avec un milieu prĂ©sentant un champ magnĂ©tique important, de confort d’utilisation pour le praticien et/ou de prĂ©cision de rĂ©alisation notamment liĂ©s Ă  l’obsolescence certaine des donnĂ©es d’imagerie au moment de l’intervention puisqu’elles ont Ă©tĂ© acquises bien avant l’intervention lors de la phase de planification.
[0010] Ainsi, les procĂ©dĂ©s connus mettant en oeuvre l’imagerie par rayons X pĂšchent par une configuration d’installation complexe (marqueurs, camĂ©ras), un coĂ»t Ă©levĂ© du matĂ©riel d’imagerie (CT scanner), l’impact d’une dose Ă©levĂ©e de rayons X et surtout l’obsolescence des donnĂ©es d’imagerie lors de leur utilisation effective, du fait des durĂ©es d’acquisition et de traitement de ces derniĂšres.
[0011 ] Les mĂȘmes dĂ©fauts sont identifiĂ©s pour les solutions mettant en oeuvre un procĂ©dĂ© d’IRM, exceptĂ© l’absence de dose de rayons X, mais pour l'IRM, la prĂ©sence d'un champ magnĂ©tique de forte intensitĂ© limite sensiblement la disponibilitĂ© du matĂ©riel de traitement compatible et a un impact majeur sur son coĂ»t.
[0012] Enfin, des procĂ©dĂ©s mettant en oeuvre des Ă©chographes 3D, pour assister ou guider l’insertion d’aiguilles, sont Ă©galement dĂ©jĂ  connus, mais ils prĂ©sentent aussi de nombreuses limitations.
[0013] Ainsi, ces Ă©chographes 3D prĂ©sentent un coĂ»t Ă©levĂ©, manquent de prĂ©cision (images de qualitĂ© mĂ©diocre par rapport aux imageurs Ă©chographiques 2D), mettent en oeuvre une sonde encombrante et fastidieuse Ă  manipuler, nĂ©cessitent Ă©galement un systĂšme de repĂ©rage et de rĂ©fĂ©rencement spatial (camĂ©ra ou capteur Ă©lectromagnĂ©tiques) et ne sont pas optimisĂ©s en termes de traitement de donnĂ©es (quantitĂ© et pertinence des donnĂ©es acquises et traitĂ©es). De plus, le problĂšme d’obsolescence des donnĂ©es affecte Ă©galement les images fournies par ces imageurs Ă©chographiques 3D, Ă  la diffĂ©rence des imageurs Ă©chographique 2D (lesquels ne sont pas toujours adaptĂ©s pour une utilisation dans le contexte prĂ©citĂ© et nĂ©cessitent un dĂ©placement maĂźtrisĂ© pour fournir des images exploitables).
[0014] Il existe par ailleurs diffĂ©rentes solutions pour assister l’insertion d’aiguilles par l’intermĂ©diaire de dispositifs robotisĂ©s, trĂšs majoritairement associĂ©es Ă  l’utilisation d’un imageur du type scanner et d’une camĂ©ra. Toutefois, ces solutions nĂ©cessitent un recalage entre le rĂ©fĂ©rentiel de l’imageur et celui du bras robot, et la mise en oeuvre de marqueurs dans le scanner et sur le robot pouvant ĂȘtre repĂ©rĂ©s par la camĂ©ra et le scanner.
[0015] De plus, ces solutions connues ne tiennent pas non plus compte du dĂ©placement hautement probable de la cible et des structures molles et fragiles (concernĂ©es par l’insertion) entre deux phases d’apnĂ©e, qui rend problĂ©matique et risquĂ© l’insertion Ă  l’aveugle rĂ©alisĂ©e dans le cadre de ces solutions, du fait aussi de l’obsolescence des images rĂ©alisĂ©es antĂ©rieurement et qui sont exploitĂ©es juste avant le dĂ©but de l’insertion. En outre, les difficultĂ©s ergonomiques liĂ©es Ă  l'utilisation nĂ©cessaire d'une camĂ©ra spĂ©cifique reprĂ©sentent un dĂ©fi non nĂ©gligeable, pouvant impacter l'efficacitĂ© et la fluiditĂ© des procĂ©dures en salle d'opĂ©ration. Par ailleurs, il convient de considĂ©rer que la trajectoire choisie par le clinicien pour l'insertion de l'aiguille n'est pas nĂ©cessairement la meilleure : cette limitation soulĂšve des questions quant Ă  la flexibilitĂ© et l'adaptabilitĂ© de la mĂ©thode en fonction des particularitĂ©s anatomiques de chaque patient. Enfin, l'aspect Ă©conomique de ces solutions ne peut ĂȘtre ignorĂ© : son coĂ»t Ă©levĂ©, liĂ© Ă  la fois au personnel qualifiĂ© et aux infrastructures spĂ©cifiques nĂ©cessaires Ă  sa rĂ©alisation, reprĂ©sente un frein majeur Ă  son adoption gĂ©nĂ©ralisĂ©e, en particulier dans un contexte de ressources limitĂ©es.
[0016] La prĂ©sente invention a pour but de proposer une solution nouvelle permettant de surmonter au moins certaines des principales limitations prĂ©citĂ©es, notamment celles liĂ©es Ă  l’obsolescence des images exploitĂ©es en particulier Ă  la fin de la pĂ©riode prĂ©paratoire prĂ©cĂ©dent le dĂ©but de l’insertion, Ă  la prĂ©sence d’une camĂ©ra, Ă  l’absence de prise en compte des changements intervenus entre deux apnĂ©es et Ă  une collaboration limitĂ©e entre les dispositifs robotisĂ©s et le praticien, ce tout en exploitant les avantages liĂ©s Ă  l’utilisation de l’échographie.
[0017] Selon un premier et principal aspect de l’invention, l’invention vise à fournir une aide visuelle pertinente, ergonomique et interactive pour le praticien, au moins avant une intervention mettant en oeuvre une insertion d’aiguille avec l’aide d’un porte-aiguille ou guide d’aiguille.
[0018] A cet effet, elle a pour principal objet un procĂ©dĂ© assistĂ© et interactif de production et d’affichage d’images Ă©chographiques 3D, par acquisition contrĂŽlĂ©e et traitement d’images 2D acquises par l’intermĂ©diaire d’une sonde Ă©chographique 2D pouvant ĂȘtre dĂ©placĂ©e sur un sujet vivant par un bras robotisĂ©, ou par un praticien avec l’assistance d’un bras robotisĂ©, notamment avant une opĂ©ration d’insertion d’aiguille Ă  l’aide d’un porte-aiguille ou guide d’aiguille dans ledit sujet, durant une phase prĂ©paratoire de planification, l’opĂ©ration d’insertion Ă©tant rĂ©alisĂ©e par exemple par le biais ou avec l’assistance d’un autre bras robotisĂ© Ă©quipĂ© d’un porte-aiguille, ledit procĂ©dĂ© mettant en oeuvre une installation mĂ©dicale comprenant, d’une part, au moins une interface homme-machine avec un dispositif d’affichage et des moyens de commande ou de contrĂŽle et, d’autre part, au moins le bras robotisĂ© portant ladite sonde Ă©chographique 2D, dont la position et l’orientation sont connues en temps-rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă  chaque exploration, par ladite installation, procĂ©dĂ© caractĂ©risĂ© en ce qu’il comprend au moins les Ă©tapes consistant : a) Ă  localiser une ou la cible Ă  traiter dans le sujet par dĂ©placement exploratoire de la sonde sur la peau de ce dernier et analyse des images Ă©chographiques 2D acquises, par un praticien Ă©ventuellement assistĂ© par logiciel de dĂ©tection adaptĂ© ; b) Ă  produire une premiĂšre image 3D d’une rĂ©gion volumique du sujet, s’étendant depuis la peau jusqu’à la cible concernĂ©e et contenant cette derniĂšre et les trajectoires raisonnables d’introduction possibles d’une aiguille pour atteindre ladite cible estimĂ©es par le praticien, cette image 3D Ă©tant obtenue Ă  partir d’un ensemble d’images 2D acquises, durant une phase d’apnĂ©e du sujet, par dĂ©placement de la sonde Ă©chographique 2D par le praticien avec l’assistance du bras robotisĂ© et potentiellement par exploitation des informations de localisation de l’étape a) ; c) Ă  dĂ©terminer automatiquement, durant ou aprĂšs l’étape b), les paramĂštres et le parcours d’une trajectoire optimisĂ©e et reproductible pour la sonde Ă©chographique 2D permettant la production d’images 3D sensiblement standardisĂ©es et identiquement cadrĂ©es de la rĂ©gion volumique prĂ©citĂ©e ; d) Ă  produire une, ou successivement plusieurs, image(s) 3D sensiblement standardisĂ©e(s) de cette rĂ©gion volumique, ce en quasi-temps rĂ©el et automatiquement ou sur commande du praticien, durant une phase d’apnĂ©e du sujet et sur la base d’images 2D fraichement acquises suite Ă  une nouvelle exploration avec la sonde Ă©chographique 2D effectuĂ©e en appliquant les paramĂštres et en suivant le parcours qui ont Ă©tĂ© dĂ©terminĂ©s durant l’étape c) ; e) Ă  visualiser, dans cette ou ces images 3D sensiblement standardisĂ©es de la rĂ©gion volumique du sujet, les organes, vaisseaux et/ou tissus ou structures molles analogues prĂ©sent(e)s entre la peau et ladite cible, ainsi que ces deux derniĂšres, en vue de permettre de dĂ©terminer le positionnement et l’orientation d’un porte-aiguille pour au moins une possible trajectoire d’insertion optimisĂ©e de l’aiguille ; f) Ă  rĂ©pĂ©ter les Ă©tapes d) et e) juste avant le dĂ©but de l’insertion de l’aiguille, laquelle est alors positionnĂ©e en accord avec la trajectoire d’insertion optimisĂ©e sĂ©lectionnĂ©e par le praticien et visualisĂ©e dans l’image 3D courante, et Ă  dĂ©terminer et Ă  visualiser automatiquement la position de la cible Ă  cet instant en vue d’un possible ajustement du positionnement et/ou de l’orientation du porte- aiguille, en particulier juste avant l’insertion effective de l’aiguille. [0019] Elle a Ă©galement pour objets, selon deux autres aspects, un procĂ©dĂ© d’insertion d’aiguille utilisant le procĂ©dĂ© de production et d’affichage d’images Ă©chographiques 3D prĂ©citĂ©, et une installation mĂ©dicale pour la mise en oeuvre de ces deux procĂ©dĂ©s.
[0020] L'invention sera mieux comprise, grùce à la description ci-aprÚs, qui se rapporte à un mode de réalisation préféré, donné à titre d'exemple non limitatif, et expliqué avec référence aux dessins schématiques annexés, dans lesquels :
[0021 ] [Fig. 1 ] reprĂ©sente schĂ©matiquement une installation mĂ©dicale selon un mode de rĂ©alisation prĂ©fĂ©rĂ©, pour la mise en oeuvre des procĂ©dĂ©s d’imagerie et d’insertion d’aiguille selon l’invention ;
[0022] [Fig. 2] reprĂ©sente l’installation de la figure 1 au cours d’une intervention sur un sujet, ici un patient humain ;
[0023] [Fig. 3] est une reprĂ©sentation schĂ©matique de dĂ©tail et en coupe d’une partie du corps du sujet juste avant l’insertion d’une aiguille ;
[0024] [Fig. 4] est une reprĂ©sentation similaire Ă  celle de la figure 3 durant l’insertion de l’aiguille, par exemple en tant que vue partielle et de dĂ©tail (Ă  une autre Ă©chelle) de la scĂšne reprĂ©sentĂ©e figure 2 ;
[0025] [Fig. 5] est une reprĂ©sentation d’un ensemble d’images Ă©chographiques 2D acquises, automatiquement ou collaborativement avec le praticien, par l’intermĂ©diaire de la sonde portĂ©e par le premier bras robotisĂ© faisant partie de l’installation selon l’invention ;
[0026] [Fig. 6] est une reprĂ©sentation d’une rĂ©gion volumique de l’abdomen d’un patient sous la forme d’un planisphĂšre montrant les structures fragiles/molles et permettant d’estimer les diffĂ©rentes trajectoires possibles pour l’insertion d’une aiguille en vue d’atteindre la cible ;
[0027] [Fig. 7A] et [Fig. 7B] sont des images 3D d’une rĂ©gion volumique tubulaire/tronconique du corps du patient entre la peau et la cible et entourant une trajectoire d’aiguille, vues selon deux directions diffĂ©rentes ;
[0028] [Fig. 8] est une image montrant la rĂ©gion tubulaire/tronconique des figures 7A et 7B vue selon la direction d’insertion, le point d’entrĂ©e Ă©tant marquĂ© par une croix, et, [0029] [Fig. 9] est une image 3D montrant une aiguille ayant atteint la cible.
[0030] L’invention concerne, selon un premier aspect de l’invention, un procĂ©dĂ© assistĂ© et interactif de production et d’affichage d’images Ă©chographiques 3D, par acquisition contrĂŽlĂ©e et traitement d’images 2D acquises par l’intermĂ©diaire d’une sonde Ă©chographique 2D (1 ) pouvant ĂȘtre dĂ©placĂ©e sur un sujet vivant (S) par un bras robotisĂ© (2) la portant, ou par un praticien avec l’assistance d’un bras robotisĂ© (2) dĂ©placĂ© par celui-ci et tenant ladite sonde (1 ), notamment avant une opĂ©ration d’insertion d’aiguille (3) Ă  l’aide d’un porte-aiguille ou guide d’aiguille (8) dans ledit sujet (S), durant une phase prĂ©paratoire de planification, l’opĂ©ration Ă©tant rĂ©alisĂ©e par exemple par le biais ou avec l’assistance d’un autre bras robotisĂ© (4) Ă©quipĂ© du porte-aiguille ou guide d’aiguille (8).
[0031 ] Ce procĂ©dĂ© met en oeuvre une installation mĂ©dicale (5) comprenant, d’une part, au moins une interface homme-machine avec un dispositif d’affichage (6) et des moyens (7) de commande ou de contrĂŽle et, d’autre part, au moins le bras robotisĂ© (2) portant ladite sonde Ă©chographique 2D (1 ), dont la position et l’orientation sont connues en temps-rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă  chaque exploration, par ladite installation (5).
[0032] Ce procĂ©dĂ© est caractĂ©risĂ© en ce qu’il comprend au moins les Ă©tapes consistant : a) Ă  localiser une ou la cible (C) Ă  traiter dans le sujet (S) par dĂ©placement exploratoire de la sonde (1 ) sur la peau (P) de ce dernier et analyse des images Ă©chographiques 2D acquises, par un praticien Ă©ventuellement assistĂ© par logiciel de dĂ©tection adaptĂ© ; b) Ă  produire une premiĂšre image 3D d’une rĂ©gion volumique (RV) du sujet (S), s’étendant depuis la peau (P) jusqu’à la cible (C) concernĂ©e et contenant cette derniĂšre et les trajectoires raisonnables d’introduction possibles d’une aiguille (3) pour atteindre ladite cible (C) estimĂ©es par le praticien, cette image 3D Ă©tant obtenue Ă  partir d’un ensemble d’images 2D acquises, durant une phase d’apnĂ©e du sujet (S), par dĂ©placement de la sonde Ă©chographique 2D (1 ) par le praticien avec l’assistance du bras robotisĂ© (2) et potentiellement par exploitation des informations de localisation de l’étape a) ; c) Ă  dĂ©terminer automatiquement, durant ou aprĂšs l’étape b), les paramĂštres et le parcours d’une trajectoire optimisĂ©e et reproductible pour la sonde Ă©chographique 2D (1 ) permettant la production d’images 3D sensiblement standardisĂ©es et identiquement cadrĂ©es de la rĂ©gion volumique (RV) prĂ©citĂ©e ; d) Ă  produire une, ou successivement plusieurs, image(s) 3D sensiblement standardisĂ©e(s) de cette rĂ©gion volumique (RV), ce en quasi-temps rĂ©el et automatiquement ou sur commande du praticien, durant une phase d’apnĂ©e du sujet (S) et sur la base d’images 2D fraichement acquises suite Ă  une nouvelle exploration avec la sonde Ă©chographique 2D (1 ) effectuĂ©e en appliquant les paramĂštres et en suivant le parcours qui ont Ă©tĂ© dĂ©terminĂ©s durant l’étape c) ; e) Ă  visualiser, dans cette ou ces images 3D sensiblement standardisĂ©es de la rĂ©gion volumique (RV) du sujet (S), les organes, vaisseaux et/ou tissus ou structures molles analogues (OVT) prĂ©sent(e)s entre la peau (P) et ladite cible (C), ainsi que ces deux derniĂšres, en vue de permettre de dĂ©terminer le positionnement et l’orientation d’un porte-aiguille (8) pour au moins une possible trajectoire d’insertion optimisĂ©e de l’aiguille (3) ; f) Ă  rĂ©pĂ©ter les Ă©tapes d) et e) juste avant le dĂ©but de l’insertion de l’aiguille (3), laquelle est alors positionnĂ©e en accord avec la trajectoire d’insertion optimisĂ©e sĂ©lectionnĂ©e par le praticien et visualisĂ©e dans l’image 3D courante, et Ă  dĂ©terminer et Ă  visualiser automatiquement la position de la cible (C) Ă  cet instant en vue d’un possible ajustement du positionnement et/ou de l’orientation du porte- aiguille (8), en particulier juste avant l’insertion effective de l’aiguille.
[0033] GrĂące aux dispositions prĂ©citĂ©es de l’invention, il est possible de proposer une solution permettant d’atteindre le but fixĂ©. En effet, le procĂ©dĂ© visĂ© permet de fournir une assistance continue, collaborative et interactive, au praticien au moins durant la phase prĂ©paratoire de planification de l’intervention et durant la phase d’ajustement fin juste avant le dĂ©but de l’insertion de l’aiguille avec l’aide du porte- aiguille, qui dĂ©termine la trajectoire d’insertion et guidera l’aiguille durant son insertion. Ce procĂ©dĂ© exploite les avantages de l’échographie 2D, tout en permettant une visualisation en 3D, ce par le biais de dispositions particuliĂšres. Le procĂ©dĂ© tire Ă©galement profit de phases d’apprentissage ciblĂ©es prĂ©liminaires, dispensĂ©es par le praticien pour le bras robotisĂ© (2) portant la sonde (1 ) et les moyens logiciels faisant partie de l’installation (5), pour assister ultĂ©rieurement efficacement ledit praticien par une automatisation ou semi-automatisation des explorations Ă©chographiques et une automatisation de la reconnaissance et du suivi de cible.
[0034] Selon un aspect additionnel possible de l’invention, la solution proposĂ©e peut en outre fournir une assistance continue, collaborative et interactive, au praticien durant toute la durĂ©e d’insertion jusqu’à l’atteinte de la cible.
[0035] A cet effet, le procĂ©dĂ© prĂ©citĂ© peut Ă©galement comprendre, aprĂšs l’étape f) et durant l’insertion de l’aiguille (3), une Ă©tape g) consistant : Ă  visualiser en quasi-temps rĂ©el l’insertion progressive de l’aiguille (3) par crĂ©ation et visualisation rĂ©pĂ©tĂ©es d’images 3D rafraĂźchies d’un volume (VR), par exemple sensiblement cylindrique ou tronconique, en tant que fraction de la rĂ©gion volumique prĂ©citĂ©e (RV) du sujet (S), prĂ©fĂ©rentiellement en tant que fraction variable de cette rĂ©gion volumique, les images 3D de ce volume (VR) montrant soit ladite cible (C) et au moins une portion d’extrĂ©mitĂ© (3’) de l’aiguille (3), prĂ©fĂ©rentiellement toute la partie de l’aiguille (3) insĂ©rĂ©e dans le sujet (S), soit au moins une portion d’extrĂ©mitĂ© (3’) de l’aiguille (3) et un volume (VP) prĂ©cĂ©dant cette extrĂ©mitĂ© (3’) durant l’insertion, cette visualisation d’images 3D rafraĂźchies dudit volume (VR) se prolongeant prĂ©fĂ©rentiellement au moins jusqu’à ce que la cible (C) soit atteinte par l’aiguille (3), les deux Ă©tapes f) et g) Ă©tant alors rĂ©alisĂ©es ensemble durant une mĂȘme phase d’apnĂ©e du sujet (S).
[0036] En termes d’information Ă  destination du praticien, le procĂ©dĂ© selon l’invention fournit une visualisation 3D Ă©volutive. Ainsi, il peut ĂȘtre prĂ©vu, tout d’abord, de visualiser une rĂ©gion volumique importante (RV) englobant la cible et une zone environnante, la peau (ou au moins une zone interne proche de la peau), au moins les diffĂ©rentes trajectoires d’insertion raisonnables et l’ensemble des structures molles et fragiles (OVT) localisĂ©es dans cette rĂ©gion, ce durant l’étape b) et au moins une partie d’une phase de planification prĂ©alable ; puis de visualiser un volume plus rĂ©duit (VR, VT) comprenant au moins l’extrĂ©mitĂ© de l’aiguille et au moins un volume intermĂ©diaire juste suffisamment Ă©tendu pour pouvoir connaĂźtre et prendre en compte la prĂ©sence de la cible, des organes, vaisseaux et/ou tissus ou structures fragiles analogues prĂ©sentes dans cet environnement, ce juste avant et pendant l’intervention. [0037] En variante, et en fonction de l’expĂ©rience et du souhait du praticien, le volume visualisĂ© peut, dĂšs l’étape b), se limiter Ă  un volume plus rĂ©duit que la rĂ©gion volumique (RV) explorĂ©e par la sonde (1 ), par exemple un volume tronconique (VR) s’étendant autour d’une direction d’insertion mĂ©diane estimĂ©e raisonnable par le praticien (passant par le centre de la cible) et entre la peau et la cible. A titre d’exemple, un tel tronc de cĂŽne prĂ©senterait une base sous forme de disque ou d’ellipse avec un diamĂštre Ă  la base d’environ 5 Ă  10 cm au niveau de la peau) et dont le sommet entoure le centre de la cible, voire cette derniĂšre.
[0038] La mise en oeuvre d’un bras robotisĂ© portant la sonde Ă©chographique 2D, soumis Ă  un apprentissage du volume Ă  explorer et apte Ă  rĂ©aliser ensuite, Ă  la demande du praticien, des acquisitions semi-automatiques ou automatiques avec des paramĂštres optimisĂ©es et donc des visualisations 3D standardisĂ©es, soulage le praticien et garantit une qualitĂ© d’image constante.
[0039] Par ailleurs, l’adaptation du traitement et de l’affichage des images au volume utile durant les diffĂ©rentes phases permet notamment un rafraichissement des images plus rapide lorsque la mise Ă  disposition d’une information en temps rĂ©el est importante (durant l’insertion), ainsi qu’une interprĂ©tation plus aisĂ©e lorsque la zone visualisĂ©e est limitĂ©e sensiblement Ă  la zone d’intĂ©rĂȘt au moment de l’acquisition.
[0040] Durant l’étape b), le bras robotisĂ© (2) peut permettre de faciliter le dĂ©placement de la sonde (1 ) en appliquant un effort contrĂŽlĂ© sur celle-ci pour que le praticien ne soit pas obligĂ© de forcer durant cette exploration, tout en Ă©vitant une pression trop Ă©levĂ©e.
[0041] Il convient de noter que, durant chaque exploration avec la sonde Ă©chographique 2D (1 ) et durant l’insertion de l’aiguille (3), le patient est supposĂ© ĂȘtre en apnĂ©e.
[0042] En outre, par le biais de l’interface homme-machine (6, 7), le praticien est apte Ă  dĂ©clencher des explorations et rĂ©cupĂ©ration d’images 2D avec la sonde (1 ) tenue par le bras robotisĂ© (2), Ă  naviguer dans les images 3D produites en changeant notamment l’angle de vue par rapport au volume affichĂ© (pour par exemple visionner ce volume avec ses contenus selon l’axe d’une trajectoire d’insertion d’aiguille, qui est avantageusement confondu avec l’axe mĂ©dian de ce volume) et Ă  choisir les composantes qu’il souhaite voir s’afficher ( en dehors des opĂ©rations d’acquisition et de visualisation automatiques).
[0043] Le procĂ©dĂ© selon l’invention fournit par consĂ©quent une assistance visuelle interactive, quasi-instantanĂ©e, calĂ©e sur la respiration du patient, non interfĂ©rente avec les autres tĂąches du praticien et adaptative en fonction de l’avancement du protocole de traitement. Cette assistance se prolonge en outre de maniĂšre continue sur les diffĂ©rentes phases du protocole mis en oeuvre : la planification prĂ©alable, la replanification rapide juste avant insertion et la phase d’insertion.
[0044] Alors que les Ă©tapes b) et c) correspondent Ă  une phase d’apprentissage du bras robotisĂ© (2) portant la sonde (1 ), afin de lui permettre ensuite de rĂ©aliser des explorations automatiquement ou semi-automatiquement, les Ă©tapes d) et e) sont associĂ©es Ă  une phase prĂ©paratoire de planification de l’intervention aboutissant, le cas Ă©chĂ©ant par rĂ©pĂ©titions successives, Ă  l’obtention d’une image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (RV) jugĂ©e optimale, et Ă  sa visualisation, par exemple sous forme de planisphĂšre, avec indication intĂ©grĂ©e des possibles trajectoires d’insertion de l’aiguille (3) dĂ©terminĂ©es automatiquement ou par le praticien, puis d’une proposition de possible trajectoire d’insertion optimisĂ©e et sĂ©curisĂ©e de l’aiguille (3), sĂ©lectionnĂ©e automatiquement ou par le praticien.
[0045] Toutefois, la derniĂšre rĂ©pĂ©tition des Ă©tapes d) et e), au cours de l’étape f), correspond quant Ă  elle Ă  une phase de replanification prĂ©cĂ©dant, durant la mĂȘme phase d’apnĂ©e, de maniĂšre imminente le dĂ©but de la phase d’insertion et prenant en compte une probable modification mineure de la position de la cible (C) et des structures molles (OVT) entre deux apnĂ©es du sujet (S), cette Ă©tape f) comprenant la crĂ©ation et la visualisation d’une nouvelle image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (RV) du mĂȘme type que celle obtenue Ă  l’issue de l’étape e), ce en vue d’un possible ajustement automatique ou manuel du positionnement et/ou de l’orientation du porte-aiguille (8) correspondant Ă  la trajectoire optimisĂ©e sĂ©lectionnĂ©e Ă  l’issue de l’étape e) et au moins d’une validation de cette trajectoire, Ă©ventuellement rĂ©ajustĂ©e finement, par le praticien. Comme il n’y a pas de diffĂ©rence majeure entre les deux apnĂ©es en termes de position des structures (OVT) et de la cible (C), un ajustement fin suffit pour optimiser Ă  nouveau la trajectoire prĂ©vue, sans nĂ©cessiter une replanification plus complĂšte. [0046] Afin de faciliter et de rendre plus rapide le choix ou la validation d’une possible trajectoire d’insertion optimisĂ©e de l’aiguille (3) durant l’étape e), il peut ĂȘtre avantageusement prĂ©vu que dans l’étape b), les trajectoires estimĂ©es raisonnables par le praticien sont dĂ©finies par ce dernier par l’intermĂ©diaire d’une direction d’insertion mĂ©diane passant par la cible (C) et correspondent Ă  des trajectoires rectilignes comprises dans un volume conique ou tronconique, prĂ©fĂ©rentiellement Ă  base circulaire ou ellipsoĂŻdale, correspondant Ă©ventuellement au volume rĂ©duit (VR), s’étendant en s’effilant de la peau (P) jusqu’à la cible (C) au moins et avec un axe mĂ©dian (AML) passant par la cible (C), cet axe mĂ©dian correspondant Ă  la direction mĂ©diane prĂ©citĂ©e et pouvant ĂȘtre matĂ©rialisĂ© par un positionnement correspondant du porte-aiguille (8). PrĂ©fĂ©rentiellement, au moins une trajectoire d’insertion possible, voire optimisĂ©e, est dĂ©terminĂ©e aprĂšs analyse du contenu de ladite premiĂšre image 3D et prise en compte des circonstances spĂ©cifiques liĂ©es au sujet (S) et Ă  la configuration de l’intervention, de maniĂšre automatique ou semi- automatiquement ou par le praticien.
[0047] En vue de pouvoir rĂ©aliser avec la sonde (1 ) montĂ©e sur le bras robotisĂ© (2) une exploration rapide et performante, les images 3D sensiblement standardisĂ©es de l’étape c) et de l’étape d) consistent avantageusement en des images 3D produites Ă  partir d’images 2D acquises selon des plans sĂ©cants par rapport aux trajectoires raisonnables d’insertions de l’étape b) et avec une qualitĂ© suffisante et constante, Ă  savoir avec une trajectoire optimisĂ©e et reproductible de la sonde Ă©chographique 2D (1 ), c’est-Ă -dire notamment en appliquant une force sensiblement constante et aussi faible que possible au niveau de la sonde 2D (1 ) permettant l’acquisition d’images 2D avec la qualitĂ© prĂ©citĂ©e et en dĂ©plaçant cette derniĂšre avec une vitesse d’acquisition maĂźtrisĂ©e et optimisĂ©e, notamment la vitesse la plus Ă©levĂ©e possible garantissant nĂ©anmoins une densitĂ© et une qualitĂ© d’informations volumiques suffisantes pour produire des images de qualitĂ© acceptable. Lorsque le dĂ©placement de la sonde (1 ) est une simple translation, une vitesse sensiblement constante et Ă©levĂ©e (avec la restriction prĂ©citĂ©e) est avantageusement appliquĂ©e durant l’exploration, avantageusement avec des variations infĂ©rieures Ă  une valeur seuil prĂ©dĂ©terminĂ©e, par exemple 10%, prĂ©fĂ©rentiellement 5 %. Cependant, en cas de mouvements de rotation ou de basculement, ou de mouvements combinĂ©s, il y a le cas Ă©chĂ©ant lieu de ralentir pour que le dĂ©placement du plan d’acquisition dans le volume en bout de sonde ne soit pas trop important au regard du nombre d'images 2D par seconde qu’il est possible d’acquĂ©rir.
[0048] En accord avec des variantes de rĂ©alisation avantageuses de l’invention, il peut ĂȘtre prĂ©vu que dans l’étape e), la visualisation des tissus ou structures (OVT) dans l’image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (VR) est rĂ©alisĂ©e par l’intermĂ©diaire d’un mode de visualisation parmi : i) une visualisation successive de vues en coupe correspondant Ă  des images interpolĂ©es 2D, ii) une visualisation 3D obtenue par une mĂ©thode de rendu volumique direct et iii) une visualisation 3D obtenue par une mĂ©thode de rendu surfacique, aprĂšs rĂ©alisation d’une phase de segmentation de ladite image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (VR).
[0049] ConformĂ©ment Ă  une possible caractĂ©ristique additionnelle de l’invention, le procĂ©dĂ© peut comprendre une Ă©tape finale supplĂ©mentaire h) consistant Ă  afficher simultanĂ©ment, et le cas Ă©chĂ©ant de maniĂšre superposĂ©e, au moins deux images 3D de la rĂ©gion volumique (RV) du sujet (S) s’étendant depuis la peau (P) jusqu’à la cible (C) concernĂ©e, et comprenant ces derniĂšres, ou en variante d’une rĂ©gion volumique plus restreinte renfermant l’emplacement de la cible (C), dont l’une a Ă©tĂ© prise avant l’intervention et le traitement au moyen de l’aiguille (3) et dont l’autre a Ă©tĂ© prise aprĂšs cette intervention. Cette Ă©tape optionnelle permet, aprĂšs achĂšvement du traitement, par fusion d’images avant/aprĂšs ou leur affichage en parallĂšle, de vĂ©rifier que le traitement effectuĂ© durant l’intervention affecte bien, en totalitĂ©, la zone de la cible (C).
[0050] Comme le montre la figure 2, le procĂ©dĂ© peut consister avant l’étape a) Ă  positionner le bras robotisĂ© (2) portant la sonde (1 ), par rapport au sujet (S) allongĂ© sur une table de chirurgie (9), de telle maniĂšre que l’embase (10) dudit bras robotisĂ© (2) est situĂ©e du cĂŽtĂ© latĂ©ral de ladite table (9) qui est opposĂ© Ă  celui occupĂ© par le praticien, et le cas Ă©chĂ©ant susceptible d’ĂȘtre soumis au passage de la sonde Ă©chographique 2D (1 ). Cette disposition permet d’éviter toute interfĂ©rence entre le praticien et le bras robotisĂ© (2) et aussi de pouvoir appliquer facilement une pression suffisante lors des explorations avec la sonde (1 ). [0051 ] L’indication des trajectoires d’insertion rectilignes possibles ou de la trajectoire optimisĂ©e de l’aiguille (3) peut ĂȘtre rĂ©alisĂ©e par le praticien, en vue de leur affichage dans les images 3D, soit de maniĂšre virtuelle au moyen de l’interface homme- machine, soit prĂ©fĂ©rentiellement par manipulation par le praticien du porte-aiguille (8) et validation de la position et de l’orientation de ce dernier par ledit praticien lorsque la trajectoire souhaitĂ©e s’affiche dans l’image 3D.
[0052] Le porte-aiguille (8) est avantageusement asservi en position de telle maniĂšre qu’il reste en permanence orientĂ© pour que la direction d’insertion de l’aiguille qu’il porterait passe par le centre de la cible (C).
[0053] Avantageusement, le praticien peut indiquer une trajectoire par un positionnement adĂ©quat du porte-aiguille (8) par exemple (sa position Ă©tant connue du fait de la connaissance de la position des deux bras robotisĂ©s par l’installation mĂ©dicale comprenant aussi les moyens d’affichage), afin de visualiser cette trajectoire durant l’acquisition de la premiĂšre image 3D produite de maniĂšre assistĂ©e durant l’étape b), mais Ă©galement durant l’étape d). Il est ainsi possible de fournir une information de guidage durant l’acquisition manuelle ou assistĂ©e des images 2D et de faciliter la visualisation du seul volume pertinent (pour Ă©viter l’affichage d’informations non pertinentes et susceptibles de distraire le praticien).
[0054] Plusieurs options sont possibles pour trouver une trajectoire d’insertion d’aiguille (possible, optimisĂ©e), qui se distinguent par leur degrĂ© d’automatisation.
[0055] Ainsi, en accord avec une option manuelle, il est possible pour le praticien de dĂ©placer le porte-aiguille (8) et de visualiser interactivement un volume tubulaire (VT) dont l’axe mĂ©dian (AML) correspond Ă  la trajectoire dĂ©coulant de l’orientation et du positionnement courants du porte aiguille (8). Dans ce cas, le praticien dĂ©place le porte-aiguille un peu au hasard, et s’il relĂšve une trajectoire possible, voire optimisĂ©e, il s’arrĂȘte. Il s’agit d’une approche conviviale et performante, puisque le porte-aiguille reste toujours dirigĂ© vers la cible.
[0056] Une seconde option consiste Ă  proposer au praticien une carte des options d’insertion possibles (par exemple sur un planisphĂšre de la rĂ©gion volumique). Ainsi, toute les options sont prises en compte et le praticien peut faire le meilleur choix de maniĂšre Ă©clairĂ©e. Lorsque son choix de trajectoire optimisĂ©e est fait, il dirige le porte-aiguille au plus proche de son choix en visualisant avantageusement la position de sa trajectoire dans ladite carte (planisphĂšre par exemple).
[0057] Enfin, selon une troisiĂšme option, il peut ĂȘtre envisagĂ© de crĂ©er une modĂ©lisation 3D de la rĂ©gion volumique (RV) intĂ©grant les structures (OVT) et la cible (C) Ă  partir de l’image 3D, puis de calculer la meilleure trajectoire et de la proposer directement au praticien.
[0058] Les explorations avec la sonde (1 ) de l’étape d) peuvent ĂȘtre rĂ©alisĂ©es de maniĂšre entiĂšrement automatique sur simple demande du praticien libĂ©rant ainsi totalement ce dernier de cette tĂąche.
[0059] En variante, et pour permettre au praticien de contrĂŽler d’avantage ces explorations et acquisition d’images postĂ©rieures, par exemple pour en limiter l’amplitude ou les centrer sur un volume rĂ©duit d’intĂ©rĂȘt qui peut varier, notamment durant l’insertion, le procĂ©dĂ© peut consister Ă  rĂ©aliser les explorations avec la sonde (1 ), qui sont postĂ©rieures Ă  l’étape c) et initiĂ©es Ă  l’initiative du praticien, de maniĂšre semi-automatique ou collaborative, le mouvement de dĂ©placement de la sonde (1 ) et l’ampleur de l’exploration Ă©tant dĂ©terminĂ©es par action manuelle du praticien, le dĂ©placement effectif de la sonde (1 ) Ă©tant nĂ©anmoins contraint par les paramĂštres de trajectoire dĂ©terminĂ©s Ă  l’étape c). Les dĂ©placements d’exploration de la sonde (1 ) peuvent s’effectuĂ©s soit bidirectionnellement, soit unidirectionellement avec repositionnement initial de la sonde (1 ) aprĂšs achĂšvement d’une exploration. Dans ce dernier cas, il peut Ă©ventuellement ĂȘtre envisagĂ© une relocalisation initiale automatique de la sonde (1 ) en regard de la cible (C), avec une position et une orientation adĂ©quates, par le bras robotisĂ© (2) avant chaque nouveau dĂ©placement exploratoire de cette derniĂšre effectuĂ© durant les Ă©tapes ultĂ©rieures.
[0060] En accord avec une variante de rĂ©alisation reposant sur une assistance plus poussĂ©e, permettant de s’assurer que la cible n’a pas bougĂ© ou, dans la nĂ©gative, de pouvoir estimer son dĂ©placement, notamment entre deux apnĂ©es, l’analyse des images 2D acquises Ă  l’étape a), en vue de l’identification et de la localisation de la cible (C) Ă  traiter, par exemple une tumeur cancĂ©reuse, est rĂ©alisĂ©e par ou avec l’assistance d’un algorithme, par exemple un programme d’intelligence artificielle ayant subi prĂ©alablement un apprentissage adĂ©quat, cette localisation de la cible (C) Ă©tant rĂ©pĂ©tĂ©e automatiquement Ă  chaque exploration et affichage d’image 3D suivante.
[0061 ] Les rĂ©pĂ©titions visĂ©es Ă  l’étape d) permettent de s'assurer de la position de la cible trĂšs frĂ©quemment. En particulier, au moins une rĂ©pĂ©tition est nĂ©cessaire aprĂšs l’étape b), lorsque le praticien ou clinicien a planifiĂ© et positionnĂ© une premiĂšre fois le porte-aiguille ou guide d'aiguille (8). En effet, cette phase est relativement longue et donc incompatible avec une apnĂ©e continue de la part du sujet (S). La rĂ©alisation rĂ©pĂ©tĂ©e de l’étape d) permet de corriger, comme le prĂ©voit l’étape f), une attendue erreur de repositionnement de la cible (C) et des organes, tissus et structures (OVT) environnants Ă  la cible (C) au moment de l’apnĂ©e (deuxiĂšme, troisiĂšme, ...) durant laquelle aura rĂ©ellement lieu l'insertion de l'aiguille (3).
[0062] Selon une autre caractĂ©ristique avantageuse de l’invention, le dĂ©placement par le praticien de la sonde Ă©chographique (1 ) dans les Ă©tapes a) et b), est contrĂŽlĂ© par contrainte et limitation de mouvement par le bras robotisĂ© (2), en termes d’orientation et de position de la sonde (1 ) par rapport Ă  la peau (P) du sujet (S) et de vitesse de dĂ©placement, le praticien pouvant avantageusement rĂ©gler la consigne de pression d’application de la sonde (1 ) sur la peau (P), contrĂŽlĂ©e par le bras robotisĂ© (2) durant le dĂ©placement et/ou dĂ©sactiver l’assistance du bras robotisĂ© (2), par le biais de moyens adĂ©quats faisant partie de l’interface homme- machine (6, 7). Ces dispositions permettent d’éviter des mouvements nĂ©fastes de la sonde (1 ) impliquant potentiellement une reconstruction des images 3D laborieuse et chronophage, voire impossible. En effet, durant chaque exploration, les images 2D successivement acquises doivent, autant que possible, se suivre les unes aprĂšs les autres de maniĂšre rĂ©guliĂšre et continue, et il faut notamment Ă©viter les chevauchements de ces images et les intersections entre ces images. Ce afin de produire une suite l'images 2D dont la position relative et les conditions d'acquisition facilitent le calcul et la cohĂ©rence de l'image rĂ©sultante 3D. La dĂ©sactivation de l’assistance du bras robotisĂ© peut ĂȘtre souhaitĂ©e pour un contrĂŽle plus fin par le praticien, avec moins d’effort.
[0063] En complĂ©ment ou alternativement Ă  la caractĂ©ristique prĂ©cĂ©dente, l’invention peut prĂ©voir que la pression d’application de la sonde (1 ) sur la peau (P) est, durant le dĂ©placement de cette derniĂšre Ă  chaque exploration effectuĂ©e durant la phase b) et/ou la phase d), contrĂŽlĂ©e automatiquement par le bras robotisĂ© (2) par contrĂŽle en temps rĂ©el de la valeur de cette pression au moyen d’un capteur adĂ©quat ou d’une boucle d’asservissement exploitant le rĂ©sultat d’une analyse de la qualitĂ© de l’image Ă©chographique 2D gĂ©nĂ©rĂ©e en temps rĂ©el, ladite pression d’application Ă©tant minimisĂ©e durant les phases d), e) et f) Ă  une valeur permettant tout juste d’acquĂ©rir des images 2D de qualitĂ© suffisante pour produire une image 3D standardisĂ©e, afin de gĂ©nĂ©rer une dĂ©formation minimale des tissus visualisĂ©s.
[0064] L’asservissement vise, notamment dans les trois derniĂšres phases prĂ©citĂ©es, en particulier Ă  optimiser la qualitĂ© des images 2D produites tout en limitant au maximum la pression exercĂ©e sur la peau (P) du patient ou sujet (S) afin de limiter au maximum les dĂ©formations induites au niveau des tissus et structures sous- jacentes.
[0065] Durant la premiĂšre exploration assistĂ©e par un clinicien lors de l’étape b), il peut aussi ĂȘtre mis en oeuvre un contrĂŽle effectif de la pression, a fortiori si le bras robotisĂ© est en mode exosquelette, afin de ne pas blesser le patient.
[0066] Durant la phase de calcul d'une trajectoire idĂ©ale, des Ă©tapes d) Ă  f) (phases de planification et de replanification), il y a potentiellement plusieurs passages ou explorations, de maniĂšre automatique pour calibrer le dĂ©placement de maniĂšre Ă  dĂ©terminer une pression d'application la plus faible possible, mais permettant tout de mĂȘme d'acquĂ©rir des images de qualitĂ©.
[0067] Enfin, durant l’étape g) (durant laquelle des images 3D sont acquises rĂ©guliĂšrement), il y a un contrĂŽle permanent de la pression de maniĂšre Ă  prendre en compte un possible dĂ©placement du patient ou un Ă©ventuel problĂšme avec le bras robotisĂ©.
[0068] Avantageusement, la production d’images 3D sensiblement standardisĂ©es au niveau des Ă©tapes c), d) et f) est rĂ©alisĂ©e automatiquement, sur la base des images 2D produites par la sonde (1 ) manipulĂ©e par le bras robotisĂ© (2), Ă  chaque commande ou avec la participation du praticien, en faisant suivre Ă  la sonde (1 ) une trajectoire dĂ©terminĂ©e, notamment optimisĂ©e en termes de position et d’orientation de la sonde (1 ) par rapport Ă  la peau (P) du sujet (S) et de vitesse de dĂ©placement de la sonde (1 ), lors du dĂ©placement, cette trajectoire ayant Ă©tĂ© dĂ©terminĂ©e durant ou aprĂšs l’étape b). [0069] Afin de permettre l’acquisition d’images de bonne qualitĂ©, le procĂ©dĂ© selon l’invention peut en outre consister, sur demande ou automatiquement, Ă  rĂ©pandre par aspersion, par l’intermĂ©diaire d’un dispositif adĂ©quat associĂ© ou intĂ©grĂ© Ă  la sonde (1 ), du gel de contact Ă©chographique devant et/ou derriĂšre la sonde (1 ) au cours d’un, prĂ©fĂ©rentiellement de chaque dĂ©placement exploratoire. Cette disposition permet avantageusement d'Ă©viter que la sonde (1 ) ne fasse disparaĂźtre le gel prĂ©sent et nĂ©cessaire, passage aprĂšs passage, compromettant ainsi de maniĂšre certaine la qualitĂ© des images Ă©chographiques acquises Ă  cause d'un contact, et donc d’une transmission, acoustique mĂ©diocre.
[0070] Pour marquer et comprendre la trajectoire potentielle de l’aiguille dans le corps du patient, et en accord avec une autre caractĂ©ristique avantageuse de l’invention, la visualisation en 3D des organes, vaisseaux et/ou tissus (structures molles ou fragiles OVT) prĂ©sents entre surface de la peau (P) et la cible (C) telle que prĂ©vue Ă  l’étape e), comprend l’affichage par surimpression d’un motif de collimation ou de visĂ©e centrĂ© sur la cible (C), permettant de dĂ©finir et de simuler visuellement la trajectoire virtuelle d’insertion de l’aiguille (3) pour un positionnement et une orientation donnĂ©s du porte-aiguille (8), et avantageusement par interaction par le biais de l’interface homme-machine, d’explorer les possibilitĂ©s de trajectoire rectiligne d’insertion de l’aiguille (3) et de point d’entrĂ©e dans le sujet (S) et de sĂ©lectionner une ou des proposition(s). Ce motif (par exemple une croix comme sur la figure 8) est mis en place et visible lorsque la cible est vue dans l’image 3D affichĂ©e (par exemple d’un volume rĂ©duit VR comme celui des figures 7A et 7B) selon l’axe de la direction d’insertion concernĂ©e.
[0071 ] L’exploration des possibilitĂ©s de trajectoire rectiligne d’insertion de l’aiguille (3) peut ĂȘtre rĂ©alisĂ©e par le praticien en manipulant physiquement le porte aiguille (8) portĂ© par l’autre bras robotisĂ© (4), puis en enregistrant et en demandant la visualisation de la ou des trajectoires retenues par lui dans les images 3D (par l’intermĂ©diaire de moyens de commande adĂ©quats de l’interface homme-machine).
[0072] En variante, il peut ĂȘtre prĂ©vu de rĂ©aliser l’exploration des possibilitĂ©s de trajectoire rectiligne d’insertion de l’aiguille (3) en simulant ou en rĂ©alisant collaborativement un dĂ©placement contraint de l’autre bras robotisĂ© (4) et donc du porte-aiguille (8), par exemple sous la forme d’un mouvement contraint de rotule, de telle maniĂšre que la trajectoire d’insertion passe toujours par le centre de la cible (C) quelle que soit la position dudit bras (4) et dudit porte-aiguille (8).
[0073] PrĂ©fĂ©rentiellement, la dĂ©termination du positionnement et de l’orientation du porte-aiguille (8) en vue d’une possible trajectoire d’insertion optimale par exploitation d’une visualisation en 3D des organes, vaisseaux et/ou tissus ou structures (OVT) prĂ©sents entre la peau (P) et la cible (C), telle que prĂ©vue Ă  l’étape e), comprend l’analyse automatique et l’affichage d’au moins une, prĂ©fĂ©rentiellement de plusieurs proposition(s) de trajectoire rectiligne d’insertion de l’aiguille (3) et de point d’entrĂ©e (PE) dans le sujet (S), chacune associĂ©e Ă  une orientation ou une pluralitĂ© d’orientations contenues dans un cĂŽne virtuel dont le sommet touche la cible (C), par exemple le centre de celle-ci, le praticien pouvant sĂ©lectionner ou valider la ou l’une des proposition(s) par l’intermĂ©diaire de l’interface homme-machine. Ce cĂŽne est normalement compris dans le volume tronconique (VR) dĂ©limitant le volume affichĂ©. Lorsque plusieurs cĂŽnes peuvent ĂȘtre identifiĂ©s, il peut ĂȘtre avantageux de choisir le cĂŽne le plus grand pour dĂ©terminer une trajectoire effective d’insertion la plus sĂ©curisĂ©e possible.
[0074] Afin de limiter les ressources nĂ©cessaires pour un affichage augmentĂ© (cible, structures, trajectoire) utile au praticien et de pouvoir rĂ©aliser cet affichage avec un rafraichissement en temps rĂ©el, le procĂ©dĂ© peut consister, aprĂšs sĂ©lection d’une proposition de trajectoire d’insertion de l’aiguille (3) et de point d’entrĂ©e (PE) dans le sujet (S), Ă  visualiser un volume tubulaire cylindrique limitĂ© (VT) avec comme axe mĂ©dian longitudinal (AML) ladite trajectoire et permettant de visualiser les organes, vaisseaux et/ou tissus ou structures (OVT) Ă©ventuellement prĂ©sents dans ce volume. Cet affichage rĂ©duit peut Ă©galement dĂ©jĂ  ĂȘtre rĂ©alisĂ© lors de la phase exploratoire des trajectoires possibles. Ainsi, seules les structures proches de la trajectoire d’insertion et donc pertinentes seront affichĂ©es dans le volume limitĂ© visualisĂ©. Un tel volume tubulaire peut par exemple prĂ©senter un diamĂštre compris entre 1 ,5 et 3 cm, avantageusement de l’ordre de 2 cm.
[0075] Selon une autre caractĂ©ristique possible de l’invention, alternative ou complĂ©mentaire de la caractĂ©ristique prĂ©cĂ©dente, l’étape g) peut comprendre la segmentation prĂ©alable de l’aiguille (3) dans les images acquises successivement au fur et Ă  mesure de l’insertion de l’aiguille (3) et en ce que le volume (VR) visualisĂ© consiste en un volume allongĂ© selon la direction d’insertion de l’aiguille (3), prĂ©fĂ©rentiellement un volume tubulaire comprenant ladite cible (C) et au moins une portion d’extrĂ©mitĂ© (3’) de l’aiguille, ainsi que le volume intermĂ©diaire (VP) situĂ© entre eux, avec les organes, vaisseaux et/ou tissus ou structures (OVT) Ă©ventuellement prĂ©sents dans ce volume. Il est ainsi possible de connaĂźtre quantitativement la distance Ă  la cible restant Ă  couvrir par l’aiguille durant son insertion et aprĂšs l’acquisition de chaque image 3D. De plus, cette disposition permet Ă©galement de vĂ©rifier si la trajectoire est toujours dirigĂ©e vers la cible, cette derniĂšre pouvant Ă©ventuellement bouger durant l’insertion. En outre, il sera Ă©galement possible de visualiser en temps rĂ©el la flexion de l’aiguille durant son insertion et procĂ©der Ă  une Ă©ventuelle lĂ©gĂšre correction de trajectoire si nĂ©cessaire. Enfin, en limitant l’affichage Ă  un tel volume limitĂ© et centrĂ© sur l’aiguille en cours d’insertion, Ă©ventuellement couplĂ© Ă  une ampleur d’exploration de la sonde plus limitĂ©e, il est possible de faciliter la visualisation en termes de ressources et de rĂ©activitĂ©, tout en limitant les risques de distraction par affichage d’informations pĂ©riphĂ©riques non pertinentes.
[0076] Afin de gagner du temps durant l’acquisition et la visualisation, et donc limiter la durĂ©e de l’apnĂ©e du patient, tout en fournissant les informations visuelles nĂ©cessaires au praticien durant l’insertion, il est trĂšs favorablement prĂ©vu que, dans l’étape g), la dĂ©limitation du volume rĂ©duit (VR) destinĂ© Ă  ĂȘtre visualisĂ© en 3D est asservi au mouvement d’insertion de l’aiguille (3) et assujetti Ă  la fraction de trajectoire restant Ă  parcourir Ă  la portion d’extrĂ©mitĂ© (3’) de l’aiguille (3) jusqu’à la cible (C), cette dĂ©limitation Ă©tant rĂ©alisĂ©e soit en amont lors de l’acquisition des images 2D, soit en aval lors de la visualisation 3D.
[0077] Dans les deux cas Ă©voquĂ©s ci-dessus, chacun des volumes (VT) ou (VR) visualisĂ© peut donc varier en taille au cours de l’insertion pour se limiter Ă  un volume plus rĂ©duit comprenant seulement une portion d’extrĂ©mitĂ© (3’) de l’aiguille (3) et un volume (VP) prĂ©cĂ©dant cette extrĂ©mitĂ© (3’) durant l’insertion jusqu’à la cible (C), comme le montre par exemple la figure 4.
[0078] L’invention a Ă©galement pour objet, selon un deuxiĂšme aspect, un procĂ©dĂ© collaboratif d’insertion d’une aiguille (3) dans un sujet vivant (S), mettant en oeuvre une installation mĂ©dicale (5) comprenant, d’une part, au moins une interface homme-machine avec un dispositif d’affichage (6) et des moyens (7) de commande ou de contrĂŽle et, d’autre part, au moins le bras robotisĂ© (2) portant ladite sonde Ă©chographique 2D (1 ), dont la position et l’orientation sont connues en temps rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă  chaque exploration, par ladite installation (5), ladite installation (5) comportant en outre un autre ou second bras robotisĂ© (4) sur lequel est fixĂ© un porte-aiguille ou guide d’aiguille (8), au moins la position relative des deux bras (2 et 4) entre eux Ă©tant connue en permanence par ladite installation (5), ledit procĂ©dĂ© comprenant une phase prĂ©paratoire de planification prĂ©cĂ©dant l’opĂ©ration d’insertion effective, cette derniĂšre Ă©tant rĂ©alisĂ©e automatiquement par le second bras robotisĂ© (4) ou par un praticien avec guidage par ce second bras robotisĂ© (4), le porte-aiguille ou guide d’aiguille (8) Ă©tant prĂ©positionnĂ© et prĂ©orientĂ© durant la phase prĂ©paratoire.
[0079] ConformĂ©ment Ă  l’invention, ce procĂ©dĂ© d’insertion est caractĂ©risĂ© en ce qu’il consiste Ă  mettre en oeuvre le procĂ©dĂ© assistĂ© et interactif de production et d’affichage d’images Ă©chographiques 3D tel que dĂ©crit ci-dessus, et notamment les Ă©tapes a) Ă  e) prĂ©citĂ©es durant une phase prĂ©paratoire de planification, l’étape f) durant une phase de replanification consĂ©cutive Ă  la phase prĂ©paratoire de planification et immĂ©diatement avant le dĂ©but de l’insertion de l’aiguille (3) et l’étape g) durant l’opĂ©ration effective de l’insertion de l’aiguille (3), la phase de replanification et l’opĂ©ration d’insertion de l’aiguille (3) se dĂ©roulant durant une mĂȘme phase d’apnĂ©e du sujet (S).
[0080] Ce procĂ©dĂ© collaboratif d’insertion intĂšgre donc de maniĂšre intime le procĂ©dĂ© assistĂ© et interactif de production et d’affichage d’images Ă©chographiques 3D et est tributaire pour ses diffĂ©rentes phases constitutives des Ă©tapes respectivement associĂ©s de ce dernier procĂ©dĂ©.
[0081 ] Il convient de noter que la rĂ©alisation de l’insertion elle-mĂȘme peut ĂȘtre collaborative (guidĂ©e par le porte-aiguille tenu par le second bras robotisĂ© et poussĂ©e par le praticien) ou entiĂšrement automatique par le biais du seul second bras robotisĂ© (4) insĂ©rant l’aiguille par l’intermĂ©diaire du porte-aiguille.
[0082] PrĂ©fĂ©rentiellement, et compte tenu du fait que la cible peut bouger lors de l’insertion, il peut ĂȘtre envisager de compenser les mouvements et dĂ©placements Ă©ventuels de la cible intervenant pendant l’insertion de l’aiguille (3), par une modification de l’orientation du porte-aiguille ou guide d’aiguille (8) par le bras robotisĂ© (4) le portant (et donc de l’orientation de la trajectoire de l’aiguille), rĂ©alisĂ©e automatiquement ou par le praticien, avec une contrainte limitative. Un autre motif de compensation peut rĂ©sider dans une Ă©ventuelle flexion de l’aiguille en cours d’insertion.
[0083] En accord avec un mode de rĂ©alisation avantageux de l’invention, la phase de replanification, rĂ©alisĂ©e en dĂ©but de l’apnĂ©e durant laquelle l’insertion doit ĂȘtre effectuĂ©e, consiste Ă  crĂ©er une nouvelle image 3D standardisĂ©e en accord avec l’étape f), Ă  vĂ©rifier l’adĂ©quation du positionnement du porte-aiguille (8) et de la trajectoire rĂ©sultante par rapport Ă  la situation visualisĂ© dans cette nouvelle image 3D et Ă  effectuer, le cas Ă©chĂ©ant, automatiquement ou non, et au moins aprĂšs validation par le praticien, un possible ajustement de l’orientation dudit porte- aiguille ou guide d’aiguille (8) nĂ©cessaire pour retrouver une trajectoire d’insertion optimisĂ©e prenant en compte une Ă©ventuelle modification mineure de la position de la cible (C) et/ou des structures molles (OVT) entre deux apnĂ©es du sujet (S).
[0084] L’ajustement consistera au plus Ă  modifier lĂ©gĂšrement l’orientation du porte- aiguille (8) contraint par un passage de la trajectoire Ă  travers le point d’entrĂ©e (PE) sĂ©lectionnĂ© prĂ©alablement.
[0085] Enfin, l’invention porte Ă©galement, selon un troisiĂšme aspect, et comme cela ressort par exemple des figures 1 et 2, sur une installation mĂ©dicale (5) pour la mise en oeuvre du procĂ©dĂ© de production d’images prĂ©citĂ©, et prĂ©fĂ©rentiellement du procĂ©dĂ© d’insertion d’aiguille (3) tel qu’évoquĂ© prĂ©cĂ©demment, cette installation (5) comprenant, d’une part, au moins une interface homme-machine avec un dispositif d’affichage (6) et des moyens (7) de commande ou de contrĂŽle et, d’autre part, au moins le bras robotisĂ© (2) portant ladite sonde Ă©chographique 2D (1 ), dont la position et l’orientation sont connues en temps rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă  chaque exploration, par ladite installation (5).
[0086] Bien entendu, la sonde Ă©chographique 2D (1 ) est reliĂ©e Ă  un appareil de traitement d’images permettant la production d’images 3D et faisant partie de l’installation mĂ©dicale.
[0087] Cette installation est caractĂ©risĂ©e en ce qu’elle comprend Ă©galement, d’une part, un autre ou second bras robotisĂ© (4) sur lequel est fixĂ© un porte-aiguille (8), au moins la position relative des deux bras (2 et 4) entre eux Ă©tant connue en permanence par ladite installation (5), et, d’autre part, des moyens pour l’acquisition contrĂŽlĂ©e, le traitement et l’exploitation d’images produites par la sonde Ă©chographique 2D (1 ) lorsque cette derniĂšre est dĂ©placĂ©e lors d’une exploration sur un sujet vivant (S) par le bras robotisĂ© (2) concernĂ©, ou par un praticien avec l’assistance dudit bras robotisĂ© (2), ces moyens permettant la mise en oeuvre du procĂ©dĂ© assistĂ© et interactif de production et d’affichage d’images Ă©chographiques 3D dĂ©crit ci-dessus.
[0088] La connaissance de la position relative des deux bras robotisĂ©s (2 et 4) par l’installation peut rĂ©sulter de leur fabrication (montĂ©s sur une mĂȘme embase), de leur possible assemblage mutuel aprĂšs fabrication (liaison mĂ©canique amovible entre les deux bras) ou de leur mise en place in situ. Cette connaissance intrinsĂšque permet notamment de s’affranchir de l’utilisation d’une camĂ©ra, avec les inconvĂ©nients qui en rĂ©sultent, et de toute opĂ©ration de recalage. Les deux bras robotisĂ©s (2 et 4) sont prĂ©fĂ©rentiellement des robots six axes et constituent ensemble avec leurs moyens de commande et de pilotage un dispositif robotique ou robot coopĂ©rant de maniĂšre interactive avec le dispositif Ă©chographique et l’interface homme-machine, le cas Ă©chant sous le contrĂŽle d’une unitĂ© de commande centralisĂ©e de l’installation.
[0089] De maniĂšre avantageuse et comme le montrent les figures 1 et 2, les deux bras robotisĂ©s (2 et 4) sont montĂ©s sur une mĂȘme et unique embase (10), en Ă©tant avantageusement cinĂ©matiquement et structurellement sĂ©parĂ©s et indĂ©pendants entre eux. Les deux bras ne sont pas reliĂ©s entre eux, sauf Ă  ĂȘtre montĂ©s sur la mĂȘme embase. Cette embase intĂšgre avantageusement une unitĂ© de commande de ces deux bras (2 et 4) et est prĂ©fĂ©rentiellement Ă©quipĂ©e de moyens de roulement et associĂ©e Ă  un moyen de contrĂŽle (7) de chaque bras, par exemple une pĂ©dale, faisant partie de l’interface homme-machine. Les deux bras s’étendent ainsi sĂ©parĂ©ment et librement entre eux depuis l’embase, laquelle renferme leurs moyens de commande et de pilotage et dĂ©termine physiquement leur rĂ©fĂ©rentiel commun.
[0090] Les moyens pour l’acquisition contrĂŽlĂ©e, le traitement et l’exploitation d’images produites par la sonde Ă©chographique 2D (1 ), en liaison communicative avec le moyen d’affichage (1 1 ), peuvent par exemple ĂȘtre logĂ©s dans cette embase (10). [0091 ] PrĂ©fĂ©rentiellement, l’interface homme-machine comprend une console de commande (1 1 ), Ă©ventuellement montĂ©es sur des moyens de roulement, comportant des moyens informatiques de calcul et de traitement de donnĂ©es, notamment des algorithmes et logiciels de traitement d’images, et le dispositif d’affichage (6), avantageusement sous la forme d’un dispositif d’affichage tactile, ladite console de commande (1 1 ) interagissant avec les deux bras robotisĂ©s (2 et 4).
[0092] Avec la description qui suit, un mode de rĂ©alisation particulier de l’invention est exposĂ© plus en dĂ©tail, incorporant les deux procĂ©dĂ©s et l’installation, ainsi que leurs possibles variantes ou options possibles.
[0093] En premier lieu, il est fourni un dispositif robotique comprenant deux bras robotisĂ©s (2 et 4) montĂ©s cĂŽte Ă  cĂŽte, par exemple sur une mĂȘme embase, dont l’un manipule une sonde Ă©chographique 2D (1 ) et dont l’autre manipule un porte- aiguille (8). A ce dispositif est associĂ© une interface homme machine comprenant une console de commande (1 1 ) avec Ă©cran interactif (6) et des moyens de commande (7).
[0094] Le premier bras (2) manipule, de maniĂšre autonome ou semi-autonome, la sonde Ă©chographique 2D (1 ) afin de balayer une large zone comprenant la rĂ©gion d’insertion de l’aiguille (3) et les structures environnantes (OVT). Ce balayage va ainsi permettre de crĂ©er Ă  la demande des images 3D en quasi-temps-rĂ©el.
[0095] La toute premiĂšre fois, le balayage sera effectuĂ© manuellement par l’utilisateur (praticien / clinicien) qui co-manipulera la sonde (1 ) sous l’assistance du bras robotisĂ©. Cela permet de faciliter mais Ă©galement de lĂ©gĂšrement contraindre le geste du praticien pour se rapprocher d’une trajectoire idĂ©ale.
[0096] À partir de ce premier enregistrement, une trajectoire sera calculĂ©e afin de rendre le mouvement de la sonde Ă©chographique manipulĂ©e par le robot optimal en termes de vitesse, de pression appliquĂ©e et du nombre d’images 2D acquises permettant d’obtenir une image 3D de grande qualitĂ© de maniĂšre autonome.
[0097] La position de la cible (C) est dĂ©tectĂ©e automatiquement et en temps-rĂ©el dans les images Ă©chographique 3D acquises successivement. [0098] Les structures Ă  prĂ©server (OVT) sont quant Ă  elles rendues visibles dans ces images 3D de maniĂšre Ă  permettre au clinicien de visualiser l’ensemble des options d’insertions sĂ©curisĂ©es disponibles et ainsi de lui permettre de faire un choix rĂ©ellement Ă©clairĂ©.
[0099] La rapiditĂ© d’acquisition des images et les outils de rectifications de la planification permettent d’effectuer les inĂ©vitables ajustements nĂ©cessaires pour prendre en compte la potentielle et presque inĂ©vitable modification de la position de la cible (C) entre la phase de planification et la phase d’exĂ©cution du geste (insertion). En effet, les phases de planification et d’exĂ©cution sont nĂ©cessairement effectuĂ©es Ă  partir de deux images diffĂ©rentes puisque associĂ©es Ă  deux apnĂ©es diffĂ©rentes.
[0100] Pour ce faire, le second bras robotisĂ© (4) manipule un guide d’aiguille ou porte- aiguille (8) qui est toujours orientĂ© en direction de la cible (C), autrement dit la direction de la trajectoire qu’il impose Ă  l’aiguille qu’il reçoit passe toujours par la cible (asservissement de l’orientation). Ce second bras (4) est en mesure, aprĂšs validation du clinicien, de corriger lĂ©gĂšrement son orientation, et donc celle du porte-aiguille et de la direction longitudinale et trajectoire de l’aiguille, pour compenser un changement de position de la cible (C) entre la phase de planification et la phase d’exĂ©cution.
[0101 ] Tout au long de l’insertion manuelle de l’aiguille effectuĂ©e par le praticien et guidĂ©e Ă  travers le porte-aiguille ou guide d’aiguille (8), grĂące Ă  la crĂ©ation et la visualisation automatique ou semi-automatique, rapide et rĂ©guliĂšre d’images 3D, il est possible de visualiser Ă  la fois la trajectoire de l’aiguille (3), la cible (C) et les structures environnantes (OVT), permettant de garantir la sĂ©curitĂ© et la prĂ©cision du geste.
[0102] La comparaison effectuĂ©e aprĂšs le traitement entre une image acquise avant et une seconde image acquise aprĂšs le traitement permet de faciliter l’évaluation de la qualitĂ© et de l’étendue du traitement.
[0103] Les images 2D qui permettent de crĂ©er la premiĂšre image 3D sont acquises manuellement en utilisant la capacitĂ© du robot Ă  contraindre les mouvements du bras du clinicien mais Ă©galement Ă  l’assister car : [0104] - Cela permet d’utiliser la compĂ©tence du praticien pour acquĂ©rir un volume idĂ©alement bien placĂ© comprenant les trajectoires possibles de l’aiguille (3) et des structures adjacentes (OVT) sans nĂ©cessiter une intelligence robotique par ailleurs difficilement compatible avec les obligations rĂšglementaires.
[0105] - Cela permet d’assister le praticien afin de rendre l’exĂ©cution de son geste plus aisĂ© grĂące Ă  l’assistance du robot qui saura appliquer une force suffisante mais minimale de maniĂšre Ă  limiter au maximum la dĂ©formation des tissus.
[0106] - Cela permet de contraindre le mouvement de la sonde de maniĂšre Ă  acquĂ©rir un ensemble d’images 2D cohĂ©rentes, associĂ©es Ă  leurs positions, tout en Ă©vitant d’acquĂ©rir des images qui se chevauchent rendant la crĂ©ation de l’image 3D rĂ©sultante ardue voire impossible.
[0107] - Cela permet d’enregistrer une trajectoire du bras robotisĂ© (2) trĂšs proche de la trajectoire finale optimisĂ©e Ă©vitant ainsi les risques de collision entre ledit bras robotisĂ© (2) et le patient (S).
[0108] Une trajectoire optimale est obtenue par calcul à partir de la trajectoire enregistrée acquise par le praticien car :
[0109] - Cela permet d’appliquer une force minimale sur les tissus avec la sonde (1 ) tout en garantissant une qualitĂ© d’image optimale.
[01 10] - Cela permet d’adapter la vitesse de la sonde (1 ) pour minimiser la durĂ©e de l’acquisition tout en acquĂ©rant un nombre d’images 2D suffisant pour garantir la qualitĂ© de l’image 3D rĂ©sultante.
[01 11 ] - Cela permet par la suite au robot d’acquĂ©rir de maniĂšre autonome ou de maniĂšre semi-autonome (sous l’impulsion de la main du praticien) des images en continu afin de pouvoir suivre le mouvement de l’aiguille (3) Ă  l’intĂ©rieur du patient (S) durant l’insertion.
[01 12] La détection automatique de la cible (C) en utilisant par exemple une intelligence artificielle est mise en oeuvre, mais aprÚs une premiÚre validation manuelle car :
[01 13] - Une premiĂšre validation manuelle de la cible (C) rendra la dĂ©tection plus fiable. [01 14] - Cela permettra Ă  la sonde Ă©chographique (1 ) de reconnaĂźtre la tumeur (cible) de maniĂšre autonome et ainsi de s’assurer en quasi-temps-rĂ©el de sa position aprĂšs chaque passage de la sonde (1 ) portĂ© par le bras robotisĂ© (2).
[01 15] Dans le cadre de la recherche de la meilleure trajectoire d’insertion possible, le bras robotisĂ© qui tient le porte-aiguille (8) est contraint, afin que la direction de la trajectoire de l’aiguille dĂ©finie par le porte-aiguille reste toujours dirigĂ©e vers la cible (C) car :
[01 16] - C’est un gain de temps important et ne nĂ©cessite pas de rĂ©glage fastidieux, tout en Ă©tant aisĂ© puisque l’information de la position de la cible est disponible.
[01 17] - Cela permet d’explorer un grand nombre de positions de maniĂšre simplifiĂ©e et conviviale.
[01 18] Pour chaque position du porte-aiguille (8) et en temps-rĂ©el, il est proposĂ© de limiter la visualisation de l’image 3D Ă  un cylindre (VT, VR) localisĂ© autour de la trajectoire car :
[01 19] - Cela facilite la visualisation de la cible (C) et des structures molles/fragiles environnantes (OVT), en particulier vasculaires, grĂące Ă  la crĂ©ation d’un nĂ©gatoscope 3D limitĂ© Ă  ce volume ou encore Ă  travers l’usage du rendu volumique.
[0120] - Cela permet de s’assurer que sur ou dans un voisinage de taille raisonnable autour de la trajectoire de l’aiguille (3), aucune structure fragile Ă  prĂ©server n’est prĂ©sente.
[0121 ] Une carte de toutes les options potentielles pour le passage de l’aiguille est proposĂ©e en juxtaposant la projection des diffĂ©rentes reprĂ©sentations volumiques sur un planisphĂšre car :
[0122] - Le dĂ©placement manuel du porte-aiguille (8) contraint par le bras robotisĂ© toujours dirigĂ© vers la cible (C) permet d’obtenir une visualisation du cylindre en projection afin de comprendre si des structures fragiles (OVT) se trouvent dans ce volume. Il est prĂ©vu de prĂ©calculer ces projections pour toutes les trajectoires raisonnables possibles de l’aiguille et d’afficher le rĂ©sultat sur une carte Ă  l’instar d’un planisphĂšre terrestre sur lequel sont reprĂ©sentĂ©s terres et mers.
[0123] - De cette maniĂšre, il est possible de choisir la meilleure trajectoire, c’est-Ă -dire celle qui permet une insertion d’aiguille (3) en Ă©tant le plus loin possible des structures fragiles (OVT) et en ayant une connaissance (le praticien) a priori de toutes les trajectoires possibles, Ă©vitant ainsi de perdre du temps en tĂątonnements le plus souvent fastidieux.
[0124] Il est possible Ă©ventuellement de calculer la position de la cible, des organes voisins et de leurs vascularisations Ă  l’aide d’une Intelligence Artificielle ayant subi un apprentissage adaptĂ© ou d’un logiciel analogue, Ă  partir d’une image peropĂ©ratoire 3D Ă©chographique. Cela permet d’utiliser cette modĂ©lisation 3D pour calculer automatiquement la trajectoire optimale permettant d’atteindre la cible.
[0125] Il est aussi possible, le cas Ă©chĂ©ant, de calculer le recalage non-rigide d’une image prĂ©opĂ©ratoire 3D scanner avec l’image peropĂ©ratoire 3D Ă©chographique. Cela permet d’utiliser une modĂ©lisation 3D de cette image prĂ©opĂ©ratoire pour calculer automatiquement la trajectoire optimale permettant d’atteindre la cible.
[0126] Une fois la planification effectuĂ©e Ă  partir d’une image 3D Ă©chographique devenue obsolĂšte et le porte-aiguille (8) positionnĂ©, une nouvelle image 3D est acquise, automatiquement ou semi-automatiquement, en dĂ©but de phase d’insertion. Cette acquisition permet de dĂ©tecter la nouvelle position de la tumeur (cible) et d’effectuer automatiquement la trĂšs lĂ©gĂšre, mais systĂ©matiquement nĂ©cessaire, modification de l’orientation du porte-aiguille (8) de maniĂšre Ă  ĂȘtre toujours parfaitement bien dirigĂ© en direction de la nouvelle position de la cible (C) car :
[0127] - Cela permet de prendre en compte la modification inĂ©vitable de la cible (C) entre la phase de planification et la phase d’insertion associĂ©es Ă  des images acquises durant des apnĂ©es distinctes puisque acquises Ă  deux instants diffĂ©rents.
[0128] - De cette maniĂšre, la modification d’orientation du porte-aiguille (8) est restreinte Ă  un mouvement de rotation autour du point d’entrĂ©e (PE) et est extrĂȘmement limitĂ©e Ă©vitant tout risque de contact entre le bras robotisĂ© (4) et le patient (S).
[0129] - Cela permet au praticien d’évaluer Ă  nouveau le cylindre (VT, VR) autour de la nouvelle trajectoire. Et par consĂ©quent de confirmer que la nouvelle trajectoire est bien valide. [0130] Le praticien va insĂ©rer l’aiguille manuellement tout en pouvant visualiser les tissus et structures localisĂ©s sur la trajectoire de l’aiguille (3) et situĂ©s entre le bout de l’aiguille (3’) et la cible (C) grĂące aux images 3D acquises automatiquement ou semi-automatiquement par le bras robotisĂ© (2) avec la sonde (1 ) car :
[0131 ] - Cela permet de dĂ©tecter automatiquement la position de la cible (C) et donc de s’assurer que la direction de l’aiguille est toujours correcte.
[0132] - Cela permet au praticien, si l’alignement n’est plus parfait, de modifier lĂ©gĂšrement la courbure de l’aiguille pour modifier sa trajectoire.
[0133] - Cela permet de visualiser la progression de l’aiguille (3) en quasi-temps-rĂ©el afin de rĂ©ellement positionner le bout de l’aiguille (3’) au centre de la cible (C). Cela est rendu possible mĂȘme si la cible bouge lĂ©gĂšrement sous l’effet des dĂ©formations induites par l’aiguille et donc mĂȘme si sa position change en termes de profondeur.
[0134] Il est Ă©ventuellement possible d’extraire automatiquement la position de l’aiguille (3) dans les images 3D Ă©chographiques grĂące Ă  une Intelligence Artificielle ou un logiciel analogue adaptĂ©, afin de calculer automatiquement sa progression en quasi-temps-rĂ©el dans le patient (S) pour ne pas s’appuyer uniquement sur un retour visuel.
[0135] Il est prĂ©vu de dĂ©poser systĂ©matiquement et automatiquement de part et d’autre de la sonde Ă©chographique (2) du gel Ă©chographique car :
[0136] - Cela va permettre de conserver une qualitĂ© d’image correcte mĂȘme lorsque la sonde (1 ) aura effectuĂ© plusieurs allers et retours et aurait nettoyĂ© la peau (8) du patient (S).
[0137] - Cela Ă©vite d’irriter la peau (8) du patient (S) Ă  cause des frottements de la sonde (1 ).
[0138] Une fois le traitement avec l’aiguille terminĂ©, une nouvelle image 3D est acquise automatiquement ou semi-automatiquement et est comparĂ©e Ă  une image 3D acquise avant le traitement afin de faciliter l’évaluation de la zone traitĂ©e.
[0139] En effet, comparer deux images semblables permet de mieux cerner leurs différences, en particulier celles induites par le traitement.
[0140] Il peut ĂȘtre envisagĂ© d’effectuer le recalage non rigide des images Ă©chographiques acquises avant et aprĂšs le traitement pour pouvoir les comparer plus aisĂ©ment et par consĂ©quent mieux cerner leurs diffĂ©rences, plus particuliĂšrement celles rĂ©sultant du traitement.
[0141 ] Une description dĂ©taillĂ©e d’un possible protocole de mise en oeuvre de l’invention intĂ©grant les deux procĂ©dĂ©s prĂ©citĂ©s et comprenant neuf phases successives est dĂ©crit ci-dessous.
[0142] Phase 1 : Positionnement et préparation du patient
[0143] Dans cette premiĂšre phase, le patient (S) est positionnĂ© et prĂ©parĂ© pour l’intervention. Cela inclut la prĂ©paration de la zone Ă  traiter et l'installation du patient de maniĂšre Ă  garantir un accĂšs optimal au praticien.
[0144] Phase 2 : Positionnement du dispositif robotique ou robot
[0145] Le robot comprenant les deux bras robotisés (2 et 4) est positionné de l'autre cÎté de la table (9) par rapport au praticien de maniÚre à ne pas limiter ses mouvements, assurant une coordination optimale tout au long de la procédure.
[0146] Phase 3 : Recherche de la cible à l'aide de la sonde échographique (1 )
[0147] Le praticien manipule la sonde Ă©chographique trans-abdominale 2D pour localiser la cible (C) Ă  traiter. Un algorithme d'IA l’assiste en dĂ©tectant automatiquement la tumeur cible, ce qui accĂ©lĂšre et amĂ©liore la prĂ©cision du processus de localisation.
[0148] La sonde Ă©chographique (1 ) est associĂ©e au premier bras (2) du robot. Le robot assite le praticien pour que le dĂ©placement de la sonde (1 ) puisse ĂȘtre effectuĂ© sans effort, en limitant ses mouvements parasites tout en appliquant une pression limitĂ©e mais suffisante sur la peau (8) du patient (S).
[0149] Phase 4 : CrĂ©ation d’une image 3D Ă©chographique de la zone d’insertion de l’aiguille
[0150] AprĂšs avoir localisĂ© la cible (C), le praticien balaye Ă  l’aide de la sonde Ă©chographique (1 ) une zone (rĂ©gion volumique RV) qui englobe les trajectoires potentielles raisonnables de l'aiguille. Le balayage de cette zone permet de crĂ©er automatiquement une image 3D comprenant la cible (C), les trajectoires possibles ainsi que les structures environnantes (OVT). [0151 ] Une fois cette premiĂšre acquisition accomplie, le robot est capable d’effectuer de maniĂšre autonome ou semi-autonome des acquisitions similaires. À tout moment, le praticien peut Ă  prĂ©sent visualiser une images 3D mise Ă  jour en quasi- temps rĂ©el.
[0152] Ce premier balayage a lieu au cours d’une premiĂšre apnĂ©e du patient (S).
[0153] Phase 5 : Planification de la trajectoire d’insertion
[0154] Le praticien choisit une trajectoire optimale pour l’aiguille (3) en consultant une carte qui reprĂ©sente toutes les trajectoires possibles. La carte est créée en prenant en compte la prĂ©sence de structures fragiles (OVT) le long de leurs parcours.
[0155] Cette carte se prĂ©sente concrĂštement sur l’interface d’affichage tactile (6) de l’installation sous la forme d’un planisphĂšre comportant des zones sans risque et des zones Ă  risque. Cela permet d’avoir accĂšs Ă  toutes les options possibles.
[0156] Phase 6 : Positionnement du porte-aiguille
[0157] Le praticien positionne le porte-aiguille dans la position optimale choisie grùce à la carte des options de trajectoire. Le porte-aiguille étant associé au second bras robotisé (4), lorsque le praticien déplace le porte-aiguille, ce dernier reste toujours orienté vers la cible (C). En outre, la position du porte-aiguille (8) et la trajectoire qui en résulte sont naturellement reportées sur la carte en temps-réel (par exemple planisphÚre) correspondant à toutes les options pour faciliter ce positionnement.
[0158] Phase 7 : Insertion de l’aiguille de traitement
[0159] L’insertion de l’aiguille (3) ayant lieu durant une seconde apnĂ©e ou une apnĂ©e consĂ©cutive aux apnĂ©es ayant conduit Ă  la dĂ©termination de la trajectoire optimale, la position de la cible (C) ne peut ĂȘtre garantie puisqu’elle provient de l’image acquise au cours de la premiĂšre apnĂ©e ou des apnĂ©es antĂ©rieures. Le praticien va donc utiliser une nouvelle image acquise automatiquement juste aprĂšs cette seconde apnĂ©e ou apnĂ©e ultĂ©rieure.
[0160] La nouvelle position de la cible (C) est alors dĂ©tectĂ©e automatiquement et le porte-aiguille (8) va automatiquement effectuer la lĂ©gĂšre correction permettant de compenser l’erreur de repositionnement de la cible entre les deux apnĂ©es. [0161 ] AprĂšs validation de la trajectoire par le praticien, en particulier en visualisant une zone correspondant Ă  un cylindre (VT, VR) localisĂ© le long de la trajectoire de l’aiguille, ce dernier peut commencer Ă  insĂ©rer l’aiguille.
[0162] Le clinicien va insĂ©rer l’aiguille (3) tout en demandant rĂ©guliĂšrement Ă  l’installation (5) comprenant le bras robotisĂ© (2) avec la sonde (1 ) de mettre Ă  jour la visualisation de l’image 3D limitĂ©e Ă  un cylindre localisĂ© autour de la trajectoire de l’aiguille pour un contrĂŽle en quasi-temps rĂ©el de la prĂ©cision de la procĂ©dure.
[0163] Phase 8 : Traitement de la cible par radiofréquence
[0164] Une fois l’aiguille correctement positionnĂ©e, le praticien peut effectuer le traitement par radiofrĂ©quence (ou une autre opĂ©ration impliquant l’aiguille).
[0165] Phase 9 : Évaluation de l'Ă©tendue du traitement
[0166] Une fois le traitement effectuĂ©, le praticien demande Ă  l’installation (5) d'acquĂ©rir une nouvelle image 3D pour Ă©valuer l'Ă©tendue du traitement. Cela permet de vĂ©rifier l'efficacitĂ© du traitement en comparant deux images, la premiĂšre ayant Ă©tĂ© acquise avant et la seconde aprĂšs le traitement.
[0167] Le protocole prĂ©citĂ© permet de garantir une prĂ©cision, une efficacitĂ© et une sĂ©curitĂ© optimales tout au long du processus d’insertion et de traitement.
[0168] On note que l’invention peut ĂȘtre mise en oeuvre dans ses diffĂ©rents aspects indiffĂ©remment avec un porte-aiguille ou un guide d’aiguille, la mention de l’un valant mention de l’autre Ă©galement.
[0169] Bien entendu, l’invention n'est pas limitĂ©e au mode de rĂ©alisation dĂ©crit et reprĂ©sentĂ© aux dessins annexĂ©s. Des modifications restent possibles, notamment du point de vue de la constitution des divers Ă©lĂ©ments ou par substitution d'Ă©quivalents techniques, sans sortir pour autant du domaine de protection de l'invention.

Claims

Revendications
[Revendication 1 ] ProcĂ©dĂ© assistĂ© et interactif de production et d’affichage d’images Ă©chographiques 3D, par acquisition contrĂŽlĂ©e et traitement d’images 2D acquises par l’intermĂ©diaire d’une sonde Ă©chographique 2D (1 ) pouvant ĂȘtre dĂ©placĂ©e sur un sujet vivant (S) par un bras robotisĂ© (2), ou par un praticien avec l’assistance d’un bras robotisĂ© (2), notamment avant une opĂ©ration d’insertion d’aiguille (3) Ă  l’aide d’un porte-aiguille ou guide d’aiguille (8) dans ledit sujet (S), durant une phase prĂ©paratoire de planification, l’opĂ©ration d’insertion Ă©tant rĂ©alisĂ©e par exemple par le biais ou avec l’assistance d’un autre bras robotisĂ© (4) Ă©quipĂ© d’un porte-aiguille ou guide d’aiguille (8), ledit procĂ©dĂ© mettant en oeuvre une installation mĂ©dicale (5) comprenant, d’une part, au moins une interface homme-machine avec un dispositif d’affichage (6) et des moyens (7) de commande ou de contrĂŽle et, d’autre part, au moins le bras robotisĂ© (2) portant ladite sonde Ă©chographique 2D (1 ), dont la position et l’orientation sont connues en temps-rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă  chaque exploration, par ladite installation (5), procĂ©dĂ© caractĂ©risĂ© en ce qu’il comprend au moins les Ă©tapes consistant : a) Ă  localiser une ou la cible (C) Ă  traiter dans le sujet (S) par dĂ©placement exploratoire de la sonde (1 ) sur la peau (P) de ce dernier et analyse des images Ă©chographiques 2D acquises, par un praticien Ă©ventuellement assistĂ© par logiciel de dĂ©tection adaptĂ© ; b) Ă  produire une premiĂšre image 3D d’une rĂ©gion volumique (RV) du sujet (S), s’étendant depuis la peau (P) jusqu’à la cible (C) concernĂ©e et contenant cette derniĂšre et les trajectoires raisonnables d’introduction possibles d’une aiguille (3) pour atteindre ladite cible (C) estimĂ©es par le praticien, cette image 3D Ă©tant obtenue Ă  partir d’un ensemble d’images 2D acquises, durant une phase d’apnĂ©e du sujet (S), par dĂ©placement de la sonde Ă©chographique 2D (1 ) par le praticien avec l’assistance du bras robotisĂ© (2) et potentiellement par exploitation des informations de localisation de l’étape a) ; c) Ă  dĂ©terminer automatiquement, durant ou aprĂšs l’étape b), les paramĂštres et le parcours d’une trajectoire optimisĂ©e et reproductible pour la sonde Ă©chographique 2D (1 ) permettant la production d’images 3D sensiblement standardisĂ©es et identiquement cadrĂ©es de la rĂ©gion volumique (RV) prĂ©citĂ©e ; d) Ă  produire une, ou successivement plusieurs, image(s) 3D sensiblement standardisĂ©e(s) de cette rĂ©gion volumique (RV), ce en quasi-temps rĂ©el et automatiquement ou sur commande du praticien, durant une phase d’apnĂ©e du sujet (S) et sur la base d’images 2D fraichement acquises suite Ă  une nouvelle exploration avec la sonde Ă©chographique 2D (1 ) effectuĂ©e en appliquant les paramĂštres et en suivant le parcours qui ont Ă©tĂ© dĂ©terminĂ©s durant l’étape c) ; e) Ă  visualiser, dans cette ou ces images 3D sensiblement standardisĂ©es de la rĂ©gion volumique (RV) du sujet (S), les organes, vaisseaux et/ou tissus ou structures molles analogues (OVT) prĂ©sent(e)s entre la peau (P) et ladite cible (C), ainsi que ces deux derniĂšres, en vue de permettre de dĂ©terminer le positionnement et l’orientation d’un porte-aiguille ou guide d’aiguille (8) pour au moins une possible trajectoire d’insertion optimisĂ©e de l’aiguille (3) ; f) Ă  rĂ©pĂ©ter les Ă©tapes d) et e) juste avant le dĂ©but de l’insertion de l’aiguille (3), laquelle est alors positionnĂ©e en accord avec la trajectoire d’insertion optimisĂ©e sĂ©lectionnĂ©e par le praticien et visualisĂ©e dans l’image 3D courante, et Ă  dĂ©terminer et Ă  visualiser automatiquement la position de la cible (C) Ă  cet instant en vue d’un possible ajustement du positionnement et/ou de l’orientation du porte-aiguille ou guide d’aiguille (8), en particulier juste avant l’insertion effective de l’aiguille.
[Revendication 2] ProcĂ©dĂ© selon la revendication 1 , caractĂ©risĂ© en ce que les Ă©tapes d) et e) sont associĂ©es Ă  une phase prĂ©paratoire de planification de l’intervention aboutissant, le cas Ă©chĂ©ant par rĂ©pĂ©titions successives, Ă  l’obtention d’une image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (RV) jugĂ©e optimale, et Ă  sa visualisation, par exemple sous forme de planisphĂšre, avec indication intĂ©grĂ©e des possibles trajectoires d’insertion de l’aiguille (3) dĂ©terminĂ©es automatiquement ou par le praticien, puis d’une proposition de possible trajectoire d’insertion optimisĂ©e et sĂ©curisĂ©e de l’aiguille (3), sĂ©lectionnĂ©e automatiquement ou par le praticien.
[Revendication 3] ProcĂ©dĂ© selon la revendication 1 ou 2, caractĂ©risĂ© en ce que l’étape f) correspond Ă  une phase de replanification prĂ©cĂ©dant, durant la mĂȘme phase d’apnĂ©e, de maniĂšre imminente le dĂ©but de la phase d’insertion et prenant en compte une probable modification mineure de la position de la cible (C) et des structures molles (OVT) entre deux apnĂ©es du sujet (S), cette Ă©tape f) comprenant la crĂ©ation et la visualisation d’une nouvelle image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (RV) du mĂȘme type que celle obtenue Ă  l’issue de l’étape e), ce en vue d’un possible ajustement automatique ou manuel du positionnement et/ou de l’orientation du porte- aiguille (8) correspondant Ă  la trajectoire optimisĂ©e sĂ©lectionnĂ©e Ă  l’issue de l’étape e) et au moins d’une validation de cette trajectoire, Ă©ventuellement rĂ©ajustĂ©e finement, par le praticien.
[Revendication 4] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  3, caractĂ©risĂ© en ce que, dans l’étape b), les trajectoires estimĂ©es raisonnables par le praticien sont dĂ©finies par ce dernier par l’intermĂ©diaire d’une direction d’insertion mĂ©diane passant par la cible (C) et correspondent Ă  des trajectoires rectilignes comprises dans un volume conique ou tronconique, prĂ©fĂ©rentiellement Ă  base circulaire ou ellipsoĂŻdale, correspondant Ă©ventuellement au volume rĂ©duit (VR), s’étendant en s’effilant de la peau (P) jusqu’à la cible (C) au moins et avec un axe mĂ©dian (AML) passant par la cible (C), cet axe mĂ©dian correspondant Ă  la direction mĂ©diane prĂ©citĂ©e et pouvant ĂȘtre matĂ©rialisĂ© par un positionnement correspondant du porte-aiguille (8), et en ce qu’au moins une trajectoire d’insertion possible, voire optimisĂ©e, est dĂ©terminĂ©e aprĂšs analyse du contenu de ladite premiĂšre image 3D et prise en compte des circonstances spĂ©cifiques liĂ©es au sujet (S) et Ă  la configuration de l’intervention, de maniĂšre automatique ou semi-automatiquement ou par le praticien.
[Revendication 5] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  4, caractĂ©risĂ© en ce que les images 3D sensiblement standardisĂ©es de l’étape c) et de l’étape d) consistent en des images 3D produites Ă  partir d’images 2D acquises selon des plans sĂ©cants par rapport aux trajectoires raisonnables d’insertions de l’étape b) et avec une qualitĂ© suffisante et constante, Ă  savoir avec une trajectoire optimisĂ©e et reproductible de la sonde Ă©chographique 2D (1 ), c’est-Ă -dire notamment en appliquant une force sensiblement constante et aussi faible que possible au niveau de la sonde 2D (1 ) permettant l’acquisition d’images 2D avec la qualitĂ© prĂ©citĂ©e et en dĂ©plaçant cette derniĂšre avec une vitesse d’acquisition maĂźtrisĂ©e et optimisĂ©e, notamment la vitesse la plus Ă©levĂ©e possible garantissant nĂ©anmoins une densitĂ© et une qualitĂ© d’informations volumiques suffisantes pour produire des images de qualitĂ© acceptable.
[Revendication 6] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  5, caractĂ©risĂ© en ce que, dans l’étape e), la visualisation des tissus ou structures (OVT) dans l’image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (VR) est rĂ©alisĂ©e par l’intermĂ©diaire d’un mode de visualisation parmi : i) une visualisation successive de vues en coupe correspondant Ă  des images interpolĂ©es 2D, ii) une visualisation 3D obtenue par une mĂ©thode de rendu volumique direct et iii) une visualisation 3D obtenue par une mĂ©thode de rendu surfacique, aprĂšs rĂ©alisation d’une phase de segmentation de ladite image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (VR).
[Revendication 7] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  6, caractĂ©risĂ© en ce qu’il comprend Ă©galement, aprĂšs l’étape f) et durant l’insertion de l’aiguille (3), une Ă©tape g) consistant : Ă  visualiser en quasi-temps rĂ©el l’insertion progressive de l’aiguille (3) par crĂ©ation et visualisation rĂ©pĂ©tĂ©es d’images 3D rafraĂźchies d’un volume (VR), par exemple sensiblement cylindrique ou tronconique, en tant que fraction de la rĂ©gion volumique prĂ©citĂ©e (RV) du sujet (S), prĂ©fĂ©rentiellement en tant que fraction variable de cette rĂ©gion volumique, les images 3D de ce volume (VR) montrant soit ladite cible (C) et au moins une portion d’extrĂ©mitĂ© (3’) de l’aiguille (3), prĂ©fĂ©rentiellement toute la partie de l’aiguille (3) insĂ©rĂ©e dans le sujet (S), soit au moins une portion d’extrĂ©mitĂ© (3’) de l’aiguille (3) et un volume (VP) prĂ©cĂ©dant cette extrĂ©mitĂ© (3’) durant l’insertion, cette visualisation d’images 3D rafraĂźchies dudit volume (VR) se prolongeant prĂ©fĂ©rentiellement au moins jusqu’à ce que la cible (C) soit atteinte par l’aiguille (3), les deux Ă©tapes f) et g) Ă©tant rĂ©alisĂ©es ensemble durant une mĂȘme phase d’apnĂ©e du sujet (S).
[Revendication 8] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  7, caractĂ©risĂ© en ce qu’il comprend une Ă©tape finale supplĂ©mentaire h) consistant Ă  afficher simultanĂ©ment, et le cas Ă©chĂ©ant de maniĂšre superposĂ©e, au moins deux images 3D de la rĂ©gion volumique (RV) du sujet (S) s’étendant depuis la peau (P) jusqu’à la cible (C) concernĂ©e, et comprenant ces derniĂšres, ou en variante d’une rĂ©gion volumique plus restreinte renfermant l’emplacement de la cible (C), dont l’une a Ă©tĂ© prise avant l’intervention et le traitement au moyen de l’aiguille (3) et dont l’autre a Ă©tĂ© prise aprĂšs cette intervention.
[Revendication 9] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  8, caractĂ©risĂ© en ce qu’il consiste Ă  rĂ©aliser les explorations avec la sonde (1 ), qui sont postĂ©rieures Ă  l’étape c) et initiĂ©es Ă  l’initiative du praticien, de maniĂšre semi-automatique ou collaborative, le mouvement de dĂ©placement de la sonde (1 ) et l’ampleur de l’exploration Ă©tant dĂ©terminĂ©es par action manuelle du praticien, le dĂ©placement effectif de la sonde (1 ) Ă©tant nĂ©anmoins contraint par les paramĂštres de trajectoire dĂ©terminĂ©s Ă  l’étape c), les dĂ©placements d’exploration pouvant s’effectuĂ©s soit bidirectionnellement, soit unidirectionellement avec repositionnement initial de la sonde (1 ) aprĂšs achĂšvement d’une exploration.
[Revendication 10] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  6, caractĂ©risĂ© en ce que l’analyse des images 2D acquises Ă  l’étape a), en vue de l’identification et de la localisation de la cible (C) Ă  traiter, par exemple une tumeur cancĂ©reuse, est rĂ©alisĂ© par ou avec l’assistance d’un algorithme, par exemple un programme d’intelligence artificielle ayant subi prĂ©alablement un apprentissage adĂ©quat, cette localisation de la cible (C) Ă©tant rĂ©pĂ©tĂ©e automatiquement Ă  chaque exploration et affichage d’image 3D suivante.
[Revendication 1 1] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  6 et 10, caractĂ©risĂ© en ce que le dĂ©placement par le praticien de la sonde Ă©chographique (1 ) dans les Ă©tapes a) et b), est contrĂŽlĂ© par contrainte et limitation de mouvement par le bras robotisĂ© (2), en termes d’orientation et de position de la sonde (1 ) par rapport Ă  la peau (P) du sujet (S) et de vitesse de dĂ©placement, le praticien pouvant avantageusement rĂ©gler la consigne de pression d’application de la sonde (1 ) sur la peau (P), contrĂŽlĂ©e par le bras robotisĂ© (2) durant le dĂ©placement et/ou dĂ©sactiver l’assistance du bras robotisĂ© (2), par le biais de moyens adĂ©quats faisant partie de l’interface homme-machine (6, 7).
[Revendication 12] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  6, et 9 Ă  1 1 , caractĂ©risĂ© en ce que la pression d’application de la sonde (1 ) sur la peau (P) est, durant le dĂ©placement de cette derniĂšre Ă  chaque exploration effectuĂ©e durant la phase b) et/ou la phase d), contrĂŽlĂ©e automatiquement par le bras robotisĂ© (2) par contrĂŽle en temps rĂ©el de la valeur de cette pression au moyen d’un capteur adĂ©quat ou d’une boucle d’asservissement exploitant le rĂ©sultat d’une analyse de la qualitĂ© de l’image Ă©chographique 2D gĂ©nĂ©rĂ©e en temps rĂ©el, ladite pression d’application Ă©tant minimisĂ©e durant les phases d), e) et f) Ă  une valeur permettant tout juste d’acquĂ©rir des images 2D de qualitĂ© suffisante pour produire une image 3D standardisĂ©e, afin de gĂ©nĂ©rer une dĂ©formation minimale des tissus visualisĂ©s.
[Revendication 13] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  6 et 9 Ă  12, caractĂ©risĂ© en ce que la production d’images 3D sensiblement standardisĂ©es au niveau des Ă©tapes c), d) et f) est rĂ©alisĂ©e automatiquement, sur la base des images 2D produites par la sonde (1 ) manipulĂ©e par le bras robotisĂ© (2), Ă  chaque commande ou avec la participation du praticien, en faisant suivre Ă  la sonde (1 ) une trajectoire dĂ©terminĂ©e, notamment optimisĂ©e en termes de position et d’orientation de la sonde (1 ) par rapport Ă  la peau (P) du sujet (S) et de vitesse de dĂ©placement de la sonde (1 ), lors du dĂ©placement, cette trajectoire ayant Ă©tĂ© dĂ©terminĂ©e durant ou aprĂšs l’étape b).
[Revendication 14] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  13, caractĂ©risĂ© en ce qu’il consiste, sur demande ou automatiquement, Ă  rĂ©pandre par aspersion, par l’intermĂ©diaire d’un dispositif adĂ©quat associĂ© ou intĂ©grĂ© Ă  la sonde (1 ), du gel de contact Ă©chographique devant et/ou derriĂšre la sonde (1 ) au cours d’un, prĂ©fĂ©rentiellement de chaque dĂ©placement exploratoire.
[Revendication 15] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  6 et 9 Ă  13, caractĂ©risĂ© en ce que la visualisation en 3D des organes, vaisseaux et/ou tissus prĂ©sents entre surface de la peau (P) et la cible (C) telle que prĂ©vue Ă  l’étape e), comprend l’affichage par surimpression d’un motif de collimation ou de visĂ©e centrĂ© sur la cible (C), permettant de dĂ©finir et de simuler visuellement la trajectoire virtuelle d’insertion de l’aiguille (3) pour un positionnement et une orientation donnĂ©s du porte-aiguille (8), et avantageusement par interaction par le biais de l’interface homme-machine, d’explorer les possibilitĂ©s de trajectoire rectiligne d’insertion de l’aiguille (3) et de point d’entrĂ©e dans le sujet (S) et de sĂ©lectionner une ou des proposition(s).
[Revendication 16] ProcĂ©dĂ© selon la revendication 15, caractĂ©risĂ© en ce qu’il consiste Ă  rĂ©aliser l’exploration des possibilitĂ©s de trajectoire rectiligne d’insertion de l’aiguille (3) en simulant ou en rĂ©alisant collaborativement un dĂ©placement contraint de l’autre bras robotisĂ© (4) et donc du porte-aiguille (8), par exemple sous la forme d’un mouvement contraint de rotule, de telle maniĂšre que la trajectoire d’insertion passe toujours par le centre de la cible (C) quelle que soit la position dudit bras (4) et dudit porte-aiguille (8).
[Revendication 17] ProcĂ©dĂ© selon l’une quelconque des revendications 1 Ă  6 et 9 Ă  15, caractĂ©risĂ© en ce que la dĂ©termination du positionnement et de l’orientation d’un porte-aiguille (8) en vue d’une possible trajectoire d’insertion optimale par exploitation d’une visualisation en 3D des organes, vaisseaux et/ou tissus ou structures (OVT) prĂ©sents entre la peau (P) et la cible (C), telle que prĂ©vue Ă  l’étape e), comprend l’analyse automatique et l’affichage d’au moins une, prĂ©fĂ©rentiellement de plusieurs proposition(s) de trajectoire rectiligne d’insertion de l’aiguille (3) et de point d’entrĂ©e (PE) dans le sujet (S), chacune associĂ©e Ă  une orientation ou une pluralitĂ© d’orientations contenues dans un cĂŽne virtuel dont le sommet touche la cible (C), par exemple le centre de celle-ci, le praticien pouvant sĂ©lectionner ou valider la ou l’une des proposition(s) par l’intermĂ©diaire de l’interface homme-machine.
[Revendication 18] ProcĂ©dĂ© selon l’une quelconque des revendications 15 Ă  17, caractĂ©risĂ© en ce qu’il consiste, aprĂšs sĂ©lection d’une proposition de trajectoire d’insertion de l’aiguille (3) et de point d’entrĂ©e (PE) dans le sujet (S), Ă  visualiser un volume tubulaire cylindrique limitĂ© (VT) avec comme axe mĂ©dian longitudinal (AML) ladite trajectoire et permettant de visualiser les organes, vaisseaux et/ou tissus ou structures (OVT) Ă©ventuellement prĂ©sents dans ce volume.
[Revendication 19] ProcĂ©dĂ© selon la revendication 7, caractĂ©risĂ© en ce que l’étape g) comprend la segmentation prĂ©alable de l’aiguille (3) dans les images acquises successivement au fur et Ă  mesure de l’insertion de l’aiguille (3) et en ce que le volume (VR) visualisĂ© consiste en un volume allongĂ© selon la direction d’insertion de l’aiguille (3), prĂ©fĂ©rentiellement un volume tubulaire comprenant ladite cible (C) et au moins une portion d’extrĂ©mitĂ© (3’) de l’aiguille, ainsi que le volume intermĂ©diaire (VP) situĂ© entre eux, avec les organes, vaisseaux et/ou tissus ou structures (OVT) Ă©ventuellement prĂ©sents dans ce volume.
[Revendication 20] ProcĂ©dĂ© selon l’une quelconque des revendications 7 et 19, caractĂ©risĂ© en ce que, dans l’étape g), la dĂ©limitation du volume rĂ©duit (VR) destinĂ© Ă  ĂȘtre visualisĂ© en 3D est asservi au mouvement d’insertion de l’aiguille (3) et assujetti Ă  la fraction de trajectoire restant Ă  parcourir Ă  la portion d’extrĂ©mitĂ© (3’) de l’aiguille (3) jusqu’à la cible (C), cette dĂ©limitation Ă©tant rĂ©alisĂ©e soit en amont lors de l’acquisition des images 2D, soit en aval lors de la visualisation 3D.
[Revendication 21] ProcĂ©dĂ© collaboratif d’insertion d’une aiguille (3) dans un sujet vivant (S), mettant en oeuvre une installation mĂ©dicale (5) comprenant, d’une part, au moins une interface homme-machine avec un dispositif d’affichage (6) et des moyens (7) de commande ou de contrĂŽle et, d’autre part, au moins le bras robotisĂ© (2) portant ladite sonde Ă©chographique 2D (1 ), dont la position et l’orientation sont connues en temps rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă  chaque exploration, par ladite installation (5), ladite installation (5) comportant en outre un autre ou second bras robotisĂ© (4) sur lequel est fixĂ© un porte-aiguille ou guide d’aiguille (8), au moins la position relative des deux bras (2 et 4) entre eux Ă©tant connue en permanence par ladite installation (5), ledit procĂ©dĂ© comprenant une phase prĂ©paratoire de planification prĂ©cĂ©dant l’opĂ©ration d’insertion effective, cette derniĂšre Ă©tant rĂ©alisĂ©e automatiquement par le second bras robotisĂ© (4) ou par un praticien avec guidage par ce second bras robotisĂ© (4), le porte-aiguille ou guide d’aiguille (8) Ă©tant prĂ©positionnĂ© et prĂ©orientĂ© durant la phase prĂ©paratoire, procĂ©dĂ© caractĂ©risĂ© en ce qu’il consiste Ă  mettre en oeuvre le procĂ©dĂ© assistĂ© et interactif de production et d’affichage d’images Ă©chographiques 3D selon l’une quelconque des revendications 1 Ă  20, et notamment les Ă©tapes a) Ă  e) de la revendication 1 durant une phase prĂ©paratoire de planification, l’étape f) durant une phase de replanification consĂ©cutive Ă  la phase prĂ©paratoire de planification et immĂ©diatement avant le dĂ©but de l’insertion de l’aiguille (3) et l’étape g) durant l’opĂ©ration effective de l’insertion de l’aiguille (3), la phase de replanification et l’opĂ©ration d’insertion de l’aiguille (3) se dĂ©roulant durant une mĂȘme phase d’apnĂ©e du sujet (S).
[Revendication 22] ProcĂ©dĂ© d’insertion selon la revendication 21 , caractĂ©risĂ© en ce qu’il consiste Ă  compenser les mouvements et dĂ©placements Ă©ventuels de la cible intervenant pendant l’insertion de l’aiguille (3), par une modification de l’orientation du porte-aiguille (8) par le bras robotisĂ© (4) le portant, rĂ©alisĂ©e automatiquement ou par le praticien, avec une contrainte limitative.
[Revendication 23] ProcĂ©dĂ© d’insertion selon la revendication 21 ou 22, caractĂ©risĂ© en ce que la phase de replanification, rĂ©alisĂ©e en dĂ©but de l’apnĂ©e durant laquelle l’insertion doit ĂȘtre effectuĂ©e, consiste Ă  crĂ©er une nouvelle image 3D standardisĂ©e en accord avec l’étape f), Ă  vĂ©rifier l’adĂ©quation du positionnement du porte-aiguille (8) et de la trajectoire rĂ©sultante par rapport Ă  la situation visualisĂ© dans cette nouvelle image 3D et Ă  effectuer, le cas Ă©chĂ©ant, automatiquement ou non, et au moins aprĂšs validation par le praticien, un possible ajustement de l’orientation dudit porte-aiguille (8) nĂ©cessaire pour retrouver une trajectoire d’insertion optimisĂ©e prenant en compte une Ă©ventuelle modification mineure de la position de la cible (C) et/ou des structures molles (OVT) entre deux apnĂ©es du sujet (S).
[Revendication 24] Installation mĂ©dicale (5) pour la mise en oeuvre du procĂ©dĂ© assistĂ© et interactif de production et d’affichage d’images Ă©chographiques 3D selon l’une quelconque des revendications 1 Ă  20, et prĂ©fĂ©rentiellement Ă©galement du procĂ©dĂ© d’insertion d’aiguille (3) selon l’une quelconque des revendications 21 Ă  23, cette installation (5) comprenant, d’une part, au moins une interface homme-machine avec un dispositif d’affichage (6) et des moyens (7) de commande ou de contrĂŽle et, d’autre part, au moins le bras robotisĂ© (2) portant ladite sonde Ă©chographique 2D (1 ), dont la position et l’orientation sont connues en temps rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă  chaque exploration, par ladite installation (5), installation (5) caractĂ©risĂ©e en ce qu’elle comprend Ă©galement, d’une part, un autre ou second bras robotisĂ© (4) sur lequel est fixĂ© un porte-aiguille (8), au moins la position relative des deux bras (2 et 4) entre eux Ă©tant connue en permanence par ladite installation (5), et, d’autre part, des moyens pour l’acquisition contrĂŽlĂ©e, le traitement et l’exploitation d’images produites par la sonde Ă©chographique 2D (1 ) lorsque cette derniĂšre est dĂ©placĂ©e lors d’une exploration sur un sujet vivant (S) par le bras robotisĂ© (2) concernĂ©, ou par un praticien avec l’assistance dudit bras robotisĂ© (2).
[Revendication 25] Installation mĂ©dicale selon la revendication 24, caractĂ©risĂ©e en ce que les deux bras robotisĂ©s (2 et 4) sont montĂ©s sur une mĂȘme et unique embase (10), en Ă©tant avantageusement cinĂ©matiquement et structurellement sĂ©parĂ©s et indĂ©pendants, cette embase (10) intĂ©grant avantageusement une unitĂ© de commande de ces deux bras (2 et 4) et Ă©tant prĂ©fĂ©rentiellement Ă©quipĂ©e de moyens de roulement et associĂ©e Ă  un moyen de contrĂŽle (7) de chaque bras, par exemple une pĂ©dale, faisant partie de l’interface homme-machine.
[Revendication 26] Installation mĂ©dicale selon la revendication 24 ou 25, caractĂ©risĂ©e en ce que l’interface homme-machine comprend une console de commande (11 ), Ă©ventuellement montĂ©es sur des moyens de roulement, comportant des moyens informatiques de calcul et de traitement de donnĂ©es, notamment des algorithmes et logiciels de traitement d’images, et le dispositif d’affichage (6), avantageusement sous la forme d’un dispositif d’affichage tactile, ladite console de commande (11 ) interagissant avec les deux bras robotisĂ©s (2 et 4).
PCT/EP2024/084292 2023-12-06 2024-12-02 Procede de production et d'affichage d'images echographiques 3d Pending WO2025119829A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FRFR2313679 2023-12-06
FR2313679A FR3156300A1 (fr) 2023-12-06 2023-12-06 ProcĂ©dĂ© de production et d’affichage d’images Ă©chographiques 3D, procĂ©dĂ© d’insertion d’aiguille l’utilisant et installation pour leur mise en oeuvre

Publications (1)

Publication Number Publication Date
WO2025119829A1 true WO2025119829A1 (fr) 2025-06-12

Family

ID=90904720

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2024/084292 Pending WO2025119829A1 (fr) 2023-12-06 2024-12-02 Procede de production et d'affichage d'images echographiques 3d

Country Status (2)

Country Link
FR (1) FR3156300A1 (fr)
WO (1) WO2025119829A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN215874870U (zh) * 2021-08-18 2022-02-22 äž­ć›œç§‘ć­Šé™ąæ·±ćœłć…ˆèż›æŠ€æœŻç ”ç©¶é™ą äž€ç§éąć‘èƒ†é“ç©żćˆș的æœș晹äșș穿ćˆșćźšäœèŁ…çœź
WO2022263764A1 (fr) * 2021-06-16 2022-12-22 Quantum Surgical Robot équipé d'une sonde échographique pour le guidage temps-réel d'interventions percutanées
WO2022263763A1 (fr) * 2021-06-16 2022-12-22 Quantum Surgical Robot médical pour le placement d'instruments médicaux sous guidage échographique

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022263764A1 (fr) * 2021-06-16 2022-12-22 Quantum Surgical Robot équipé d'une sonde échographique pour le guidage temps-réel d'interventions percutanées
WO2022263763A1 (fr) * 2021-06-16 2022-12-22 Quantum Surgical Robot médical pour le placement d'instruments médicaux sous guidage échographique
CN215874870U (zh) * 2021-08-18 2022-02-22 äž­ć›œç§‘ć­Šé™ąæ·±ćœłć…ˆèż›æŠ€æœŻç ”ç©¶é™ą äž€ç§éąć‘èƒ†é“ç©żćˆș的æœș晹äșș穿ćˆșćźšäœèŁ…çœź

Also Published As

Publication number Publication date
FR3156300A1 (fr) 2025-06-13

Similar Documents

Publication Publication Date Title
EP4355249B1 (fr) Robot médical pour le placement d'instruments médicaux sous guidage échographique
EP3684287B1 (fr) Dispositif de guidage d'instrument
CA2067209C (fr) Systeme intractif d'intervention locale a l'interieur d'une zone d'une structure non homogene
ES2718543T3 (es) Sistema y procedimiento para la navegaciĂłn basada en imĂĄgenes fusionadas con la colocaciĂłn de marcador tardĂ­o
CA2691042C (fr) Plateforme robotisee multi-applicative pour la neurochirurgie et procede de recalage
WO2009071766A1 (fr) SystÚme et procédé d'imagerie et de localisation ponctions sous échographie prostatique
WO2022263764A1 (fr) Robot équipé d'une sonde échographique pour le guidage temps-réel d'interventions percutanées
FR2898264A1 (fr) Procede et systeme robotique medical permettant la tele-illustration en trois dimensions
EP3682808A1 (fr) Dispositif médical en radiologie interventionnelle de guidage en temps réel d'une aiguille médicale d'opération dans un volume
WO2013178823A1 (fr) Dispositif de guidage d'une sonde d'imagerie medicale et procede de guidage d'une telle sonde
EP3322347B1 (fr) Systeme de guidage autonome d'un equipement porte-aiguille
FR2924255A1 (fr) Procede de traitement d'images cardiaques radiographiques en vue d'obtenir une image soustraite et recalee
WO2025119829A1 (fr) Procede de production et d'affichage d'images echographiques 3d
CA2751398A1 (fr) Navigateur echographique
EP4355251B1 (fr) Robot équipé d'une sonde échographique pour le guidage temps-réel d'interventions percutanées
FR2881941A1 (fr) Procede de determination des parametres geometriques d'un dispositif d'imagerie par rayon x
FR2982761A1 (fr) Procedes d'assistance a la manipulation d'un instrument, et ensemble d'assistance associe
FR3143314A1 (fr) Dispositif d’assistance à la planification d’une intervention mini-invasive
WO2025157723A1 (fr) Robot médical collaboratif pour guider l'insertion d'instruments
FR2838628A1 (fr) Procede d'assistance et de guidage de navigation d'un outil dans des structures anatomiques
WO2025074245A1 (fr) ProcĂ©dĂ© de recalage d'une reprĂ©sentation tridimensionnelle d'un objet sur l'objet lui-mĂȘme et dispositif d'aide Ă  la navigation dans un objet
FR3146587A1 (fr) Robot mĂ©dical collaboratif pour sĂ©curiser l’insertion d’instruments mĂ©dicaux
WO2023187589A1 (fr) ProcĂ©dĂ© de recalage de reprĂ©sentations tridimensionnelles d'un objet sur l'objet lui-mĂȘme et dispositif d'aide Ă  la navigation dans un objet mettant en Ɠuvre ce procĂ©dĂ©
WO2023232990A1 (fr) Dispositif pour l'assistance au guidage pour acquerir une image echographique et procede associe
WO2024094895A1 (fr) Methode pour la generation d'un point de penetration du corps d'un sujet et dispositif associe

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24817351

Country of ref document: EP

Kind code of ref document: A1