WO2025119829A1 - Procede de production et d'affichage d'images echographiques 3d - Google Patents
Procede de production et d'affichage d'images echographiques 3d Download PDFInfo
- Publication number
- WO2025119829A1 WO2025119829A1 PCT/EP2024/084292 EP2024084292W WO2025119829A1 WO 2025119829 A1 WO2025119829 A1 WO 2025119829A1 EP 2024084292 W EP2024084292 W EP 2024084292W WO 2025119829 A1 WO2025119829 A1 WO 2025119829A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- needle
- images
- target
- practitioner
- trajectory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/483—Diagnostic techniques involving the acquisition of a 3D volume of data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4209—Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
- A61B8/4218—Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by articulated arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5269—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
- A61B8/5276—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
- A61B2017/3413—Needle locating or guiding means guided by ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4272—Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue
- A61B8/4281—Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue characterised by sound-transmitting media or devices for coupling the transducer to the tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
- A61B8/465—Displaying means of special interest adapted to display user selection data, e.g. icons or menus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5284—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving retrospective matching to a physiological signal
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/10—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
- A61B90/11—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
Definitions
- the present invention relates to the fields of medical imaging and assistance in the positioning of needles under ultrasound guidance assisted by a robotic installation, and more particularly the creation and exploitation of 3D ultrasound images from the autonomous or semi-autonomous acquisition of a set of 2D ultrasound images and its advantageous use in relation to procedures for inserting and implanting sampling, injection or localized (target) treatment needles in subjects.
- Its objects are an assisted and interactive method for producing and displaying 3D ultrasound images by controlled acquisition and processing of 2D images, a needle insertion method, automatic or preferably assisted or collaborative, using the aforementioned method, and a robotic medical installation for implementing these two methods.
- a medical technique currently in full development is percutaneous surgery using a needle inserted into the patient, both for the treatment of cancers and for injection or localized sampling.
- the known methods implementing X-ray imaging suffer from a complex installation configuration (markers, cameras), a high cost of the imaging equipment (CT scanner), the impact of a high dose of X-rays and above all the obsolescence of the imaging data when they are actually used, due to the acquisition and processing times of the latter.
- these 3D ultrasound scanners are expensive, lack precision (poor quality images compared to 2D ultrasound imagers), use a bulky probe that is tedious to handle, also require a spatial location and referencing system (camera or electromagnetic sensor) and are not optimized in terms of data processing (quantity and relevance of the data acquired and processed).
- the problem of data obsolescence also affects the images provided by these 3D ultrasound imagers, unlike 2D ultrasound imagers (which are not always suitable for use in the aforementioned context and require controlled movement to provide usable images).
- the aim of the present invention is to propose a new solution making it possible to overcome at least some of the main limitations mentioned above, in particular those linked to the obsolescence of the images used, in particular at the end of the preparatory period preceding the start of insertion, to the presence of a camera, to the absence of consideration of changes occurring between two apneas and to limited collaboration between the robotic devices and the practitioner, all while exploiting the advantages linked to the use of ultrasound.
- the invention aims to provide a relevant, ergonomic and interactive visual aid for the practitioner, at least before an intervention involving needle insertion with the aid of a needle holder or needle guide.
- its main object is an assisted and interactive method for producing and displaying 3D ultrasound images, by controlled acquisition and processing of 2D images acquired by means of a 2D ultrasound probe that can be moved over a living subject by a robotic arm, or by a practitioner with the assistance of a robotic arm, in particular before a needle insertion operation using a needle holder or needle guide in said subject, during a preparatory planning phase, the insertion operation being carried out for example by means of or with the assistance of another robotic arm equipped with a needle holder, said method implementing a medical installation comprising, on the one hand, at least one human-machine interface with a display device and command or control means and, on the other hand, at least the robotic arm carrying said 2D ultrasound probe, the position and orientation of which are known in real time and can be used and recorded, concomitantly with the 2D images generated at each exploration, by said installation, method characterized in that it comprises at least the steps consisting of: a) locating one or more targets to be treated in the subject by
- FIG. 1 schematically represents a medical installation according to a preferred embodiment, for implementing the imaging and needle insertion methods according to the invention
- FIG. 2 represents the installation of figure 1 during an intervention on a subject, here a human patient;
- FIG. 3 is a detailed schematic representation in section of a part of the subject's body just before the insertion of a needle
- FIG. 4 is a representation similar to that of Figure 3 during the insertion of the needle, for example as a partial and detailed view (on another scale) of the scene shown in Figure 2;
- FIG. 5 is a representation of a set of 2D ultrasound images acquired, automatically or collaboratively with the practitioner, by means of the probe carried by the first robotic arm forming part of the installation according to the invention;
- FIG. 6 is a representation of a volumetric region of a patient's abdomen in the form of a planisphere showing the fragile/soft structures and making it possible to estimate the different possible trajectories for inserting a needle in order to reach the target;
- FIG. 7A and FIG. 7B are 3D images of a tubular/truncated volume region of the patient's body between the skin and the target and surrounding a needle trajectory, viewed from two different directions;
- FIG. 8 is an image showing the tubular/truncated region of Figures 7A and 7B viewed along the insertion direction, the entry point being marked by a cross
- FIG. 9 is a 3D image showing a needle having reached the target.
- the invention relates, according to a first aspect of the invention, to an assisted and interactive method for producing and displaying 3D ultrasound images, by controlled acquisition and processing of 2D images acquired by means of a 2D ultrasound probe (1) which can be moved over a living subject (S) by a robotic arm (2) carrying it, or by a practitioner with the assistance of a robotic arm (2) moved by the latter and holding said probe (1), in particular before an operation of inserting a needle (3) using a needle holder or needle guide (8) into said subject (S), during a preparatory planning phase, the operation being carried out for example by means of or with the assistance of another robotic arm (4) equipped with the needle holder or needle guide (8).
- This method implements a medical installation (5) comprising, on the one hand, at least one human-machine interface with a display device (6) and command or control means (7) and, on the other hand, at least the robotic arm (2) carrying said 2D ultrasound probe (1), the position and orientation of which are known in real time and can be used and recorded, concomitantly with the 2D images generated at each exploration, by said installation (5).
- This method is characterized in that it comprises at least the steps consisting of: a) locating one or the target (C) to be treated in the subject (S) by exploratory movement of the probe (1) on the skin (P) of the latter and analysis of the acquired 2D ultrasound images, by a practitioner possibly assisted by suitable detection software; b) producing a first 3D image of a volume region (RV) of the subject (S), extending from the skin (P) to the target (C) concerned and containing the latter and the reasonable possible introduction trajectories of a needle (3) to reach said target (C) estimated by the practitioner, this 3D image being obtained from a set of 2D images acquired, during an apnea phase of the subject (S), by movement of the 2D ultrasound probe (1) by the practitioner with the assistance of the robotic arm (2) and potentially by exploitation of the location information from step a); c) automatically determining, during or after step b), the parameters and the path of an optimized and reproducible trajectory for the 2D ultrasound probe (1) allowing the production of
- the method in question makes it possible to provide continuous, collaborative and interactive assistance to the practitioner at least during the preparatory phase of planning the intervention and during the fine adjustment phase just before the start of the insertion of the needle with the help of the needle holder, which determines the insertion trajectory and will guide the needle during its insertion.
- This method exploits the advantages of 2D ultrasound, while allowing 3D visualization, this by means of particular provisions.
- the method also takes advantage of preliminary targeted learning phases, provided by the practitioner for the robotic arm (2) carrying the probe (1) and the software means forming part of the installation (5), to subsequently assist effectively the said practitioner by automation or semi-automation of ultrasound explorations and automation of target recognition and tracking.
- the proposed solution can further provide continuous, collaborative and interactive assistance to the practitioner throughout the insertion period until the target is reached.
- the aforementioned method may also comprise, after step f) and during the insertion of the needle (3), a step g) consisting of: visualizing in quasi-real time the progressive insertion of the needle (3) by repeated creation and visualization of refreshed 3D images of a volume (VR), for example substantially cylindrical or truncated, as a fraction of the aforementioned volume region (RV) of the subject (S), preferably as a variable fraction of this volume region, the 3D images of this volume (VR) showing either said target (C) and at least one end portion (3') of the needle (3), preferably the entire part of the needle (3) inserted into the subject (S), or at least one end portion (3') of the needle (3) and a volume (VP) preceding this end (3') during the insertion, this visualization of refreshed 3D images of said volume (VR) preferably extending at least until the target (C) is reached by the needle (3), the two steps f) and g) then being carried out together during the same apnea phase
- the method according to the invention provides an evolving 3D visualization.
- a large volume region RV
- the skin or at least one internal area close to the skin
- a smaller volume VR, VT
- VT a smaller volume comprising at least the end of the needle and at least one intermediate volume just large enough to be able to know and take into account the presence of the target, the organs, vessels and/or tissues or similar fragile structures present in this environment, this just before and during the intervention.
- the visualized volume may, from step b), be limited to a smaller volume than the volume region (RV) explored by the probe (1), for example a truncated cone volume (VR) extending around a median insertion direction deemed reasonable by the practitioner (passing through the center of the target) and between the skin and the target.
- a truncated cone volume VR
- such a truncated cone would have a base in the form of a disc or ellipse with a diameter at the base of approximately 5 to 10 cm at the skin level) and the apex of which surrounds the center of the target, or even the latter.
- the robotic arm (2) can facilitate the movement of the probe (1) by applying a controlled force to it so that the practitioner is not obliged to force during this exploration, while avoiding excessive pressure.
- the practitioner is able to trigger explorations and recovery of 2D images with the probe (1) held by the robotic arm (2), to navigate in the 3D images produced by changing in particular the viewing angle relative to the volume displayed (for example to view this volume with its contents along the axis of a needle insertion trajectory, which is advantageously coincident with the median axis of this volume) and to choose the components that he wishes to see displayed (apart from automatic acquisition and visualization operations).
- the method according to the invention therefore provides interactive, almost instantaneous visual assistance, timed to the patient's breathing, non-interfering with the practitioner's other tasks and adaptive according to the progress of the treatment protocol. This assistance also continues continuously throughout the different phases of the protocol implemented: prior planning, rapid replanning just before insertion and the insertion phase.
- steps b) and c) correspond to a learning phase of the robotic arm (2) carrying the probe (1), in order to then allow it to carry out explorations automatically or semi-automatically, steps d) and e) are associated with a preparatory phase of planning the intervention resulting, where appropriate by successive repetitions, in obtaining a substantially standardized 3D image of the volume region (VR) deemed optimal, and in its visualization, for example in the form of a planisphere, with integrated indication of the possible trajectories for insertion of the needle (3) determined automatically or by the practitioner, then a proposal for a possible optimized and secure insertion trajectory of the needle (3), selected automatically or by the practitioner.
- step f corresponds to a replanning phase preceding, during the same apnea phase, imminently the start of the insertion phase and taking into account a probable minor modification of the position of the target (C) and of the soft structures (OVT) between two apneas of the subject (S), this step f) comprising the creation and the visualization of a new substantially standardized 3D image of the volume region (RV) of the same type as that obtained at the end of step e), this with a view to a possible automatic or manual adjustment of the positioning and/or the orientation of the needle holder (8) corresponding to the optimized trajectory selected at the end of step e) and at least one validation of this trajectory, possibly finely readjusted, by the practitioner.
- the trajectories estimated as reasonable by the practitioner are defined by the latter by means of a median insertion direction passing through the target (C) and correspond to rectilinear trajectories included in a conical or truncated volume, preferably with a circular or ellipsoidal base, possibly corresponding to the reduced volume (VR), extending by tapering from the skin (P) to the target (C) at least and with a median axis (AML) passing through the target (C), this median axis corresponding to the aforementioned median direction and being able to be materialized by a corresponding
- the substantially standardized 3D images of step c) and step d) advantageously consist of 3D images produced from 2D images acquired along intersecting planes relative to the reasonable insertion trajectories of step b) and with sufficient and constant quality, namely with an optimized and reproducible trajectory of the 2D ultrasound probe (1), that is to say in particular by applying a substantially constant and as low as possible force at the 2D probe (1) allowing the acquisition of 2D images with the aforementioned quality and by moving the latter with a controlled and optimized acquisition speed, in particular the highest possible speed nevertheless guaranteeing sufficient density and quality of volume information to produce images of acceptable quality.
- a substantially constant and high speed (with the aforementioned restriction) is advantageously applied during the exploration, advantageously with variations less than a predetermined threshold value, for example 10%, preferably 5%.
- a predetermined threshold value for example 10%, preferably 5%.
- the visualization of the tissues or structures (OVT) in the substantially standardized 3D image of the volume region (VR) is carried out by means of a visualization mode among: i) a successive visualization of sectional views corresponding to 2D interpolated images, ii) a 3D visualization obtained by a direct volume rendering method and iii) a 3D visualization obtained by a surface rendering method, after carrying out a segmentation phase of said substantially standardized 3D image of the volume region (VR).
- the method may comprise an additional final step h) consisting of simultaneously displaying, and where appropriate superimposed, at least two 3D images of the volume region (RV) of the subject (S) extending from the skin (P) to the target (C) concerned, and comprising the latter, or alternatively of a more restricted volume region containing the location of the target (C), one of which was taken before the intervention and the treatment by means of the needle (3) and the other of which was taken after this intervention.
- This optional step makes it possible, after completion of the treatment, by merging before/after images or their display in parallel, to verify that the treatment carried out during the intervention does indeed affect, in its entirety, the area of the target (C).
- the method may consist, before step a), in positioning the robotic arm (2) carrying the probe (1), relative to the subject (S) lying on a surgical table (9), in such a way that the base (10) of said robotic arm (2) is located on the lateral side of said table (9) which is opposite to that occupied by the practitioner, and where appropriate likely to be subjected to the passage of the 2D ultrasound probe (1).
- This arrangement makes it possible to avoid any interference between the practitioner and the robotic arm (2) and also to be able to easily apply sufficient pressure during explorations with the probe (1).
- the indication of the possible rectilinear insertion trajectories or of the optimized trajectory of the needle (3) can be carried out by the practitioner, with a view to their display in the 3D images, either virtually by means of the human-machine interface, or preferably by manipulation by the practitioner of the needle holder (8) and validation of the position and orientation of the latter by said practitioner when the desired trajectory is displayed in the 3D image.
- the needle holder (8) is advantageously position-controlled in such a way that it remains permanently oriented so that the direction of insertion of the needle that it carries passes through the center of the target (C).
- the practitioner can indicate a trajectory by suitable positioning of the needle holder (8) for example (its position being known due to the knowledge of the position of the two robotic arms by the medical installation also comprising the display means), in order to visualize this trajectory during the acquisition of the first 3D image produced in an assisted manner during step b), but also during step d). It is thus possible to provide guidance information during the manual or assisted acquisition of the 2D images and to facilitate the visualization of only the relevant volume (to avoid the display of irrelevant information likely to distract the practitioner).
- VT tubular volume
- AML median axis
- a second option is to offer the practitioner a map of the possible insertion options (for example on a planisphere of the volume region).
- all the options are taken into account and the practitioner can make the best choice in an informed manner.
- his choice of optimized trajectory is made, he directs the needle holder as close as possible to its choice, advantageously visualizing the position of its trajectory in said map (planisphere for example).
- the method may consist of carrying out the explorations with the probe (1), which are subsequent to step c) and initiated at the initiative of the practitioner, in a semi-automatic or collaborative manner, the movement of displacement of the probe (1) and the extent of the exploration being determined by manual action of the practitioner, the actual displacement of the probe (1) being nevertheless constrained by the trajectory parameters determined in step c).
- the exploration movements of the probe (1) may be carried out either bidirectionally or unidirectionally with initial repositioning of the probe (1) after completion of an exploration. In the latter case, it may possibly be possible to envisage an automatic initial relocation of the probe (1) with regard to the target (C), with an adequate position and orientation, by the robotic arm (2) before each new exploratory movement of the latter carried out during the subsequent stages.
- the analysis of the 2D images acquired in step a), with a view to identifying and locating the target (C) to be treated, for example a cancerous tumor is carried out by or with the assistance of an algorithm, for example an artificial intelligence program having previously undergone adequate training, this location of the target (C) being automatically repeated at each subsequent 3D image exploration and display.
- an algorithm for example an artificial intelligence program having previously undergone adequate training
- step d) make it possible to ensure the position of the target very frequently.
- at least one repetition is necessary after step b), when the practitioner or clinician has planned and positioned the needle holder or needle guide (8) for the first time.
- this phase is relatively long and therefore incompatible with continuous apnea on the part of the subject (S).
- step d) makes it possible to correct, as provided for in step f), an expected error in repositioning the target (C) and the organs, tissues and structures (OVT) surrounding the target (C) at the time of the apnea (second, third, etc.) during which the insertion of the needle (3) will actually take place.
- the movement by the practitioner of the ultrasound probe (1) in steps a) and b), is controlled by constraint and limitation of movement by the robotic arm (2), in terms of orientation and position of the probe (1) relative to the skin (P) of the subject (S) and speed of movement, the practitioner being able to advantageously adjust the pressure setpoint for applying the probe (1) to the skin (P), controlled by the robotic arm (2) during the movement and/or deactivate the assistance of the robotic arm (2), by means of suitable means forming part of the human-machine interface (6, 7).
- These arrangements make it possible to avoid harmful movements of the probe (1) potentially involving laborious and time-consuming, or even impossible, reconstruction of the 3D images.
- the successively acquired 2D images must, as much as possible, follow one after the other in a regular and continuous manner, and in particular, overlapping of these images and intersections between these images must be avoided. This is in order to produce a sequence of 2D images whose relative position and acquisition conditions facilitate the calculation and consistency of the resulting 3D image. Deactivation of the assistance of the robotic arm may be desired for finer control by the practitioner, with less effort.
- the invention may provide that the pressure of application of the probe (1) on the skin (P) is, during the movement of the latter at each exploration carried out during the phase b) and/or phase d), automatically controlled by the robotic arm (2) by real-time control of the value of this pressure by means of a suitable sensor or a control loop exploiting the result of an analysis of the quality of the 2D ultrasound image generated in real time, said application pressure being minimized during phases d), e) and f) to a value just allowing the acquisition of 2D images of sufficient quality to produce a standardized 3D image, in order to generate minimal deformation of the tissues visualized.
- the control aims, in particular in the last three phases mentioned above, in particular to optimize the quality of the 2D images produced while limiting as much as possible the pressure exerted on the skin (P) of the patient or subject (S) in order to limit as much as possible the deformations induced at the level of the underlying tissues and structures.
- step b effective pressure control can also be implemented, especially if the robotic arm is in exoskeleton mode, so as not to injure the patient.
- step g) (during which 3D images are acquired regularly), there is a permanent monitoring of the pressure so as to take into account a possible movement of the patient or a possible problem with the robotic arm.
- the production of substantially standardized 3D images at the level of steps c), d) and f) is carried out automatically, on the basis of the 2D images produced by the probe (1) manipulated by the robotic arm (2), at each command or with the participation of the practitioner, by making the probe (1) follow a determined trajectory, in particular optimized in terms of position and orientation of the probe (1) relative to the skin (P) of the subject (S) and speed of movement of the probe (1), during movement, this trajectory having been determined during or after step b).
- the method according to the invention may further consist, on request or automatically, in spreading by spraying, by means of a suitable device associated or integrated with the probe (1), ultrasound contact gel in front of and/or behind the probe (1) during one, preferably each exploratory movement.
- a suitable device associated or integrated with the probe (1) ultrasound contact gel in front of and/or behind the probe (1) during one, preferably each exploratory movement.
- the 3D visualization of the organs, vessels and/or tissues present between the surface of the skin (P) and the target (C) as provided in step e), comprises the display by overprinting of a collimation or aiming pattern centered on the target (C), making it possible to define and visually simulate the virtual trajectory of insertion of the needle (3) for a given positioning and orientation of the needle holder (8), and advantageously by interaction via the human-machine interface, to explore the possibilities of rectilinear trajectory of insertion of the needle (3) and entry point in the subject (S) and to select one or more proposals.
- This pattern e.g. a cross as in Figure 8 is set up and visible when the target is viewed in the displayed 3D image (e.g. of a reduced VR volume as in Figures 7A and 7B) along the axis of the relevant insertion direction.
- the determination of the positioning and orientation of the needle holder (8) with a view to a possible optimal insertion trajectory by using a 3D visualization of the organs, vessels and/or tissues or structures (OVT) present between the skin (P) and the target (C), as provided in step e), comprises the automatic analysis and display of at least one, preferably several, proposals for a rectilinear trajectory for insertion of the needle (3) and entry point (PE) in the subject (S), each associated with an orientation or a plurality of orientations contained in a virtual cone whose apex touches the target (C), for example the center thereof, the practitioner being able to select or validate one or one of the proposals via the human-machine interface.
- This cone is normally included in the truncated volume (VR) delimiting the displayed volume.
- VR truncated volume
- the method may consist, after selecting a proposed trajectory for insertion of the needle (3) and entry point (PE) in the subject (S), in visualizing a limited cylindrical tubular volume (VT) with said trajectory as longitudinal median axis (AML) and making it possible to visualize the organs, vessels and/or tissues or structures (OVT) possibly present in this volume.
- VT cylindrical tubular volume
- AML longitudinal median axis
- OVT organs, vessels and/or tissues or structures
- step g) may comprise the prior segmentation of the needle (3) in the images acquired successively as the needle (3) is inserted and in that the volume (VR) visualized consists of a volume elongated along the direction of insertion of the needle. (3), preferably a tubular volume comprising said target (C) and at least one end portion (3') of the needle, as well as the intermediate volume (VP) located between them, with the organs, vessels and/or tissues or structures (OVT) possibly present in this volume. It is thus possible to know quantitatively the distance to the target remaining to be covered by the needle during its insertion and after the acquisition of each 3D image.
- this arrangement also makes it possible to check whether the trajectory is still directed towards the target, the latter possibly moving during insertion.
- it will also be possible to visualize in real time the bending of the needle during its insertion and to carry out a possible slight trajectory correction if necessary.
- step g) the delimitation of the reduced volume (VR) intended to be visualized in 3D is controlled by the insertion movement of the needle (3) and subject to the fraction of the trajectory remaining to be covered at the end portion (3') of the needle (3) up to the target (C), this delimitation being carried out either upstream during the acquisition of the 2D images, or downstream during the 3D visualization.
- the delimitation of the reduced volume (VR) intended to be visualized in 3D is controlled by the insertion movement of the needle (3) and subject to the fraction of the trajectory remaining to be covered at the end portion (3') of the needle (3) up to the target (C), this delimitation being carried out either upstream during the acquisition of the 2D images, or downstream during the 3D visualization.
- each of the volumes (VT) or (VR) visualized can therefore vary in size during insertion to be limited to a smaller volume comprising only an end portion (3') of the needle (3) and a volume (VP) preceding this end (3') during insertion up to the target (C), as shown for example in Figure 4.
- the invention also relates, according to a second aspect, to a collaborative method for inserting a needle (3) into a living subject (S), implementing a medical installation (5) comprising, on the one hand, at least one human-machine interface with a display device (6) and command or control means (7) and, on the other hand, at least the robotic arm (2) carrying said 2D ultrasound probe (1), the position and orientation of which are known in real time and can be used and recorded, concomitantly with the 2D images generated at each exploration, by said installation (5), said installation (5) further comprising another or second robotic arm (4) on which is fixed a needle holder or needle guide (8), at least the relative position of the two arms (2 and 4) between them being known permanently by said installation (5), said method comprising a preparatory planning phase preceding the actual insertion operation, the latter being carried out automatically by the second robotic arm (4) or by a practitioner with guidance by this second robotic arm (4), the needle holder or needle guide (8) being prepositioned and preoriented during the preparatory
- this insertion method is characterized in that it consists of implementing the assisted and interactive method for producing and displaying 3D ultrasound images as described above, and in particular the aforementioned steps a) to e) during a preparatory planning phase, step f) during a replanning phase following the preparatory planning phase and immediately before the start of the insertion of the needle (3) and step g) during the actual operation of inserting the needle (3), the replanning phase and the operation of inserting the needle (3) taking place during the same apnea phase of the subject (S).
- This collaborative insertion process therefore closely integrates the assisted and interactive process for producing and displaying 3D ultrasound images and is dependent for its various constituent phases on the respectively associated steps of the latter process.
- the target can move during insertion, it may be possible to consider compensating for any movements and displacements of the target occurring during insertion of the needle (3), by modifying the orientation of the needle holder or needle guide (8) by the arm robotic (4) carrying it (and therefore the orientation of the trajectory of the needle), carried out automatically or by the practitioner, with a limiting constraint. Another reason for compensation may lie in a possible bending of the needle during insertion.
- the replanning phase carried out at the start of the apnea during which the insertion must be carried out, consists of creating a new standardized 3D image in accordance with step f), checking the adequacy of the positioning of the needle holder (8) and of the resulting trajectory in relation to the situation visualized in this new 3D image and carrying out, where appropriate, automatically or not, and at least after validation by the practitioner, a possible adjustment of the orientation of said needle holder or needle guide (8) necessary to find an optimized insertion trajectory taking into account a possible minor modification of the position of the target (C) and/or of the soft structures (OVT) between two apneas of the subject (S).
- the adjustment will consist at most of slightly modifying the orientation of the needle holder (8) constrained by a passage of the trajectory through the entry point (PE) selected beforehand.
- the invention also relates, according to a third aspect, and as is apparent for example from Figures 1 and 2, to a medical installation (5) for implementing the aforementioned image production method, and preferably the needle insertion method (3) as mentioned previously, this installation (5) comprising, on the one hand, at least one human-machine interface with a display device (6) and command or control means (7) and, on the other hand, at least the robotic arm (2) carrying said 2D ultrasound probe (1), the position and orientation of which are known in real time and can be used and recorded, concomitantly with the 2D images generated at each exploration, by said installation (5).
- the 2D ultrasound probe (1) is connected to an image processing device allowing the production of 3D images and forming part of the medical installation.
- This installation is characterized in that it also comprises, on the one hand, another or second robotic arm (4) on which a needle holder (8) is fixed, less the relative position of the two arms (2 and 4) between them being known permanently by said installation (5), and, on the other hand, means for the controlled acquisition, processing and exploitation of images produced by the 2D ultrasound probe (1) when the latter is moved during an exploration on a living subject (S) by the robotic arm (2) concerned, or by a practitioner with the assistance of said robotic arm (2), these means allowing the implementation of the assisted and interactive method of production and display of 3D ultrasound images described above.
- the two robotic arms (2 and 4) are preferably six-axis robots and together with their control and piloting means constitute a robotic device or robot cooperating interactively with the ultrasound device and the human-machine interface, where appropriate under the control of a centralized control unit of the installation.
- the two robotic arms (2 and 4) are mounted on the same and single base (10), being advantageously kinematically and structurally separate and independent from each other.
- the two arms are not connected to each other, except when mounted on the same base.
- This base advantageously integrates a control unit for these two arms (2 and 4) and is preferably equipped with rolling means and associated with a control means (7) for each arm, for example a pedal, forming part of the human-machine interface.
- the two arms thus extend separately and freely from each other from the base, which contains their control and piloting means and physically determines their common reference frame.
- the human-machine interface comprises a control console (11), possibly mounted on rolling means, comprising computer means for calculating and processing data, in particular image processing algorithms and software, and the display device (6), advantageously in the form of a touch-sensitive display device, said control console (11) interacting with the two robotic arms (2 and 4).
- a robotic device comprising two robotic arms (2 and 4) mounted side by side, for example on the same base, one of which manipulates a 2D ultrasound probe (1) and the other of which manipulates a needle holder (8).
- This device is associated with a human-machine interface comprising a control console (11) with an interactive screen (6) and control means (7).
- the first arm (2) manipulates, autonomously or semi-autonomously, the 2D ultrasound probe (1) in order to scan a large area including the needle insertion region (3) and the surrounding structures (OVT). This scanning will thus make it possible to create 3D images on demand in near real time.
- the scan will be carried out manually by the user (practitioner/clinician) who will co-manipulate the probe (1) with the assistance of the robotic arm. This makes it possible to facilitate but also to slightly constrain the practitioner's gesture to get closer to an ideal trajectory.
- a trajectory will be calculated in order to make the movement of the ultrasound probe manipulated by the robot optimal in terms of speed, pressure applied and the number of 2D images acquired, making it possible to obtain a high-quality 3D image autonomously.
- the position of the target (C) is detected automatically and in real time in the successively acquired 3D ultrasound images.
- the structures to be preserved (OVT) are made visible in these 3D images so as to allow the clinician to visualize all of the secure insertion options available and thus enable him to make a truly informed choice.
- the speed of image acquisition and the planning rectification tools allow the inevitable adjustments necessary to take into account the potential and almost inevitable modification of the position of the target (C) between the planning phase and the execution phase of the gesture (insertion). Indeed, the planning and execution phases are necessarily carried out from two different images since they are associated with two different apneas.
- the second robotic arm (4) manipulates a needle guide or needle holder (8) which is always oriented towards the target (C), in other words the direction of the trajectory that it imposes on the needle that it receives always passes through the target (orientation control).
- This second arm (4) is able, after validation by the clinician, to slightly correct its orientation, and therefore that of the needle holder and the longitudinal direction and trajectory of the needle, to compensate for a change in position of the target (C) between the planning phase and the execution phase.
- a map of all the potential options for the passage of the needle is proposed by juxtaposing the projection of the different volumetric representations on a planisphere because:
- a new 3D image is acquired automatically or semi-automatically and is compared to a 3D image acquired before the treatment in order to facilitate the evaluation of the treated area.
- Phase 1 Positioning and preparing the patient
- the patient (S) is positioned and prepared for the procedure. This includes preparing the area to be treated and positioning the patient in such a way as to ensure optimal access for the practitioner.
- Phase 2 Positioning of the robotic device or robot
- the robot comprising the two robotic arms (2 and 4) is positioned on the other side of the table (9) relative to the practitioner so as not to limit his movements, ensuring optimal coordination throughout the procedure.
- Phase 3 Search for the target using the ultrasound probe (1)
- the practitioner manipulates the 2D transabdominal ultrasound probe to locate the target (C) to be treated.
- An AI algorithm assists him by automatically detecting the target tumor, which accelerates and improves the accuracy of the localization process.
- the ultrasound probe (1) is associated with the first arm (2) of the robot.
- the robot assists the practitioner so that the movement of the probe (1) can be carried out without effort, limiting its parasitic movements while applying limited but sufficient pressure on the skin (8) of the patient (S).
- Phase 4 Creation of a 3D ultrasound image of the needle insertion area
- the practitioner scans using the ultrasound probe (1) an area (RV volume region) which encompasses the reasonable potential trajectories of the needle. Scanning this area makes it possible to automatically create a 3D image including the target (C), the possible trajectories as well as the surrounding structures (OVT).
- the robot is capable of performing similar acquisitions autonomously or semi-autonomously. At any time, the practitioner can now view a 3D image updated in near real time.
- This first scan takes place during the patient's first apnea (S).
- Phase 5 Planning the insertion trajectory
- the practitioner chooses an optimal trajectory for the needle (3) by consulting a map that represents all possible trajectories.
- the map is created by taking into account the presence of fragile structures (OVT) along their paths.
- This map is presented concretely on the touch display interface (6) of the installation in the form of a planisphere including risk-free zones and risk zones. This allows access to all possible options.
- Phase 6 Positioning the needle holder
- the practitioner positions the needle holder in the optimal position chosen using the trajectory options map.
- the needle holder being associated with the second robotic arm (4), when the practitioner moves the needle holder, the latter always remains oriented towards the target (C).
- the position of the needle holder (8) and the resulting trajectory are naturally reported on the real-time map (for example planisphere) corresponding to all the options to facilitate this positioning.
- the clinician will insert the needle (3) while regularly asking the installation (5) comprising the robotic arm (2) with the probe (1) to update the visualization of the 3D image limited to a cylinder located around the trajectory of the needle for near-real-time control of the precision of the procedure.
- Phase 8 Target treatment by radiofrequency
- the practitioner can perform the radiofrequency treatment (or another operation involving the needle).
- the practitioner asks the installation (5) to acquire a new 3D image to evaluate the extent of the treatment. This makes it possible to verify the effectiveness of the treatment by comparing two images, the first having been acquired before and the second after the treatment.
- the invention can be implemented in its various aspects indifferently with a needle holder or a needle guide, the mention of one being worth mentioning the other as well.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
ProcĂ©dĂ© de production et d'affichage d'images Ă©chographiques 3D, procĂ©dĂ© d'insertion d'aiguille l'utilisant et installation pour leur mise en Ćuvre L'invention concerne un procĂ©dĂ© assistĂ© et interactif de production et d'affichage d'images Ă©chographiques 3D, par acquisition contrĂŽlĂ©e et traitement d'images 2D acquises par l'intermĂ©diaire d'une sonde Ă©chographique 2D (1) pouvant ĂȘtre dĂ©placĂ©e sur un sujet vivant (S) par un bras robotisĂ© (2), ou par un praticien avec l'assistance d'un bras robotisĂ© (2), notamment avant et durant une opĂ©ration d'insertion d'aiguille (3) dans ledit sujet (S), cette opĂ©ration Ă©tant rĂ©alisĂ©e par exemple par le biais ou avec l'assistance d'un autre bras robotisĂ© (4) Ă©quipĂ© d'un porte-aiguille (8). Ce procĂ©dĂ© est utilisĂ© durant une phase de planification de l'insertion, durant une phase de replanification juste avant insertion et durant l'insertion, et rĂ©alise l'affichage de volumes pertinents adaptĂ©s aux diffĂ©rentes phases montrant la trajectoire de l'aiguille (3), les structures fragiles (OVT) et la cible (C).
Description
Description
PROCEDE DE PRODUCTION ET D'AFFICHAGE D'IMAGES ECHOGRAPHIQUES 3D
[0001 ] La prĂ©sente invention concerne les domaines de lâimagerie mĂ©dicale et de lâassistance au positionnement dâaiguilles sous guidage Ă©chographique assistĂ© par une installation robotisĂ©e, et plus particuliĂšrement la crĂ©ation et lâexploitation dâimages Ă©chographique 3D Ă partir de lâacquisition autonome ou semi-autonome dâun ensemble dâimages Ă©chographiques 2D et son utilisation avantageuse en relation avec des procĂ©dures dâinsertion et dâimplantation dâaiguilles de prĂ©lĂšvement, dâinjection ou de traitement localisĂ© (cible) dans des sujets.
[0002] Elle a pour objets un procĂ©dĂ© assistĂ© et interactif de production et dâaffichage dâimages Ă©chographiques 3D par acquisition contrĂŽlĂ©e et traitement dâimages 2D, un procĂ©dĂ© dâinsertion dâaiguille, automatique ou prĂ©fĂ©rentiellement assistĂ© ou collaboratif, utilisant le procĂ©dĂ© prĂ©citĂ©, et une installation mĂ©dicale robotisĂ©e pour la mise en oeuvre de ces deux procĂ©dĂ©s.
[0003] Une technique mĂ©dicale actuellement en plein dĂ©veloppement est la chirurgie percutanĂ©e par lâintermĂ©diaire dâune aiguille enfoncĂ©e dans le patient, autant pour le traitement de cancers que pour lâinjection ou le prĂ©lĂšvement localisĂ©.
[0004] Dans le cas du traitement des cancers localisĂ©s dans la rĂ©gion abdominale, elle consiste Ă positionner lâextrĂ©mitĂ© dâune ou de plusieurs aiguilles dans une tumeur, en passant Ă travers la paroi abdominale. La destruction de la tumeur a notamment lieu en gĂ©nĂ©rant en bout dâaiguille des variations de tempĂ©ratures importantes (chaud ou froid). Il est ainsi possible par exemple de traiter les tumeurs par radiofrĂ©quence, cryoablation, micro-ondes ou encore par Ă©lectroporation.
[0005] Cette approche gagne en popularitĂ© car elle est peu coĂ»teuse, trĂšs peu invasive et que les progrĂšs des techniques dâablation permettent de traiter des cibles ayant des tailles, des formes et des localisations de plus en plus diverses. Cela permet Ă ce type de traitements dâĂȘtre effectuĂ©s le plus souvent en ambulatoire, source dâĂ©conomie pour le systĂšme de santĂ© mais Ă©galement de bien-ĂȘtre pour le patient.
[0006] La principale difficulté associée à cette technique curative est le positionnement précis des aiguilles, tout en préservant les structures fragiles environnantes. Le positionnement correct des aiguilles est un geste qui nécessite une expertise singuliÚre.
[0007] Dans le cas du pancrĂ©as, du rein et du foie, ces organes Ă©tant constituĂ©s de tissus mous et de surcroit localisĂ©s dans la cavitĂ© abdominale, ils sont sujets Ă des dĂ©placements ainsi quâĂ des dĂ©formations. Ces dĂ©placements et ces dĂ©formations sont notamment induits par les mouvements physiologiques, principalement le mouvement respiratoire, et lâinsertion de lâaiguille en elle-mĂȘme.
[0008] Il est fondamental de noter que sâil est imposĂ© au patient dâeffectuer une apnĂ©e durant lâinsertion des aiguilles, deux apnĂ©es successives ne permettent en aucune façon de garantir que la cible sera localisĂ©e de maniĂšre analogue. Il en est de mĂȘme des structures (tissus, organes, vaisseaux) situĂ©es entre la peau et la cible.
[0009] Actuellement, diffĂ©rentes solutions techniques sont connues pour rĂ©aliser des procĂ©dĂ©s dâinsertion dâaiguilles (assistĂ©s ou guidĂ©s) dans des patients ou des sujets, sâappuyant sur des technologies dâimagerie mĂ©dicale 3D diverses (scanner, IRM ou Ă©chographie 3D). Elles prĂ©sentent toutes des inconvĂ©nients plus ou moins importants, en termes de coĂ»ts, de complexitĂ© de mise en oeuvre des installations nĂ©cessaires, de durĂ©e de la procĂ©dure, dâexposition nĂ©faste Ă des radiations, de compatibilitĂ© avec un milieu prĂ©sentant un champ magnĂ©tique important, de confort dâutilisation pour le praticien et/ou de prĂ©cision de rĂ©alisation notamment liĂ©s Ă lâobsolescence certaine des donnĂ©es dâimagerie au moment de lâintervention puisquâelles ont Ă©tĂ© acquises bien avant lâintervention lors de la phase de planification.
[0010] Ainsi, les procĂ©dĂ©s connus mettant en oeuvre lâimagerie par rayons X pĂšchent par une configuration dâinstallation complexe (marqueurs, camĂ©ras), un coĂ»t Ă©levĂ© du matĂ©riel dâimagerie (CT scanner), lâimpact dâune dose Ă©levĂ©e de rayons X et surtout lâobsolescence des donnĂ©es dâimagerie lors de leur utilisation effective, du fait des durĂ©es dâacquisition et de traitement de ces derniĂšres.
[0011 ] Les mĂȘmes dĂ©fauts sont identifiĂ©s pour les solutions mettant en oeuvre un procĂ©dĂ© dâIRM, exceptĂ© lâabsence de dose de rayons X, mais pour l'IRM, la prĂ©sence d'un champ magnĂ©tique de forte intensitĂ© limite sensiblement la
disponibilité du matériel de traitement compatible et a un impact majeur sur son coût.
[0012] Enfin, des procĂ©dĂ©s mettant en oeuvre des Ă©chographes 3D, pour assister ou guider lâinsertion dâaiguilles, sont Ă©galement dĂ©jĂ connus, mais ils prĂ©sentent aussi de nombreuses limitations.
[0013] Ainsi, ces Ă©chographes 3D prĂ©sentent un coĂ»t Ă©levĂ©, manquent de prĂ©cision (images de qualitĂ© mĂ©diocre par rapport aux imageurs Ă©chographiques 2D), mettent en oeuvre une sonde encombrante et fastidieuse Ă manipuler, nĂ©cessitent Ă©galement un systĂšme de repĂ©rage et de rĂ©fĂ©rencement spatial (camĂ©ra ou capteur Ă©lectromagnĂ©tiques) et ne sont pas optimisĂ©s en termes de traitement de donnĂ©es (quantitĂ© et pertinence des donnĂ©es acquises et traitĂ©es). De plus, le problĂšme dâobsolescence des donnĂ©es affecte Ă©galement les images fournies par ces imageurs Ă©chographiques 3D, Ă la diffĂ©rence des imageurs Ă©chographique 2D (lesquels ne sont pas toujours adaptĂ©s pour une utilisation dans le contexte prĂ©citĂ© et nĂ©cessitent un dĂ©placement maĂźtrisĂ© pour fournir des images exploitables).
[0014] Il existe par ailleurs diffĂ©rentes solutions pour assister lâinsertion dâaiguilles par lâintermĂ©diaire de dispositifs robotisĂ©s, trĂšs majoritairement associĂ©es Ă lâutilisation dâun imageur du type scanner et dâune camĂ©ra. Toutefois, ces solutions nĂ©cessitent un recalage entre le rĂ©fĂ©rentiel de lâimageur et celui du bras robot, et la mise en oeuvre de marqueurs dans le scanner et sur le robot pouvant ĂȘtre repĂ©rĂ©s par la camĂ©ra et le scanner.
[0015] De plus, ces solutions connues ne tiennent pas non plus compte du dĂ©placement hautement probable de la cible et des structures molles et fragiles (concernĂ©es par lâinsertion) entre deux phases dâapnĂ©e, qui rend problĂ©matique et risquĂ© lâinsertion Ă lâaveugle rĂ©alisĂ©e dans le cadre de ces solutions, du fait aussi de lâobsolescence des images rĂ©alisĂ©es antĂ©rieurement et qui sont exploitĂ©es juste avant le dĂ©but de lâinsertion. En outre, les difficultĂ©s ergonomiques liĂ©es Ă l'utilisation nĂ©cessaire d'une camĂ©ra spĂ©cifique reprĂ©sentent un dĂ©fi non nĂ©gligeable, pouvant impacter l'efficacitĂ© et la fluiditĂ© des procĂ©dures en salle d'opĂ©ration. Par ailleurs, il convient de considĂ©rer que la trajectoire choisie par le clinicien pour l'insertion de l'aiguille n'est pas nĂ©cessairement la meilleure : cette limitation soulĂšve des questions quant Ă la flexibilitĂ© et l'adaptabilitĂ© de la mĂ©thode
en fonction des particularitĂ©s anatomiques de chaque patient. Enfin, l'aspect Ă©conomique de ces solutions ne peut ĂȘtre ignorĂ© : son coĂ»t Ă©levĂ©, liĂ© Ă la fois au personnel qualifiĂ© et aux infrastructures spĂ©cifiques nĂ©cessaires Ă sa rĂ©alisation, reprĂ©sente un frein majeur Ă son adoption gĂ©nĂ©ralisĂ©e, en particulier dans un contexte de ressources limitĂ©es.
[0016] La prĂ©sente invention a pour but de proposer une solution nouvelle permettant de surmonter au moins certaines des principales limitations prĂ©citĂ©es, notamment celles liĂ©es Ă lâobsolescence des images exploitĂ©es en particulier Ă la fin de la pĂ©riode prĂ©paratoire prĂ©cĂ©dent le dĂ©but de lâinsertion, Ă la prĂ©sence dâune camĂ©ra, Ă lâabsence de prise en compte des changements intervenus entre deux apnĂ©es et Ă une collaboration limitĂ©e entre les dispositifs robotisĂ©s et le praticien, ce tout en exploitant les avantages liĂ©s Ă lâutilisation de lâĂ©chographie.
[0017] Selon un premier et principal aspect de lâinvention, lâinvention vise Ă fournir une aide visuelle pertinente, ergonomique et interactive pour le praticien, au moins avant une intervention mettant en oeuvre une insertion dâaiguille avec lâaide dâun porte-aiguille ou guide dâaiguille.
[0018] A cet effet, elle a pour principal objet un procĂ©dĂ© assistĂ© et interactif de production et dâaffichage dâimages Ă©chographiques 3D, par acquisition contrĂŽlĂ©e et traitement dâimages 2D acquises par lâintermĂ©diaire dâune sonde Ă©chographique 2D pouvant ĂȘtre dĂ©placĂ©e sur un sujet vivant par un bras robotisĂ©, ou par un praticien avec lâassistance dâun bras robotisĂ©, notamment avant une opĂ©ration dâinsertion dâaiguille Ă lâaide dâun porte-aiguille ou guide dâaiguille dans ledit sujet, durant une phase prĂ©paratoire de planification, lâopĂ©ration dâinsertion Ă©tant rĂ©alisĂ©e par exemple par le biais ou avec lâassistance dâun autre bras robotisĂ© Ă©quipĂ© dâun porte-aiguille, ledit procĂ©dĂ© mettant en oeuvre une installation mĂ©dicale comprenant, dâune part, au moins une interface homme-machine avec un dispositif dâaffichage et des moyens de commande ou de contrĂŽle et, dâautre part, au moins le bras robotisĂ© portant ladite sonde Ă©chographique 2D, dont la position et lâorientation sont connues en temps-rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă chaque exploration, par ladite installation, procĂ©dĂ© caractĂ©risĂ© en ce quâil comprend au moins les Ă©tapes consistant :
a) Ă localiser une ou la cible Ă traiter dans le sujet par dĂ©placement exploratoire de la sonde sur la peau de ce dernier et analyse des images Ă©chographiques 2D acquises, par un praticien Ă©ventuellement assistĂ© par logiciel de dĂ©tection adaptĂ© ; b) Ă produire une premiĂšre image 3D dâune rĂ©gion volumique du sujet, sâĂ©tendant depuis la peau jusquâĂ la cible concernĂ©e et contenant cette derniĂšre et les trajectoires raisonnables dâintroduction possibles dâune aiguille pour atteindre ladite cible estimĂ©es par le praticien, cette image 3D Ă©tant obtenue Ă partir dâun ensemble dâimages 2D acquises, durant une phase dâapnĂ©e du sujet, par dĂ©placement de la sonde Ă©chographique 2D par le praticien avec lâassistance du bras robotisĂ© et potentiellement par exploitation des informations de localisation de lâĂ©tape a) ; c) Ă dĂ©terminer automatiquement, durant ou aprĂšs lâĂ©tape b), les paramĂštres et le parcours dâune trajectoire optimisĂ©e et reproductible pour la sonde Ă©chographique 2D permettant la production dâimages 3D sensiblement standardisĂ©es et identiquement cadrĂ©es de la rĂ©gion volumique prĂ©citĂ©e ; d) Ă produire une, ou successivement plusieurs, image(s) 3D sensiblement standardisĂ©e(s) de cette rĂ©gion volumique, ce en quasi-temps rĂ©el et automatiquement ou sur commande du praticien, durant une phase dâapnĂ©e du sujet et sur la base dâimages 2D fraichement acquises suite Ă une nouvelle exploration avec la sonde Ă©chographique 2D effectuĂ©e en appliquant les paramĂštres et en suivant le parcours qui ont Ă©tĂ© dĂ©terminĂ©s durant lâĂ©tape c) ; e) Ă visualiser, dans cette ou ces images 3D sensiblement standardisĂ©es de la rĂ©gion volumique du sujet, les organes, vaisseaux et/ou tissus ou structures molles analogues prĂ©sent(e)s entre la peau et ladite cible, ainsi que ces deux derniĂšres, en vue de permettre de dĂ©terminer le positionnement et lâorientation dâun porte-aiguille pour au moins une possible trajectoire dâinsertion optimisĂ©e de lâaiguille ; f) Ă rĂ©pĂ©ter les Ă©tapes d) et e) juste avant le dĂ©but de lâinsertion de lâaiguille, laquelle est alors positionnĂ©e en accord avec la trajectoire dâinsertion optimisĂ©e sĂ©lectionnĂ©e par le praticien et visualisĂ©e dans lâimage 3D courante, et Ă dĂ©terminer et Ă visualiser automatiquement la position de la cible Ă cet instant en vue dâun possible ajustement du positionnement et/ou de lâorientation du porte- aiguille, en particulier juste avant lâinsertion effective de lâaiguille.
[0019] Elle a Ă©galement pour objets, selon deux autres aspects, un procĂ©dĂ© dâinsertion dâaiguille utilisant le procĂ©dĂ© de production et dâaffichage dâimages Ă©chographiques 3D prĂ©citĂ©, et une installation mĂ©dicale pour la mise en oeuvre de ces deux procĂ©dĂ©s.
[0020] L'invention sera mieux comprise, grùce à la description ci-aprÚs, qui se rapporte à un mode de réalisation préféré, donné à titre d'exemple non limitatif, et expliqué avec référence aux dessins schématiques annexés, dans lesquels :
[0021 ] [Fig. 1 ] reprĂ©sente schĂ©matiquement une installation mĂ©dicale selon un mode de rĂ©alisation prĂ©fĂ©rĂ©, pour la mise en oeuvre des procĂ©dĂ©s dâimagerie et dâinsertion dâaiguille selon lâinvention ;
[0022] [Fig. 2] reprĂ©sente lâinstallation de la figure 1 au cours dâune intervention sur un sujet, ici un patient humain ;
[0023] [Fig. 3] est une reprĂ©sentation schĂ©matique de dĂ©tail et en coupe dâune partie du corps du sujet juste avant lâinsertion dâune aiguille ;
[0024] [Fig. 4] est une reprĂ©sentation similaire Ă celle de la figure 3 durant lâinsertion de lâaiguille, par exemple en tant que vue partielle et de dĂ©tail (Ă une autre Ă©chelle) de la scĂšne reprĂ©sentĂ©e figure 2 ;
[0025] [Fig. 5] est une reprĂ©sentation dâun ensemble dâimages Ă©chographiques 2D acquises, automatiquement ou collaborativement avec le praticien, par lâintermĂ©diaire de la sonde portĂ©e par le premier bras robotisĂ© faisant partie de lâinstallation selon lâinvention ;
[0026] [Fig. 6] est une reprĂ©sentation dâune rĂ©gion volumique de lâabdomen dâun patient sous la forme dâun planisphĂšre montrant les structures fragiles/molles et permettant dâestimer les diffĂ©rentes trajectoires possibles pour lâinsertion dâune aiguille en vue dâatteindre la cible ;
[0027] [Fig. 7A] et [Fig. 7B] sont des images 3D dâune rĂ©gion volumique tubulaire/tronconique du corps du patient entre la peau et la cible et entourant une trajectoire dâaiguille, vues selon deux directions diffĂ©rentes ;
[0028] [Fig. 8] est une image montrant la rĂ©gion tubulaire/tronconique des figures 7A et 7B vue selon la direction dâinsertion, le point dâentrĂ©e Ă©tant marquĂ© par une croix, et,
[0029] [Fig. 9] est une image 3D montrant une aiguille ayant atteint la cible.
[0030] Lâinvention concerne, selon un premier aspect de lâinvention, un procĂ©dĂ© assistĂ© et interactif de production et dâaffichage dâimages Ă©chographiques 3D, par acquisition contrĂŽlĂ©e et traitement dâimages 2D acquises par lâintermĂ©diaire dâune sonde Ă©chographique 2D (1 ) pouvant ĂȘtre dĂ©placĂ©e sur un sujet vivant (S) par un bras robotisĂ© (2) la portant, ou par un praticien avec lâassistance dâun bras robotisĂ© (2) dĂ©placĂ© par celui-ci et tenant ladite sonde (1 ), notamment avant une opĂ©ration dâinsertion dâaiguille (3) Ă lâaide dâun porte-aiguille ou guide dâaiguille (8) dans ledit sujet (S), durant une phase prĂ©paratoire de planification, lâopĂ©ration Ă©tant rĂ©alisĂ©e par exemple par le biais ou avec lâassistance dâun autre bras robotisĂ© (4) Ă©quipĂ© du porte-aiguille ou guide dâaiguille (8).
[0031 ] Ce procĂ©dĂ© met en oeuvre une installation mĂ©dicale (5) comprenant, dâune part, au moins une interface homme-machine avec un dispositif dâaffichage (6) et des moyens (7) de commande ou de contrĂŽle et, dâautre part, au moins le bras robotisĂ© (2) portant ladite sonde Ă©chographique 2D (1 ), dont la position et lâorientation sont connues en temps-rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă chaque exploration, par ladite installation (5).
[0032] Ce procĂ©dĂ© est caractĂ©risĂ© en ce quâil comprend au moins les Ă©tapes consistant : a) Ă localiser une ou la cible (C) Ă traiter dans le sujet (S) par dĂ©placement exploratoire de la sonde (1 ) sur la peau (P) de ce dernier et analyse des images Ă©chographiques 2D acquises, par un praticien Ă©ventuellement assistĂ© par logiciel de dĂ©tection adaptĂ© ; b) Ă produire une premiĂšre image 3D dâune rĂ©gion volumique (RV) du sujet (S), sâĂ©tendant depuis la peau (P) jusquâĂ la cible (C) concernĂ©e et contenant cette derniĂšre et les trajectoires raisonnables dâintroduction possibles dâune aiguille (3) pour atteindre ladite cible (C) estimĂ©es par le praticien, cette image 3D Ă©tant obtenue Ă partir dâun ensemble dâimages 2D acquises, durant une phase dâapnĂ©e du sujet (S), par dĂ©placement de la sonde Ă©chographique 2D (1 ) par le praticien avec lâassistance du bras robotisĂ© (2) et potentiellement par exploitation des informations de localisation de lâĂ©tape a) ;
c) Ă dĂ©terminer automatiquement, durant ou aprĂšs lâĂ©tape b), les paramĂštres et le parcours dâune trajectoire optimisĂ©e et reproductible pour la sonde Ă©chographique 2D (1 ) permettant la production dâimages 3D sensiblement standardisĂ©es et identiquement cadrĂ©es de la rĂ©gion volumique (RV) prĂ©citĂ©e ; d) Ă produire une, ou successivement plusieurs, image(s) 3D sensiblement standardisĂ©e(s) de cette rĂ©gion volumique (RV), ce en quasi-temps rĂ©el et automatiquement ou sur commande du praticien, durant une phase dâapnĂ©e du sujet (S) et sur la base dâimages 2D fraichement acquises suite Ă une nouvelle exploration avec la sonde Ă©chographique 2D (1 ) effectuĂ©e en appliquant les paramĂštres et en suivant le parcours qui ont Ă©tĂ© dĂ©terminĂ©s durant lâĂ©tape c) ; e) Ă visualiser, dans cette ou ces images 3D sensiblement standardisĂ©es de la rĂ©gion volumique (RV) du sujet (S), les organes, vaisseaux et/ou tissus ou structures molles analogues (OVT) prĂ©sent(e)s entre la peau (P) et ladite cible (C), ainsi que ces deux derniĂšres, en vue de permettre de dĂ©terminer le positionnement et lâorientation dâun porte-aiguille (8) pour au moins une possible trajectoire dâinsertion optimisĂ©e de lâaiguille (3) ; f) Ă rĂ©pĂ©ter les Ă©tapes d) et e) juste avant le dĂ©but de lâinsertion de lâaiguille (3), laquelle est alors positionnĂ©e en accord avec la trajectoire dâinsertion optimisĂ©e sĂ©lectionnĂ©e par le praticien et visualisĂ©e dans lâimage 3D courante, et Ă dĂ©terminer et Ă visualiser automatiquement la position de la cible (C) Ă cet instant en vue dâun possible ajustement du positionnement et/ou de lâorientation du porte- aiguille (8), en particulier juste avant lâinsertion effective de lâaiguille.
[0033] GrĂące aux dispositions prĂ©citĂ©es de lâinvention, il est possible de proposer une solution permettant dâatteindre le but fixĂ©. En effet, le procĂ©dĂ© visĂ© permet de fournir une assistance continue, collaborative et interactive, au praticien au moins durant la phase prĂ©paratoire de planification de lâintervention et durant la phase dâajustement fin juste avant le dĂ©but de lâinsertion de lâaiguille avec lâaide du porte- aiguille, qui dĂ©termine la trajectoire dâinsertion et guidera lâaiguille durant son insertion. Ce procĂ©dĂ© exploite les avantages de lâĂ©chographie 2D, tout en permettant une visualisation en 3D, ce par le biais de dispositions particuliĂšres. Le procĂ©dĂ© tire Ă©galement profit de phases dâapprentissage ciblĂ©es prĂ©liminaires, dispensĂ©es par le praticien pour le bras robotisĂ© (2) portant la sonde (1 ) et les moyens logiciels faisant partie de lâinstallation (5), pour assister ultĂ©rieurement
efficacement ledit praticien par une automatisation ou semi-automatisation des explorations échographiques et une automatisation de la reconnaissance et du suivi de cible.
[0034] Selon un aspect additionnel possible de lâinvention, la solution proposĂ©e peut en outre fournir une assistance continue, collaborative et interactive, au praticien durant toute la durĂ©e dâinsertion jusquâĂ lâatteinte de la cible.
[0035] A cet effet, le procĂ©dĂ© prĂ©citĂ© peut Ă©galement comprendre, aprĂšs lâĂ©tape f) et durant lâinsertion de lâaiguille (3), une Ă©tape g) consistant : Ă visualiser en quasi-temps rĂ©el lâinsertion progressive de lâaiguille (3) par crĂ©ation et visualisation rĂ©pĂ©tĂ©es dâimages 3D rafraĂźchies dâun volume (VR), par exemple sensiblement cylindrique ou tronconique, en tant que fraction de la rĂ©gion volumique prĂ©citĂ©e (RV) du sujet (S), prĂ©fĂ©rentiellement en tant que fraction variable de cette rĂ©gion volumique, les images 3D de ce volume (VR) montrant soit ladite cible (C) et au moins une portion dâextrĂ©mitĂ© (3â) de lâaiguille (3), prĂ©fĂ©rentiellement toute la partie de lâaiguille (3) insĂ©rĂ©e dans le sujet (S), soit au moins une portion dâextrĂ©mitĂ© (3â) de lâaiguille (3) et un volume (VP) prĂ©cĂ©dant cette extrĂ©mitĂ© (3â) durant lâinsertion, cette visualisation dâimages 3D rafraĂźchies dudit volume (VR) se prolongeant prĂ©fĂ©rentiellement au moins jusquâĂ ce que la cible (C) soit atteinte par lâaiguille (3), les deux Ă©tapes f) et g) Ă©tant alors rĂ©alisĂ©es ensemble durant une mĂȘme phase dâapnĂ©e du sujet (S).
[0036] En termes dâinformation Ă destination du praticien, le procĂ©dĂ© selon lâinvention fournit une visualisation 3D Ă©volutive. Ainsi, il peut ĂȘtre prĂ©vu, tout dâabord, de visualiser une rĂ©gion volumique importante (RV) englobant la cible et une zone environnante, la peau (ou au moins une zone interne proche de la peau), au moins les diffĂ©rentes trajectoires dâinsertion raisonnables et lâensemble des structures molles et fragiles (OVT) localisĂ©es dans cette rĂ©gion, ce durant lâĂ©tape b) et au moins une partie dâune phase de planification prĂ©alable ; puis de visualiser un volume plus rĂ©duit (VR, VT) comprenant au moins lâextrĂ©mitĂ© de lâaiguille et au moins un volume intermĂ©diaire juste suffisamment Ă©tendu pour pouvoir connaĂźtre et prendre en compte la prĂ©sence de la cible, des organes, vaisseaux et/ou tissus ou structures fragiles analogues prĂ©sentes dans cet environnement, ce juste avant et pendant lâintervention.
[0037] En variante, et en fonction de lâexpĂ©rience et du souhait du praticien, le volume visualisĂ© peut, dĂšs lâĂ©tape b), se limiter Ă un volume plus rĂ©duit que la rĂ©gion volumique (RV) explorĂ©e par la sonde (1 ), par exemple un volume tronconique (VR) sâĂ©tendant autour dâune direction dâinsertion mĂ©diane estimĂ©e raisonnable par le praticien (passant par le centre de la cible) et entre la peau et la cible. A titre dâexemple, un tel tronc de cĂŽne prĂ©senterait une base sous forme de disque ou dâellipse avec un diamĂštre Ă la base dâenviron 5 Ă 10 cm au niveau de la peau) et dont le sommet entoure le centre de la cible, voire cette derniĂšre.
[0038] La mise en oeuvre dâun bras robotisĂ© portant la sonde Ă©chographique 2D, soumis Ă un apprentissage du volume Ă explorer et apte Ă rĂ©aliser ensuite, Ă la demande du praticien, des acquisitions semi-automatiques ou automatiques avec des paramĂštres optimisĂ©es et donc des visualisations 3D standardisĂ©es, soulage le praticien et garantit une qualitĂ© dâimage constante.
[0039] Par ailleurs, lâadaptation du traitement et de lâaffichage des images au volume utile durant les diffĂ©rentes phases permet notamment un rafraichissement des images plus rapide lorsque la mise Ă disposition dâune information en temps rĂ©el est importante (durant lâinsertion), ainsi quâune interprĂ©tation plus aisĂ©e lorsque la zone visualisĂ©e est limitĂ©e sensiblement Ă la zone dâintĂ©rĂȘt au moment de lâacquisition.
[0040] Durant lâĂ©tape b), le bras robotisĂ© (2) peut permettre de faciliter le dĂ©placement de la sonde (1 ) en appliquant un effort contrĂŽlĂ© sur celle-ci pour que le praticien ne soit pas obligĂ© de forcer durant cette exploration, tout en Ă©vitant une pression trop Ă©levĂ©e.
[0041] Il convient de noter que, durant chaque exploration avec la sonde Ă©chographique 2D (1 ) et durant lâinsertion de lâaiguille (3), le patient est supposĂ© ĂȘtre en apnĂ©e.
[0042] En outre, par le biais de lâinterface homme-machine (6, 7), le praticien est apte Ă dĂ©clencher des explorations et rĂ©cupĂ©ration dâimages 2D avec la sonde (1 ) tenue par le bras robotisĂ© (2), Ă naviguer dans les images 3D produites en changeant notamment lâangle de vue par rapport au volume affichĂ© (pour par exemple visionner ce volume avec ses contenus selon lâaxe dâune trajectoire dâinsertion dâaiguille, qui est avantageusement confondu avec lâaxe mĂ©dian de ce volume) et
Ă choisir les composantes quâil souhaite voir sâafficher ( en dehors des opĂ©rations dâacquisition et de visualisation automatiques).
[0043] Le procĂ©dĂ© selon lâinvention fournit par consĂ©quent une assistance visuelle interactive, quasi-instantanĂ©e, calĂ©e sur la respiration du patient, non interfĂ©rente avec les autres tĂąches du praticien et adaptative en fonction de lâavancement du protocole de traitement. Cette assistance se prolonge en outre de maniĂšre continue sur les diffĂ©rentes phases du protocole mis en oeuvre : la planification prĂ©alable, la replanification rapide juste avant insertion et la phase dâinsertion.
[0044] Alors que les Ă©tapes b) et c) correspondent Ă une phase dâapprentissage du bras robotisĂ© (2) portant la sonde (1 ), afin de lui permettre ensuite de rĂ©aliser des explorations automatiquement ou semi-automatiquement, les Ă©tapes d) et e) sont associĂ©es Ă une phase prĂ©paratoire de planification de lâintervention aboutissant, le cas Ă©chĂ©ant par rĂ©pĂ©titions successives, Ă lâobtention dâune image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (RV) jugĂ©e optimale, et Ă sa visualisation, par exemple sous forme de planisphĂšre, avec indication intĂ©grĂ©e des possibles trajectoires dâinsertion de lâaiguille (3) dĂ©terminĂ©es automatiquement ou par le praticien, puis dâune proposition de possible trajectoire dâinsertion optimisĂ©e et sĂ©curisĂ©e de lâaiguille (3), sĂ©lectionnĂ©e automatiquement ou par le praticien.
[0045] Toutefois, la derniĂšre rĂ©pĂ©tition des Ă©tapes d) et e), au cours de lâĂ©tape f), correspond quant Ă elle Ă une phase de replanification prĂ©cĂ©dant, durant la mĂȘme phase dâapnĂ©e, de maniĂšre imminente le dĂ©but de la phase dâinsertion et prenant en compte une probable modification mineure de la position de la cible (C) et des structures molles (OVT) entre deux apnĂ©es du sujet (S), cette Ă©tape f) comprenant la crĂ©ation et la visualisation dâune nouvelle image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (RV) du mĂȘme type que celle obtenue Ă lâissue de lâĂ©tape e), ce en vue dâun possible ajustement automatique ou manuel du positionnement et/ou de lâorientation du porte-aiguille (8) correspondant Ă la trajectoire optimisĂ©e sĂ©lectionnĂ©e Ă lâissue de lâĂ©tape e) et au moins dâune validation de cette trajectoire, Ă©ventuellement rĂ©ajustĂ©e finement, par le praticien. Comme il nây a pas de diffĂ©rence majeure entre les deux apnĂ©es en termes de position des structures (OVT) et de la cible (C), un ajustement fin suffit pour optimiser Ă nouveau la trajectoire prĂ©vue, sans nĂ©cessiter une replanification plus complĂšte.
[0046] Afin de faciliter et de rendre plus rapide le choix ou la validation dâune possible trajectoire dâinsertion optimisĂ©e de lâaiguille (3) durant lâĂ©tape e), il peut ĂȘtre avantageusement prĂ©vu que dans lâĂ©tape b), les trajectoires estimĂ©es raisonnables par le praticien sont dĂ©finies par ce dernier par lâintermĂ©diaire dâune direction dâinsertion mĂ©diane passant par la cible (C) et correspondent Ă des trajectoires rectilignes comprises dans un volume conique ou tronconique, prĂ©fĂ©rentiellement Ă base circulaire ou ellipsoĂŻdale, correspondant Ă©ventuellement au volume rĂ©duit (VR), sâĂ©tendant en sâeffilant de la peau (P) jusquâĂ la cible (C) au moins et avec un axe mĂ©dian (AML) passant par la cible (C), cet axe mĂ©dian correspondant Ă la direction mĂ©diane prĂ©citĂ©e et pouvant ĂȘtre matĂ©rialisĂ© par un positionnement correspondant du porte-aiguille (8). PrĂ©fĂ©rentiellement, au moins une trajectoire dâinsertion possible, voire optimisĂ©e, est dĂ©terminĂ©e aprĂšs analyse du contenu de ladite premiĂšre image 3D et prise en compte des circonstances spĂ©cifiques liĂ©es au sujet (S) et Ă la configuration de lâintervention, de maniĂšre automatique ou semi- automatiquement ou par le praticien.
[0047] En vue de pouvoir rĂ©aliser avec la sonde (1 ) montĂ©e sur le bras robotisĂ© (2) une exploration rapide et performante, les images 3D sensiblement standardisĂ©es de lâĂ©tape c) et de lâĂ©tape d) consistent avantageusement en des images 3D produites Ă partir dâimages 2D acquises selon des plans sĂ©cants par rapport aux trajectoires raisonnables dâinsertions de lâĂ©tape b) et avec une qualitĂ© suffisante et constante, Ă savoir avec une trajectoire optimisĂ©e et reproductible de la sonde Ă©chographique 2D (1 ), câest-Ă -dire notamment en appliquant une force sensiblement constante et aussi faible que possible au niveau de la sonde 2D (1 ) permettant lâacquisition dâimages 2D avec la qualitĂ© prĂ©citĂ©e et en dĂ©plaçant cette derniĂšre avec une vitesse dâacquisition maĂźtrisĂ©e et optimisĂ©e, notamment la vitesse la plus Ă©levĂ©e possible garantissant nĂ©anmoins une densitĂ© et une qualitĂ© dâinformations volumiques suffisantes pour produire des images de qualitĂ© acceptable. Lorsque le dĂ©placement de la sonde (1 ) est une simple translation, une vitesse sensiblement constante et Ă©levĂ©e (avec la restriction prĂ©citĂ©e) est avantageusement appliquĂ©e durant lâexploration, avantageusement avec des variations infĂ©rieures Ă une valeur seuil prĂ©dĂ©terminĂ©e, par exemple 10%, prĂ©fĂ©rentiellement 5 %. Cependant, en cas de mouvements de rotation ou de basculement, ou de mouvements combinĂ©s, il y a le cas Ă©chĂ©ant lieu de ralentir
pour que le dĂ©placement du plan dâacquisition dans le volume en bout de sonde ne soit pas trop important au regard du nombre d'images 2D par seconde quâil est possible dâacquĂ©rir.
[0048] En accord avec des variantes de rĂ©alisation avantageuses de lâinvention, il peut ĂȘtre prĂ©vu que dans lâĂ©tape e), la visualisation des tissus ou structures (OVT) dans lâimage 3D sensiblement standardisĂ©e de la rĂ©gion volumique (VR) est rĂ©alisĂ©e par lâintermĂ©diaire dâun mode de visualisation parmi : i) une visualisation successive de vues en coupe correspondant Ă des images interpolĂ©es 2D, ii) une visualisation 3D obtenue par une mĂ©thode de rendu volumique direct et iii) une visualisation 3D obtenue par une mĂ©thode de rendu surfacique, aprĂšs rĂ©alisation dâune phase de segmentation de ladite image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (VR).
[0049] ConformĂ©ment Ă une possible caractĂ©ristique additionnelle de lâinvention, le procĂ©dĂ© peut comprendre une Ă©tape finale supplĂ©mentaire h) consistant Ă afficher simultanĂ©ment, et le cas Ă©chĂ©ant de maniĂšre superposĂ©e, au moins deux images 3D de la rĂ©gion volumique (RV) du sujet (S) sâĂ©tendant depuis la peau (P) jusquâĂ la cible (C) concernĂ©e, et comprenant ces derniĂšres, ou en variante dâune rĂ©gion volumique plus restreinte renfermant lâemplacement de la cible (C), dont lâune a Ă©tĂ© prise avant lâintervention et le traitement au moyen de lâaiguille (3) et dont lâautre a Ă©tĂ© prise aprĂšs cette intervention. Cette Ă©tape optionnelle permet, aprĂšs achĂšvement du traitement, par fusion dâimages avant/aprĂšs ou leur affichage en parallĂšle, de vĂ©rifier que le traitement effectuĂ© durant lâintervention affecte bien, en totalitĂ©, la zone de la cible (C).
[0050] Comme le montre la figure 2, le procĂ©dĂ© peut consister avant lâĂ©tape a) Ă positionner le bras robotisĂ© (2) portant la sonde (1 ), par rapport au sujet (S) allongĂ© sur une table de chirurgie (9), de telle maniĂšre que lâembase (10) dudit bras robotisĂ© (2) est situĂ©e du cĂŽtĂ© latĂ©ral de ladite table (9) qui est opposĂ© Ă celui occupĂ© par le praticien, et le cas Ă©chĂ©ant susceptible dâĂȘtre soumis au passage de la sonde Ă©chographique 2D (1 ). Cette disposition permet dâĂ©viter toute interfĂ©rence entre le praticien et le bras robotisĂ© (2) et aussi de pouvoir appliquer facilement une pression suffisante lors des explorations avec la sonde (1 ).
[0051 ] Lâindication des trajectoires dâinsertion rectilignes possibles ou de la trajectoire optimisĂ©e de lâaiguille (3) peut ĂȘtre rĂ©alisĂ©e par le praticien, en vue de leur affichage dans les images 3D, soit de maniĂšre virtuelle au moyen de lâinterface homme- machine, soit prĂ©fĂ©rentiellement par manipulation par le praticien du porte-aiguille (8) et validation de la position et de lâorientation de ce dernier par ledit praticien lorsque la trajectoire souhaitĂ©e sâaffiche dans lâimage 3D.
[0052] Le porte-aiguille (8) est avantageusement asservi en position de telle maniĂšre quâil reste en permanence orientĂ© pour que la direction dâinsertion de lâaiguille quâil porterait passe par le centre de la cible (C).
[0053] Avantageusement, le praticien peut indiquer une trajectoire par un positionnement adĂ©quat du porte-aiguille (8) par exemple (sa position Ă©tant connue du fait de la connaissance de la position des deux bras robotisĂ©s par lâinstallation mĂ©dicale comprenant aussi les moyens dâaffichage), afin de visualiser cette trajectoire durant lâacquisition de la premiĂšre image 3D produite de maniĂšre assistĂ©e durant lâĂ©tape b), mais Ă©galement durant lâĂ©tape d). Il est ainsi possible de fournir une information de guidage durant lâacquisition manuelle ou assistĂ©e des images 2D et de faciliter la visualisation du seul volume pertinent (pour Ă©viter lâaffichage dâinformations non pertinentes et susceptibles de distraire le praticien).
[0054] Plusieurs options sont possibles pour trouver une trajectoire dâinsertion dâaiguille (possible, optimisĂ©e), qui se distinguent par leur degrĂ© dâautomatisation.
[0055] Ainsi, en accord avec une option manuelle, il est possible pour le praticien de dĂ©placer le porte-aiguille (8) et de visualiser interactivement un volume tubulaire (VT) dont lâaxe mĂ©dian (AML) correspond Ă la trajectoire dĂ©coulant de lâorientation et du positionnement courants du porte aiguille (8). Dans ce cas, le praticien dĂ©place le porte-aiguille un peu au hasard, et sâil relĂšve une trajectoire possible, voire optimisĂ©e, il sâarrĂȘte. Il sâagit dâune approche conviviale et performante, puisque le porte-aiguille reste toujours dirigĂ© vers la cible.
[0056] Une seconde option consiste Ă proposer au praticien une carte des options dâinsertion possibles (par exemple sur un planisphĂšre de la rĂ©gion volumique). Ainsi, toute les options sont prises en compte et le praticien peut faire le meilleur choix de maniĂšre Ă©clairĂ©e. Lorsque son choix de trajectoire optimisĂ©e est fait, il
dirige le porte-aiguille au plus proche de son choix en visualisant avantageusement la position de sa trajectoire dans ladite carte (planisphĂšre par exemple).
[0057] Enfin, selon une troisiĂšme option, il peut ĂȘtre envisagĂ© de crĂ©er une modĂ©lisation 3D de la rĂ©gion volumique (RV) intĂ©grant les structures (OVT) et la cible (C) Ă partir de lâimage 3D, puis de calculer la meilleure trajectoire et de la proposer directement au praticien.
[0058] Les explorations avec la sonde (1 ) de lâĂ©tape d) peuvent ĂȘtre rĂ©alisĂ©es de maniĂšre entiĂšrement automatique sur simple demande du praticien libĂ©rant ainsi totalement ce dernier de cette tĂąche.
[0059] En variante, et pour permettre au praticien de contrĂŽler dâavantage ces explorations et acquisition dâimages postĂ©rieures, par exemple pour en limiter lâamplitude ou les centrer sur un volume rĂ©duit dâintĂ©rĂȘt qui peut varier, notamment durant lâinsertion, le procĂ©dĂ© peut consister Ă rĂ©aliser les explorations avec la sonde (1 ), qui sont postĂ©rieures Ă lâĂ©tape c) et initiĂ©es Ă lâinitiative du praticien, de maniĂšre semi-automatique ou collaborative, le mouvement de dĂ©placement de la sonde (1 ) et lâampleur de lâexploration Ă©tant dĂ©terminĂ©es par action manuelle du praticien, le dĂ©placement effectif de la sonde (1 ) Ă©tant nĂ©anmoins contraint par les paramĂštres de trajectoire dĂ©terminĂ©s Ă lâĂ©tape c). Les dĂ©placements dâexploration de la sonde (1 ) peuvent sâeffectuĂ©s soit bidirectionnellement, soit unidirectionellement avec repositionnement initial de la sonde (1 ) aprĂšs achĂšvement dâune exploration. Dans ce dernier cas, il peut Ă©ventuellement ĂȘtre envisagĂ© une relocalisation initiale automatique de la sonde (1 ) en regard de la cible (C), avec une position et une orientation adĂ©quates, par le bras robotisĂ© (2) avant chaque nouveau dĂ©placement exploratoire de cette derniĂšre effectuĂ© durant les Ă©tapes ultĂ©rieures.
[0060] En accord avec une variante de rĂ©alisation reposant sur une assistance plus poussĂ©e, permettant de sâassurer que la cible nâa pas bougĂ© ou, dans la nĂ©gative, de pouvoir estimer son dĂ©placement, notamment entre deux apnĂ©es, lâanalyse des images 2D acquises Ă lâĂ©tape a), en vue de lâidentification et de la localisation de la cible (C) Ă traiter, par exemple une tumeur cancĂ©reuse, est rĂ©alisĂ©e par ou avec lâassistance dâun algorithme, par exemple un programme dâintelligence artificielle ayant subi prĂ©alablement un apprentissage adĂ©quat, cette localisation de la cible
(C) Ă©tant rĂ©pĂ©tĂ©e automatiquement Ă chaque exploration et affichage dâimage 3D suivante.
[0061 ] Les rĂ©pĂ©titions visĂ©es Ă lâĂ©tape d) permettent de s'assurer de la position de la cible trĂšs frĂ©quemment. En particulier, au moins une rĂ©pĂ©tition est nĂ©cessaire aprĂšs lâĂ©tape b), lorsque le praticien ou clinicien a planifiĂ© et positionnĂ© une premiĂšre fois le porte-aiguille ou guide d'aiguille (8). En effet, cette phase est relativement longue et donc incompatible avec une apnĂ©e continue de la part du sujet (S). La rĂ©alisation rĂ©pĂ©tĂ©e de lâĂ©tape d) permet de corriger, comme le prĂ©voit lâĂ©tape f), une attendue erreur de repositionnement de la cible (C) et des organes, tissus et structures (OVT) environnants Ă la cible (C) au moment de lâapnĂ©e (deuxiĂšme, troisiĂšme, ...) durant laquelle aura rĂ©ellement lieu l'insertion de l'aiguille (3).
[0062] Selon une autre caractĂ©ristique avantageuse de lâinvention, le dĂ©placement par le praticien de la sonde Ă©chographique (1 ) dans les Ă©tapes a) et b), est contrĂŽlĂ© par contrainte et limitation de mouvement par le bras robotisĂ© (2), en termes dâorientation et de position de la sonde (1 ) par rapport Ă la peau (P) du sujet (S) et de vitesse de dĂ©placement, le praticien pouvant avantageusement rĂ©gler la consigne de pression dâapplication de la sonde (1 ) sur la peau (P), contrĂŽlĂ©e par le bras robotisĂ© (2) durant le dĂ©placement et/ou dĂ©sactiver lâassistance du bras robotisĂ© (2), par le biais de moyens adĂ©quats faisant partie de lâinterface homme- machine (6, 7). Ces dispositions permettent dâĂ©viter des mouvements nĂ©fastes de la sonde (1 ) impliquant potentiellement une reconstruction des images 3D laborieuse et chronophage, voire impossible. En effet, durant chaque exploration, les images 2D successivement acquises doivent, autant que possible, se suivre les unes aprĂšs les autres de maniĂšre rĂ©guliĂšre et continue, et il faut notamment Ă©viter les chevauchements de ces images et les intersections entre ces images. Ce afin de produire une suite l'images 2D dont la position relative et les conditions d'acquisition facilitent le calcul et la cohĂ©rence de l'image rĂ©sultante 3D. La dĂ©sactivation de lâassistance du bras robotisĂ© peut ĂȘtre souhaitĂ©e pour un contrĂŽle plus fin par le praticien, avec moins dâeffort.
[0063] En complĂ©ment ou alternativement Ă la caractĂ©ristique prĂ©cĂ©dente, lâinvention peut prĂ©voir que la pression dâapplication de la sonde (1 ) sur la peau (P) est, durant le dĂ©placement de cette derniĂšre Ă chaque exploration effectuĂ©e durant la phase
b) et/ou la phase d), contrĂŽlĂ©e automatiquement par le bras robotisĂ© (2) par contrĂŽle en temps rĂ©el de la valeur de cette pression au moyen dâun capteur adĂ©quat ou dâune boucle dâasservissement exploitant le rĂ©sultat dâune analyse de la qualitĂ© de lâimage Ă©chographique 2D gĂ©nĂ©rĂ©e en temps rĂ©el, ladite pression dâapplication Ă©tant minimisĂ©e durant les phases d), e) et f) Ă une valeur permettant tout juste dâacquĂ©rir des images 2D de qualitĂ© suffisante pour produire une image 3D standardisĂ©e, afin de gĂ©nĂ©rer une dĂ©formation minimale des tissus visualisĂ©s.
[0064] Lâasservissement vise, notamment dans les trois derniĂšres phases prĂ©citĂ©es, en particulier Ă optimiser la qualitĂ© des images 2D produites tout en limitant au maximum la pression exercĂ©e sur la peau (P) du patient ou sujet (S) afin de limiter au maximum les dĂ©formations induites au niveau des tissus et structures sous- jacentes.
[0065] Durant la premiĂšre exploration assistĂ©e par un clinicien lors de lâĂ©tape b), il peut aussi ĂȘtre mis en oeuvre un contrĂŽle effectif de la pression, a fortiori si le bras robotisĂ© est en mode exosquelette, afin de ne pas blesser le patient.
[0066] Durant la phase de calcul d'une trajectoire idĂ©ale, des Ă©tapes d) Ă f) (phases de planification et de replanification), il y a potentiellement plusieurs passages ou explorations, de maniĂšre automatique pour calibrer le dĂ©placement de maniĂšre Ă dĂ©terminer une pression d'application la plus faible possible, mais permettant tout de mĂȘme d'acquĂ©rir des images de qualitĂ©.
[0067] Enfin, durant lâĂ©tape g) (durant laquelle des images 3D sont acquises rĂ©guliĂšrement), il y a un contrĂŽle permanent de la pression de maniĂšre Ă prendre en compte un possible dĂ©placement du patient ou un Ă©ventuel problĂšme avec le bras robotisĂ©.
[0068] Avantageusement, la production dâimages 3D sensiblement standardisĂ©es au niveau des Ă©tapes c), d) et f) est rĂ©alisĂ©e automatiquement, sur la base des images 2D produites par la sonde (1 ) manipulĂ©e par le bras robotisĂ© (2), Ă chaque commande ou avec la participation du praticien, en faisant suivre Ă la sonde (1 ) une trajectoire dĂ©terminĂ©e, notamment optimisĂ©e en termes de position et dâorientation de la sonde (1 ) par rapport Ă la peau (P) du sujet (S) et de vitesse de dĂ©placement de la sonde (1 ), lors du dĂ©placement, cette trajectoire ayant Ă©tĂ© dĂ©terminĂ©e durant ou aprĂšs lâĂ©tape b).
[0069] Afin de permettre lâacquisition dâimages de bonne qualitĂ©, le procĂ©dĂ© selon lâinvention peut en outre consister, sur demande ou automatiquement, Ă rĂ©pandre par aspersion, par lâintermĂ©diaire dâun dispositif adĂ©quat associĂ© ou intĂ©grĂ© Ă la sonde (1 ), du gel de contact Ă©chographique devant et/ou derriĂšre la sonde (1 ) au cours dâun, prĂ©fĂ©rentiellement de chaque dĂ©placement exploratoire. Cette disposition permet avantageusement d'Ă©viter que la sonde (1 ) ne fasse disparaĂźtre le gel prĂ©sent et nĂ©cessaire, passage aprĂšs passage, compromettant ainsi de maniĂšre certaine la qualitĂ© des images Ă©chographiques acquises Ă cause d'un contact, et donc dâune transmission, acoustique mĂ©diocre.
[0070] Pour marquer et comprendre la trajectoire potentielle de lâaiguille dans le corps du patient, et en accord avec une autre caractĂ©ristique avantageuse de lâinvention, la visualisation en 3D des organes, vaisseaux et/ou tissus (structures molles ou fragiles OVT) prĂ©sents entre surface de la peau (P) et la cible (C) telle que prĂ©vue Ă lâĂ©tape e), comprend lâaffichage par surimpression dâun motif de collimation ou de visĂ©e centrĂ© sur la cible (C), permettant de dĂ©finir et de simuler visuellement la trajectoire virtuelle dâinsertion de lâaiguille (3) pour un positionnement et une orientation donnĂ©s du porte-aiguille (8), et avantageusement par interaction par le biais de lâinterface homme-machine, dâexplorer les possibilitĂ©s de trajectoire rectiligne dâinsertion de lâaiguille (3) et de point dâentrĂ©e dans le sujet (S) et de sĂ©lectionner une ou des proposition(s). Ce motif (par exemple une croix comme sur la figure 8) est mis en place et visible lorsque la cible est vue dans lâimage 3D affichĂ©e (par exemple dâun volume rĂ©duit VR comme celui des figures 7A et 7B) selon lâaxe de la direction dâinsertion concernĂ©e.
[0071 ] Lâexploration des possibilitĂ©s de trajectoire rectiligne dâinsertion de lâaiguille (3) peut ĂȘtre rĂ©alisĂ©e par le praticien en manipulant physiquement le porte aiguille (8) portĂ© par lâautre bras robotisĂ© (4), puis en enregistrant et en demandant la visualisation de la ou des trajectoires retenues par lui dans les images 3D (par lâintermĂ©diaire de moyens de commande adĂ©quats de lâinterface homme-machine).
[0072] En variante, il peut ĂȘtre prĂ©vu de rĂ©aliser lâexploration des possibilitĂ©s de trajectoire rectiligne dâinsertion de lâaiguille (3) en simulant ou en rĂ©alisant collaborativement un dĂ©placement contraint de lâautre bras robotisĂ© (4) et donc du porte-aiguille (8), par exemple sous la forme dâun mouvement contraint de rotule,
de telle maniĂšre que la trajectoire dâinsertion passe toujours par le centre de la cible (C) quelle que soit la position dudit bras (4) et dudit porte-aiguille (8).
[0073] PrĂ©fĂ©rentiellement, la dĂ©termination du positionnement et de lâorientation du porte-aiguille (8) en vue dâune possible trajectoire dâinsertion optimale par exploitation dâune visualisation en 3D des organes, vaisseaux et/ou tissus ou structures (OVT) prĂ©sents entre la peau (P) et la cible (C), telle que prĂ©vue Ă lâĂ©tape e), comprend lâanalyse automatique et lâaffichage dâau moins une, prĂ©fĂ©rentiellement de plusieurs proposition(s) de trajectoire rectiligne dâinsertion de lâaiguille (3) et de point dâentrĂ©e (PE) dans le sujet (S), chacune associĂ©e Ă une orientation ou une pluralitĂ© dâorientations contenues dans un cĂŽne virtuel dont le sommet touche la cible (C), par exemple le centre de celle-ci, le praticien pouvant sĂ©lectionner ou valider la ou lâune des proposition(s) par lâintermĂ©diaire de lâinterface homme-machine. Ce cĂŽne est normalement compris dans le volume tronconique (VR) dĂ©limitant le volume affichĂ©. Lorsque plusieurs cĂŽnes peuvent ĂȘtre identifiĂ©s, il peut ĂȘtre avantageux de choisir le cĂŽne le plus grand pour dĂ©terminer une trajectoire effective dâinsertion la plus sĂ©curisĂ©e possible.
[0074] Afin de limiter les ressources nĂ©cessaires pour un affichage augmentĂ© (cible, structures, trajectoire) utile au praticien et de pouvoir rĂ©aliser cet affichage avec un rafraichissement en temps rĂ©el, le procĂ©dĂ© peut consister, aprĂšs sĂ©lection dâune proposition de trajectoire dâinsertion de lâaiguille (3) et de point dâentrĂ©e (PE) dans le sujet (S), Ă visualiser un volume tubulaire cylindrique limitĂ© (VT) avec comme axe mĂ©dian longitudinal (AML) ladite trajectoire et permettant de visualiser les organes, vaisseaux et/ou tissus ou structures (OVT) Ă©ventuellement prĂ©sents dans ce volume. Cet affichage rĂ©duit peut Ă©galement dĂ©jĂ ĂȘtre rĂ©alisĂ© lors de la phase exploratoire des trajectoires possibles. Ainsi, seules les structures proches de la trajectoire dâinsertion et donc pertinentes seront affichĂ©es dans le volume limitĂ© visualisĂ©. Un tel volume tubulaire peut par exemple prĂ©senter un diamĂštre compris entre 1 ,5 et 3 cm, avantageusement de lâordre de 2 cm.
[0075] Selon une autre caractĂ©ristique possible de lâinvention, alternative ou complĂ©mentaire de la caractĂ©ristique prĂ©cĂ©dente, lâĂ©tape g) peut comprendre la segmentation prĂ©alable de lâaiguille (3) dans les images acquises successivement au fur et Ă mesure de lâinsertion de lâaiguille (3) et en ce que le volume (VR) visualisĂ© consiste en un volume allongĂ© selon la direction dâinsertion de lâaiguille
(3), prĂ©fĂ©rentiellement un volume tubulaire comprenant ladite cible (C) et au moins une portion dâextrĂ©mitĂ© (3â) de lâaiguille, ainsi que le volume intermĂ©diaire (VP) situĂ© entre eux, avec les organes, vaisseaux et/ou tissus ou structures (OVT) Ă©ventuellement prĂ©sents dans ce volume. Il est ainsi possible de connaĂźtre quantitativement la distance Ă la cible restant Ă couvrir par lâaiguille durant son insertion et aprĂšs lâacquisition de chaque image 3D. De plus, cette disposition permet Ă©galement de vĂ©rifier si la trajectoire est toujours dirigĂ©e vers la cible, cette derniĂšre pouvant Ă©ventuellement bouger durant lâinsertion. En outre, il sera Ă©galement possible de visualiser en temps rĂ©el la flexion de lâaiguille durant son insertion et procĂ©der Ă une Ă©ventuelle lĂ©gĂšre correction de trajectoire si nĂ©cessaire. Enfin, en limitant lâaffichage Ă un tel volume limitĂ© et centrĂ© sur lâaiguille en cours dâinsertion, Ă©ventuellement couplĂ© Ă une ampleur dâexploration de la sonde plus limitĂ©e, il est possible de faciliter la visualisation en termes de ressources et de rĂ©activitĂ©, tout en limitant les risques de distraction par affichage dâinformations pĂ©riphĂ©riques non pertinentes.
[0076] Afin de gagner du temps durant lâacquisition et la visualisation, et donc limiter la durĂ©e de lâapnĂ©e du patient, tout en fournissant les informations visuelles nĂ©cessaires au praticien durant lâinsertion, il est trĂšs favorablement prĂ©vu que, dans lâĂ©tape g), la dĂ©limitation du volume rĂ©duit (VR) destinĂ© Ă ĂȘtre visualisĂ© en 3D est asservi au mouvement dâinsertion de lâaiguille (3) et assujetti Ă la fraction de trajectoire restant Ă parcourir Ă la portion dâextrĂ©mitĂ© (3â) de lâaiguille (3) jusquâĂ la cible (C), cette dĂ©limitation Ă©tant rĂ©alisĂ©e soit en amont lors de lâacquisition des images 2D, soit en aval lors de la visualisation 3D.
[0077] Dans les deux cas Ă©voquĂ©s ci-dessus, chacun des volumes (VT) ou (VR) visualisĂ© peut donc varier en taille au cours de lâinsertion pour se limiter Ă un volume plus rĂ©duit comprenant seulement une portion dâextrĂ©mitĂ© (3â) de lâaiguille (3) et un volume (VP) prĂ©cĂ©dant cette extrĂ©mitĂ© (3â) durant lâinsertion jusquâĂ la cible (C), comme le montre par exemple la figure 4.
[0078] Lâinvention a Ă©galement pour objet, selon un deuxiĂšme aspect, un procĂ©dĂ© collaboratif dâinsertion dâune aiguille (3) dans un sujet vivant (S), mettant en oeuvre une installation mĂ©dicale (5) comprenant, dâune part, au moins une interface homme-machine avec un dispositif dâaffichage (6) et des moyens (7) de commande ou de contrĂŽle et, dâautre part, au moins le bras robotisĂ© (2) portant
ladite sonde Ă©chographique 2D (1 ), dont la position et lâorientation sont connues en temps rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă chaque exploration, par ladite installation (5), ladite installation (5) comportant en outre un autre ou second bras robotisĂ© (4) sur lequel est fixĂ© un porte-aiguille ou guide dâaiguille (8), au moins la position relative des deux bras (2 et 4) entre eux Ă©tant connue en permanence par ladite installation (5), ledit procĂ©dĂ© comprenant une phase prĂ©paratoire de planification prĂ©cĂ©dant lâopĂ©ration dâinsertion effective, cette derniĂšre Ă©tant rĂ©alisĂ©e automatiquement par le second bras robotisĂ© (4) ou par un praticien avec guidage par ce second bras robotisĂ© (4), le porte-aiguille ou guide dâaiguille (8) Ă©tant prĂ©positionnĂ© et prĂ©orientĂ© durant la phase prĂ©paratoire.
[0079] ConformĂ©ment Ă lâinvention, ce procĂ©dĂ© dâinsertion est caractĂ©risĂ© en ce quâil consiste Ă mettre en oeuvre le procĂ©dĂ© assistĂ© et interactif de production et dâaffichage dâimages Ă©chographiques 3D tel que dĂ©crit ci-dessus, et notamment les Ă©tapes a) Ă e) prĂ©citĂ©es durant une phase prĂ©paratoire de planification, lâĂ©tape f) durant une phase de replanification consĂ©cutive Ă la phase prĂ©paratoire de planification et immĂ©diatement avant le dĂ©but de lâinsertion de lâaiguille (3) et lâĂ©tape g) durant lâopĂ©ration effective de lâinsertion de lâaiguille (3), la phase de replanification et lâopĂ©ration dâinsertion de lâaiguille (3) se dĂ©roulant durant une mĂȘme phase dâapnĂ©e du sujet (S).
[0080] Ce procĂ©dĂ© collaboratif dâinsertion intĂšgre donc de maniĂšre intime le procĂ©dĂ© assistĂ© et interactif de production et dâaffichage dâimages Ă©chographiques 3D et est tributaire pour ses diffĂ©rentes phases constitutives des Ă©tapes respectivement associĂ©s de ce dernier procĂ©dĂ©.
[0081 ] Il convient de noter que la rĂ©alisation de lâinsertion elle-mĂȘme peut ĂȘtre collaborative (guidĂ©e par le porte-aiguille tenu par le second bras robotisĂ© et poussĂ©e par le praticien) ou entiĂšrement automatique par le biais du seul second bras robotisĂ© (4) insĂ©rant lâaiguille par lâintermĂ©diaire du porte-aiguille.
[0082] PrĂ©fĂ©rentiellement, et compte tenu du fait que la cible peut bouger lors de lâinsertion, il peut ĂȘtre envisager de compenser les mouvements et dĂ©placements Ă©ventuels de la cible intervenant pendant lâinsertion de lâaiguille (3), par une modification de lâorientation du porte-aiguille ou guide dâaiguille (8) par le bras
robotisĂ© (4) le portant (et donc de lâorientation de la trajectoire de lâaiguille), rĂ©alisĂ©e automatiquement ou par le praticien, avec une contrainte limitative. Un autre motif de compensation peut rĂ©sider dans une Ă©ventuelle flexion de lâaiguille en cours dâinsertion.
[0083] En accord avec un mode de rĂ©alisation avantageux de lâinvention, la phase de replanification, rĂ©alisĂ©e en dĂ©but de lâapnĂ©e durant laquelle lâinsertion doit ĂȘtre effectuĂ©e, consiste Ă crĂ©er une nouvelle image 3D standardisĂ©e en accord avec lâĂ©tape f), Ă vĂ©rifier lâadĂ©quation du positionnement du porte-aiguille (8) et de la trajectoire rĂ©sultante par rapport Ă la situation visualisĂ© dans cette nouvelle image 3D et Ă effectuer, le cas Ă©chĂ©ant, automatiquement ou non, et au moins aprĂšs validation par le praticien, un possible ajustement de lâorientation dudit porte- aiguille ou guide dâaiguille (8) nĂ©cessaire pour retrouver une trajectoire dâinsertion optimisĂ©e prenant en compte une Ă©ventuelle modification mineure de la position de la cible (C) et/ou des structures molles (OVT) entre deux apnĂ©es du sujet (S).
[0084] Lâajustement consistera au plus Ă modifier lĂ©gĂšrement lâorientation du porte- aiguille (8) contraint par un passage de la trajectoire Ă travers le point dâentrĂ©e (PE) sĂ©lectionnĂ© prĂ©alablement.
[0085] Enfin, lâinvention porte Ă©galement, selon un troisiĂšme aspect, et comme cela ressort par exemple des figures 1 et 2, sur une installation mĂ©dicale (5) pour la mise en oeuvre du procĂ©dĂ© de production dâimages prĂ©citĂ©, et prĂ©fĂ©rentiellement du procĂ©dĂ© dâinsertion dâaiguille (3) tel quâĂ©voquĂ© prĂ©cĂ©demment, cette installation (5) comprenant, dâune part, au moins une interface homme-machine avec un dispositif dâaffichage (6) et des moyens (7) de commande ou de contrĂŽle et, dâautre part, au moins le bras robotisĂ© (2) portant ladite sonde Ă©chographique 2D (1 ), dont la position et lâorientation sont connues en temps rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă chaque exploration, par ladite installation (5).
[0086] Bien entendu, la sonde Ă©chographique 2D (1 ) est reliĂ©e Ă un appareil de traitement dâimages permettant la production dâimages 3D et faisant partie de lâinstallation mĂ©dicale.
[0087] Cette installation est caractĂ©risĂ©e en ce quâelle comprend Ă©galement, dâune part, un autre ou second bras robotisĂ© (4) sur lequel est fixĂ© un porte-aiguille (8), au
moins la position relative des deux bras (2 et 4) entre eux Ă©tant connue en permanence par ladite installation (5), et, dâautre part, des moyens pour lâacquisition contrĂŽlĂ©e, le traitement et lâexploitation dâimages produites par la sonde Ă©chographique 2D (1 ) lorsque cette derniĂšre est dĂ©placĂ©e lors dâune exploration sur un sujet vivant (S) par le bras robotisĂ© (2) concernĂ©, ou par un praticien avec lâassistance dudit bras robotisĂ© (2), ces moyens permettant la mise en oeuvre du procĂ©dĂ© assistĂ© et interactif de production et dâaffichage dâimages Ă©chographiques 3D dĂ©crit ci-dessus.
[0088] La connaissance de la position relative des deux bras robotisĂ©s (2 et 4) par lâinstallation peut rĂ©sulter de leur fabrication (montĂ©s sur une mĂȘme embase), de leur possible assemblage mutuel aprĂšs fabrication (liaison mĂ©canique amovible entre les deux bras) ou de leur mise en place in situ. Cette connaissance intrinsĂšque permet notamment de sâaffranchir de lâutilisation dâune camĂ©ra, avec les inconvĂ©nients qui en rĂ©sultent, et de toute opĂ©ration de recalage. Les deux bras robotisĂ©s (2 et 4) sont prĂ©fĂ©rentiellement des robots six axes et constituent ensemble avec leurs moyens de commande et de pilotage un dispositif robotique ou robot coopĂ©rant de maniĂšre interactive avec le dispositif Ă©chographique et lâinterface homme-machine, le cas Ă©chant sous le contrĂŽle dâune unitĂ© de commande centralisĂ©e de lâinstallation.
[0089] De maniĂšre avantageuse et comme le montrent les figures 1 et 2, les deux bras robotisĂ©s (2 et 4) sont montĂ©s sur une mĂȘme et unique embase (10), en Ă©tant avantageusement cinĂ©matiquement et structurellement sĂ©parĂ©s et indĂ©pendants entre eux. Les deux bras ne sont pas reliĂ©s entre eux, sauf Ă ĂȘtre montĂ©s sur la mĂȘme embase. Cette embase intĂšgre avantageusement une unitĂ© de commande de ces deux bras (2 et 4) et est prĂ©fĂ©rentiellement Ă©quipĂ©e de moyens de roulement et associĂ©e Ă un moyen de contrĂŽle (7) de chaque bras, par exemple une pĂ©dale, faisant partie de lâinterface homme-machine. Les deux bras sâĂ©tendent ainsi sĂ©parĂ©ment et librement entre eux depuis lâembase, laquelle renferme leurs moyens de commande et de pilotage et dĂ©termine physiquement leur rĂ©fĂ©rentiel commun.
[0090] Les moyens pour lâacquisition contrĂŽlĂ©e, le traitement et lâexploitation dâimages produites par la sonde Ă©chographique 2D (1 ), en liaison communicative avec le moyen dâaffichage (1 1 ), peuvent par exemple ĂȘtre logĂ©s dans cette embase (10).
[0091 ] PrĂ©fĂ©rentiellement, lâinterface homme-machine comprend une console de commande (1 1 ), Ă©ventuellement montĂ©es sur des moyens de roulement, comportant des moyens informatiques de calcul et de traitement de donnĂ©es, notamment des algorithmes et logiciels de traitement dâimages, et le dispositif dâaffichage (6), avantageusement sous la forme dâun dispositif dâaffichage tactile, ladite console de commande (1 1 ) interagissant avec les deux bras robotisĂ©s (2 et 4).
[0092] Avec la description qui suit, un mode de rĂ©alisation particulier de lâinvention est exposĂ© plus en dĂ©tail, incorporant les deux procĂ©dĂ©s et lâinstallation, ainsi que leurs possibles variantes ou options possibles.
[0093] En premier lieu, il est fourni un dispositif robotique comprenant deux bras robotisĂ©s (2 et 4) montĂ©s cĂŽte Ă cĂŽte, par exemple sur une mĂȘme embase, dont lâun manipule une sonde Ă©chographique 2D (1 ) et dont lâautre manipule un porte- aiguille (8). A ce dispositif est associĂ© une interface homme machine comprenant une console de commande (1 1 ) avec Ă©cran interactif (6) et des moyens de commande (7).
[0094] Le premier bras (2) manipule, de maniĂšre autonome ou semi-autonome, la sonde Ă©chographique 2D (1 ) afin de balayer une large zone comprenant la rĂ©gion dâinsertion de lâaiguille (3) et les structures environnantes (OVT). Ce balayage va ainsi permettre de crĂ©er Ă la demande des images 3D en quasi-temps-rĂ©el.
[0095] La toute premiĂšre fois, le balayage sera effectuĂ© manuellement par lâutilisateur (praticien / clinicien) qui co-manipulera la sonde (1 ) sous lâassistance du bras robotisĂ©. Cela permet de faciliter mais Ă©galement de lĂ©gĂšrement contraindre le geste du praticien pour se rapprocher dâune trajectoire idĂ©ale.
[0096] Ă partir de ce premier enregistrement, une trajectoire sera calculĂ©e afin de rendre le mouvement de la sonde Ă©chographique manipulĂ©e par le robot optimal en termes de vitesse, de pression appliquĂ©e et du nombre dâimages 2D acquises permettant dâobtenir une image 3D de grande qualitĂ© de maniĂšre autonome.
[0097] La position de la cible (C) est détectée automatiquement et en temps-réel dans les images échographique 3D acquises successivement.
[0098] Les structures Ă prĂ©server (OVT) sont quant Ă elles rendues visibles dans ces images 3D de maniĂšre Ă permettre au clinicien de visualiser lâensemble des options dâinsertions sĂ©curisĂ©es disponibles et ainsi de lui permettre de faire un choix rĂ©ellement Ă©clairĂ©.
[0099] La rapiditĂ© dâacquisition des images et les outils de rectifications de la planification permettent dâeffectuer les inĂ©vitables ajustements nĂ©cessaires pour prendre en compte la potentielle et presque inĂ©vitable modification de la position de la cible (C) entre la phase de planification et la phase dâexĂ©cution du geste (insertion). En effet, les phases de planification et dâexĂ©cution sont nĂ©cessairement effectuĂ©es Ă partir de deux images diffĂ©rentes puisque associĂ©es Ă deux apnĂ©es diffĂ©rentes.
[0100] Pour ce faire, le second bras robotisĂ© (4) manipule un guide dâaiguille ou porte- aiguille (8) qui est toujours orientĂ© en direction de la cible (C), autrement dit la direction de la trajectoire quâil impose Ă lâaiguille quâil reçoit passe toujours par la cible (asservissement de lâorientation). Ce second bras (4) est en mesure, aprĂšs validation du clinicien, de corriger lĂ©gĂšrement son orientation, et donc celle du porte-aiguille et de la direction longitudinale et trajectoire de lâaiguille, pour compenser un changement de position de la cible (C) entre la phase de planification et la phase dâexĂ©cution.
[0101 ] Tout au long de lâinsertion manuelle de lâaiguille effectuĂ©e par le praticien et guidĂ©e Ă travers le porte-aiguille ou guide dâaiguille (8), grĂące Ă la crĂ©ation et la visualisation automatique ou semi-automatique, rapide et rĂ©guliĂšre dâimages 3D, il est possible de visualiser Ă la fois la trajectoire de lâaiguille (3), la cible (C) et les structures environnantes (OVT), permettant de garantir la sĂ©curitĂ© et la prĂ©cision du geste.
[0102] La comparaison effectuĂ©e aprĂšs le traitement entre une image acquise avant et une seconde image acquise aprĂšs le traitement permet de faciliter lâĂ©valuation de la qualitĂ© et de lâĂ©tendue du traitement.
[0103] Les images 2D qui permettent de crĂ©er la premiĂšre image 3D sont acquises manuellement en utilisant la capacitĂ© du robot Ă contraindre les mouvements du bras du clinicien mais Ă©galement Ă lâassister car :
[0104] - Cela permet dâutiliser la compĂ©tence du praticien pour acquĂ©rir un volume idĂ©alement bien placĂ© comprenant les trajectoires possibles de lâaiguille (3) et des structures adjacentes (OVT) sans nĂ©cessiter une intelligence robotique par ailleurs difficilement compatible avec les obligations rĂšglementaires.
[0105] - Cela permet dâassister le praticien afin de rendre lâexĂ©cution de son geste plus aisĂ© grĂące Ă lâassistance du robot qui saura appliquer une force suffisante mais minimale de maniĂšre Ă limiter au maximum la dĂ©formation des tissus.
[0106] - Cela permet de contraindre le mouvement de la sonde de maniĂšre Ă acquĂ©rir un ensemble dâimages 2D cohĂ©rentes, associĂ©es Ă leurs positions, tout en Ă©vitant dâacquĂ©rir des images qui se chevauchent rendant la crĂ©ation de lâimage 3D rĂ©sultante ardue voire impossible.
[0107] - Cela permet dâenregistrer une trajectoire du bras robotisĂ© (2) trĂšs proche de la trajectoire finale optimisĂ©e Ă©vitant ainsi les risques de collision entre ledit bras robotisĂ© (2) et le patient (S).
[0108] Une trajectoire optimale est obtenue par calcul à partir de la trajectoire enregistrée acquise par le praticien car :
[0109] - Cela permet dâappliquer une force minimale sur les tissus avec la sonde (1 ) tout en garantissant une qualitĂ© dâimage optimale.
[01 10] - Cela permet dâadapter la vitesse de la sonde (1 ) pour minimiser la durĂ©e de lâacquisition tout en acquĂ©rant un nombre dâimages 2D suffisant pour garantir la qualitĂ© de lâimage 3D rĂ©sultante.
[01 11 ] - Cela permet par la suite au robot dâacquĂ©rir de maniĂšre autonome ou de maniĂšre semi-autonome (sous lâimpulsion de la main du praticien) des images en continu afin de pouvoir suivre le mouvement de lâaiguille (3) Ă lâintĂ©rieur du patient (S) durant lâinsertion.
[01 12] La détection automatique de la cible (C) en utilisant par exemple une intelligence artificielle est mise en oeuvre, mais aprÚs une premiÚre validation manuelle car :
[01 13] - Une premiÚre validation manuelle de la cible (C) rendra la détection plus fiable.
[01 14] - Cela permettra Ă la sonde Ă©chographique (1 ) de reconnaĂźtre la tumeur (cible) de maniĂšre autonome et ainsi de sâassurer en quasi-temps-rĂ©el de sa position aprĂšs chaque passage de la sonde (1 ) portĂ© par le bras robotisĂ© (2).
[01 15] Dans le cadre de la recherche de la meilleure trajectoire dâinsertion possible, le bras robotisĂ© qui tient le porte-aiguille (8) est contraint, afin que la direction de la trajectoire de lâaiguille dĂ©finie par le porte-aiguille reste toujours dirigĂ©e vers la cible (C) car :
[01 16] - Câest un gain de temps important et ne nĂ©cessite pas de rĂ©glage fastidieux, tout en Ă©tant aisĂ© puisque lâinformation de la position de la cible est disponible.
[01 17] - Cela permet dâexplorer un grand nombre de positions de maniĂšre simplifiĂ©e et conviviale.
[01 18] Pour chaque position du porte-aiguille (8) et en temps-rĂ©el, il est proposĂ© de limiter la visualisation de lâimage 3D Ă un cylindre (VT, VR) localisĂ© autour de la trajectoire car :
[01 19] - Cela facilite la visualisation de la cible (C) et des structures molles/fragiles environnantes (OVT), en particulier vasculaires, grĂące Ă la crĂ©ation dâun nĂ©gatoscope 3D limitĂ© Ă ce volume ou encore Ă travers lâusage du rendu volumique.
[0120] - Cela permet de sâassurer que sur ou dans un voisinage de taille raisonnable autour de la trajectoire de lâaiguille (3), aucune structure fragile Ă prĂ©server nâest prĂ©sente.
[0121 ] Une carte de toutes les options potentielles pour le passage de lâaiguille est proposĂ©e en juxtaposant la projection des diffĂ©rentes reprĂ©sentations volumiques sur un planisphĂšre car :
[0122] - Le dĂ©placement manuel du porte-aiguille (8) contraint par le bras robotisĂ© toujours dirigĂ© vers la cible (C) permet dâobtenir une visualisation du cylindre en projection afin de comprendre si des structures fragiles (OVT) se trouvent dans ce volume. Il est prĂ©vu de prĂ©calculer ces projections pour toutes les trajectoires raisonnables possibles de lâaiguille et dâafficher le rĂ©sultat sur une carte Ă lâinstar dâun planisphĂšre terrestre sur lequel sont reprĂ©sentĂ©s terres et mers.
[0123] - De cette maniĂšre, il est possible de choisir la meilleure trajectoire, câest-Ă -dire celle qui permet une insertion dâaiguille (3) en Ă©tant le plus loin possible des
structures fragiles (OVT) et en ayant une connaissance (le praticien) a priori de toutes les trajectoires possibles, évitant ainsi de perdre du temps en tùtonnements le plus souvent fastidieux.
[0124] Il est possible Ă©ventuellement de calculer la position de la cible, des organes voisins et de leurs vascularisations Ă lâaide dâune Intelligence Artificielle ayant subi un apprentissage adaptĂ© ou dâun logiciel analogue, Ă partir dâune image peropĂ©ratoire 3D Ă©chographique. Cela permet dâutiliser cette modĂ©lisation 3D pour calculer automatiquement la trajectoire optimale permettant dâatteindre la cible.
[0125] Il est aussi possible, le cas Ă©chĂ©ant, de calculer le recalage non-rigide dâune image prĂ©opĂ©ratoire 3D scanner avec lâimage peropĂ©ratoire 3D Ă©chographique. Cela permet dâutiliser une modĂ©lisation 3D de cette image prĂ©opĂ©ratoire pour calculer automatiquement la trajectoire optimale permettant dâatteindre la cible.
[0126] Une fois la planification effectuĂ©e Ă partir dâune image 3D Ă©chographique devenue obsolĂšte et le porte-aiguille (8) positionnĂ©, une nouvelle image 3D est acquise, automatiquement ou semi-automatiquement, en dĂ©but de phase dâinsertion. Cette acquisition permet de dĂ©tecter la nouvelle position de la tumeur (cible) et dâeffectuer automatiquement la trĂšs lĂ©gĂšre, mais systĂ©matiquement nĂ©cessaire, modification de lâorientation du porte-aiguille (8) de maniĂšre Ă ĂȘtre toujours parfaitement bien dirigĂ© en direction de la nouvelle position de la cible (C) car :
[0127] - Cela permet de prendre en compte la modification inĂ©vitable de la cible (C) entre la phase de planification et la phase dâinsertion associĂ©es Ă des images acquises durant des apnĂ©es distinctes puisque acquises Ă deux instants diffĂ©rents.
[0128] - De cette maniĂšre, la modification dâorientation du porte-aiguille (8) est restreinte Ă un mouvement de rotation autour du point dâentrĂ©e (PE) et est extrĂȘmement limitĂ©e Ă©vitant tout risque de contact entre le bras robotisĂ© (4) et le patient (S).
[0129] - Cela permet au praticien dâĂ©valuer Ă nouveau le cylindre (VT, VR) autour de la nouvelle trajectoire. Et par consĂ©quent de confirmer que la nouvelle trajectoire est bien valide.
[0130] Le praticien va insĂ©rer lâaiguille manuellement tout en pouvant visualiser les tissus et structures localisĂ©s sur la trajectoire de lâaiguille (3) et situĂ©s entre le bout de lâaiguille (3â) et la cible (C) grĂące aux images 3D acquises automatiquement ou semi-automatiquement par le bras robotisĂ© (2) avec la sonde (1 ) car :
[0131 ] - Cela permet de dĂ©tecter automatiquement la position de la cible (C) et donc de sâassurer que la direction de lâaiguille est toujours correcte.
[0132] - Cela permet au praticien, si lâalignement nâest plus parfait, de modifier lĂ©gĂšrement la courbure de lâaiguille pour modifier sa trajectoire.
[0133] - Cela permet de visualiser la progression de lâaiguille (3) en quasi-temps-rĂ©el afin de rĂ©ellement positionner le bout de lâaiguille (3â) au centre de la cible (C). Cela est rendu possible mĂȘme si la cible bouge lĂ©gĂšrement sous lâeffet des dĂ©formations induites par lâaiguille et donc mĂȘme si sa position change en termes de profondeur.
[0134] Il est Ă©ventuellement possible dâextraire automatiquement la position de lâaiguille (3) dans les images 3D Ă©chographiques grĂące Ă une Intelligence Artificielle ou un logiciel analogue adaptĂ©, afin de calculer automatiquement sa progression en quasi-temps-rĂ©el dans le patient (S) pour ne pas sâappuyer uniquement sur un retour visuel.
[0135] Il est prĂ©vu de dĂ©poser systĂ©matiquement et automatiquement de part et dâautre de la sonde Ă©chographique (2) du gel Ă©chographique car :
[0136] - Cela va permettre de conserver une qualitĂ© dâimage correcte mĂȘme lorsque la sonde (1 ) aura effectuĂ© plusieurs allers et retours et aurait nettoyĂ© la peau (8) du patient (S).
[0137] - Cela Ă©vite dâirriter la peau (8) du patient (S) Ă cause des frottements de la sonde (1 ).
[0138] Une fois le traitement avec lâaiguille terminĂ©, une nouvelle image 3D est acquise automatiquement ou semi-automatiquement et est comparĂ©e Ă une image 3D acquise avant le traitement afin de faciliter lâĂ©valuation de la zone traitĂ©e.
[0139] En effet, comparer deux images semblables permet de mieux cerner leurs différences, en particulier celles induites par le traitement.
[0140] Il peut ĂȘtre envisagĂ© dâeffectuer le recalage non rigide des images Ă©chographiques acquises avant et aprĂšs le traitement pour pouvoir les comparer
plus aisément et par conséquent mieux cerner leurs différences, plus particuliÚrement celles résultant du traitement.
[0141 ] Une description dĂ©taillĂ©e dâun possible protocole de mise en oeuvre de lâinvention intĂ©grant les deux procĂ©dĂ©s prĂ©citĂ©s et comprenant neuf phases successives est dĂ©crit ci-dessous.
[0142] Phase 1 : Positionnement et préparation du patient
[0143] Dans cette premiĂšre phase, le patient (S) est positionnĂ© et prĂ©parĂ© pour lâintervention. Cela inclut la prĂ©paration de la zone Ă traiter et l'installation du patient de maniĂšre Ă garantir un accĂšs optimal au praticien.
[0144] Phase 2 : Positionnement du dispositif robotique ou robot
[0145] Le robot comprenant les deux bras robotisés (2 et 4) est positionné de l'autre cÎté de la table (9) par rapport au praticien de maniÚre à ne pas limiter ses mouvements, assurant une coordination optimale tout au long de la procédure.
[0146] Phase 3 : Recherche de la cible à l'aide de la sonde échographique (1 )
[0147] Le praticien manipule la sonde Ă©chographique trans-abdominale 2D pour localiser la cible (C) Ă traiter. Un algorithme d'IA lâassiste en dĂ©tectant automatiquement la tumeur cible, ce qui accĂ©lĂšre et amĂ©liore la prĂ©cision du processus de localisation.
[0148] La sonde Ă©chographique (1 ) est associĂ©e au premier bras (2) du robot. Le robot assite le praticien pour que le dĂ©placement de la sonde (1 ) puisse ĂȘtre effectuĂ© sans effort, en limitant ses mouvements parasites tout en appliquant une pression limitĂ©e mais suffisante sur la peau (8) du patient (S).
[0149] Phase 4 : CrĂ©ation dâune image 3D Ă©chographique de la zone dâinsertion de lâaiguille
[0150] AprĂšs avoir localisĂ© la cible (C), le praticien balaye Ă lâaide de la sonde Ă©chographique (1 ) une zone (rĂ©gion volumique RV) qui englobe les trajectoires potentielles raisonnables de l'aiguille. Le balayage de cette zone permet de crĂ©er automatiquement une image 3D comprenant la cible (C), les trajectoires possibles ainsi que les structures environnantes (OVT).
[0151 ] Une fois cette premiĂšre acquisition accomplie, le robot est capable dâeffectuer de maniĂšre autonome ou semi-autonome des acquisitions similaires. Ă tout moment, le praticien peut Ă prĂ©sent visualiser une images 3D mise Ă jour en quasi- temps rĂ©el.
[0152] Ce premier balayage a lieu au cours dâune premiĂšre apnĂ©e du patient (S).
[0153] Phase 5 : Planification de la trajectoire dâinsertion
[0154] Le praticien choisit une trajectoire optimale pour lâaiguille (3) en consultant une carte qui reprĂ©sente toutes les trajectoires possibles. La carte est créée en prenant en compte la prĂ©sence de structures fragiles (OVT) le long de leurs parcours.
[0155] Cette carte se prĂ©sente concrĂštement sur lâinterface dâaffichage tactile (6) de lâinstallation sous la forme dâun planisphĂšre comportant des zones sans risque et des zones Ă risque. Cela permet dâavoir accĂšs Ă toutes les options possibles.
[0156] Phase 6 : Positionnement du porte-aiguille
[0157] Le praticien positionne le porte-aiguille dans la position optimale choisie grùce à la carte des options de trajectoire. Le porte-aiguille étant associé au second bras robotisé (4), lorsque le praticien déplace le porte-aiguille, ce dernier reste toujours orienté vers la cible (C). En outre, la position du porte-aiguille (8) et la trajectoire qui en résulte sont naturellement reportées sur la carte en temps-réel (par exemple planisphÚre) correspondant à toutes les options pour faciliter ce positionnement.
[0158] Phase 7 : Insertion de lâaiguille de traitement
[0159] Lâinsertion de lâaiguille (3) ayant lieu durant une seconde apnĂ©e ou une apnĂ©e consĂ©cutive aux apnĂ©es ayant conduit Ă la dĂ©termination de la trajectoire optimale, la position de la cible (C) ne peut ĂȘtre garantie puisquâelle provient de lâimage acquise au cours de la premiĂšre apnĂ©e ou des apnĂ©es antĂ©rieures. Le praticien va donc utiliser une nouvelle image acquise automatiquement juste aprĂšs cette seconde apnĂ©e ou apnĂ©e ultĂ©rieure.
[0160] La nouvelle position de la cible (C) est alors dĂ©tectĂ©e automatiquement et le porte-aiguille (8) va automatiquement effectuer la lĂ©gĂšre correction permettant de compenser lâerreur de repositionnement de la cible entre les deux apnĂ©es.
[0161 ] AprĂšs validation de la trajectoire par le praticien, en particulier en visualisant une zone correspondant Ă un cylindre (VT, VR) localisĂ© le long de la trajectoire de lâaiguille, ce dernier peut commencer Ă insĂ©rer lâaiguille.
[0162] Le clinicien va insĂ©rer lâaiguille (3) tout en demandant rĂ©guliĂšrement Ă lâinstallation (5) comprenant le bras robotisĂ© (2) avec la sonde (1 ) de mettre Ă jour la visualisation de lâimage 3D limitĂ©e Ă un cylindre localisĂ© autour de la trajectoire de lâaiguille pour un contrĂŽle en quasi-temps rĂ©el de la prĂ©cision de la procĂ©dure.
[0163] Phase 8 : Traitement de la cible par radiofréquence
[0164] Une fois lâaiguille correctement positionnĂ©e, le praticien peut effectuer le traitement par radiofrĂ©quence (ou une autre opĂ©ration impliquant lâaiguille).
[0165] Phase 9 : Ăvaluation de l'Ă©tendue du traitement
[0166] Une fois le traitement effectuĂ©, le praticien demande Ă lâinstallation (5) d'acquĂ©rir une nouvelle image 3D pour Ă©valuer l'Ă©tendue du traitement. Cela permet de vĂ©rifier l'efficacitĂ© du traitement en comparant deux images, la premiĂšre ayant Ă©tĂ© acquise avant et la seconde aprĂšs le traitement.
[0167] Le protocole prĂ©citĂ© permet de garantir une prĂ©cision, une efficacitĂ© et une sĂ©curitĂ© optimales tout au long du processus dâinsertion et de traitement.
[0168] On note que lâinvention peut ĂȘtre mise en oeuvre dans ses diffĂ©rents aspects indiffĂ©remment avec un porte-aiguille ou un guide dâaiguille, la mention de lâun valant mention de lâautre Ă©galement.
[0169] Bien entendu, lâinvention n'est pas limitĂ©e au mode de rĂ©alisation dĂ©crit et reprĂ©sentĂ© aux dessins annexĂ©s. Des modifications restent possibles, notamment du point de vue de la constitution des divers Ă©lĂ©ments ou par substitution d'Ă©quivalents techniques, sans sortir pour autant du domaine de protection de l'invention.
Claims
[Revendication 1 ] ProcĂ©dĂ© assistĂ© et interactif de production et dâaffichage dâimages Ă©chographiques 3D, par acquisition contrĂŽlĂ©e et traitement dâimages 2D acquises par lâintermĂ©diaire dâune sonde Ă©chographique 2D (1 ) pouvant ĂȘtre dĂ©placĂ©e sur un sujet vivant (S) par un bras robotisĂ© (2), ou par un praticien avec lâassistance dâun bras robotisĂ© (2), notamment avant une opĂ©ration dâinsertion dâaiguille (3) Ă lâaide dâun porte-aiguille ou guide dâaiguille (8) dans ledit sujet (S), durant une phase prĂ©paratoire de planification, lâopĂ©ration dâinsertion Ă©tant rĂ©alisĂ©e par exemple par le biais ou avec lâassistance dâun autre bras robotisĂ© (4) Ă©quipĂ© dâun porte-aiguille ou guide dâaiguille (8), ledit procĂ©dĂ© mettant en oeuvre une installation mĂ©dicale (5) comprenant, dâune part, au moins une interface homme-machine avec un dispositif dâaffichage (6) et des moyens (7) de commande ou de contrĂŽle et, dâautre part, au moins le bras robotisĂ© (2) portant ladite sonde Ă©chographique 2D (1 ), dont la position et lâorientation sont connues en temps-rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă chaque exploration, par ladite installation (5), procĂ©dĂ© caractĂ©risĂ© en ce quâil comprend au moins les Ă©tapes consistant : a) Ă localiser une ou la cible (C) Ă traiter dans le sujet (S) par dĂ©placement exploratoire de la sonde (1 ) sur la peau (P) de ce dernier et analyse des images Ă©chographiques 2D acquises, par un praticien Ă©ventuellement assistĂ© par logiciel de dĂ©tection adaptĂ© ; b) Ă produire une premiĂšre image 3D dâune rĂ©gion volumique (RV) du sujet (S), sâĂ©tendant depuis la peau (P) jusquâĂ la cible (C) concernĂ©e et contenant cette derniĂšre et les trajectoires raisonnables dâintroduction possibles dâune aiguille (3) pour atteindre ladite cible (C) estimĂ©es par le praticien, cette image 3D Ă©tant obtenue Ă partir dâun ensemble dâimages 2D acquises, durant une phase dâapnĂ©e du sujet (S), par dĂ©placement de la sonde Ă©chographique 2D (1 ) par le praticien avec lâassistance du bras robotisĂ© (2) et potentiellement par exploitation des informations de localisation de lâĂ©tape a) ; c) Ă dĂ©terminer automatiquement, durant ou aprĂšs lâĂ©tape b), les paramĂštres et le parcours dâune trajectoire optimisĂ©e et reproductible pour la sonde
Ă©chographique 2D (1 ) permettant la production dâimages 3D sensiblement standardisĂ©es et identiquement cadrĂ©es de la rĂ©gion volumique (RV) prĂ©citĂ©e ; d) Ă produire une, ou successivement plusieurs, image(s) 3D sensiblement standardisĂ©e(s) de cette rĂ©gion volumique (RV), ce en quasi-temps rĂ©el et automatiquement ou sur commande du praticien, durant une phase dâapnĂ©e du sujet (S) et sur la base dâimages 2D fraichement acquises suite Ă une nouvelle exploration avec la sonde Ă©chographique 2D (1 ) effectuĂ©e en appliquant les paramĂštres et en suivant le parcours qui ont Ă©tĂ© dĂ©terminĂ©s durant lâĂ©tape c) ; e) Ă visualiser, dans cette ou ces images 3D sensiblement standardisĂ©es de la rĂ©gion volumique (RV) du sujet (S), les organes, vaisseaux et/ou tissus ou structures molles analogues (OVT) prĂ©sent(e)s entre la peau (P) et ladite cible (C), ainsi que ces deux derniĂšres, en vue de permettre de dĂ©terminer le positionnement et lâorientation dâun porte-aiguille ou guide dâaiguille (8) pour au moins une possible trajectoire dâinsertion optimisĂ©e de lâaiguille (3) ; f) Ă rĂ©pĂ©ter les Ă©tapes d) et e) juste avant le dĂ©but de lâinsertion de lâaiguille (3), laquelle est alors positionnĂ©e en accord avec la trajectoire dâinsertion optimisĂ©e sĂ©lectionnĂ©e par le praticien et visualisĂ©e dans lâimage 3D courante, et Ă dĂ©terminer et Ă visualiser automatiquement la position de la cible (C) Ă cet instant en vue dâun possible ajustement du positionnement et/ou de lâorientation du porte-aiguille ou guide dâaiguille (8), en particulier juste avant lâinsertion effective de lâaiguille.
[Revendication 2] ProcĂ©dĂ© selon la revendication 1 , caractĂ©risĂ© en ce que les Ă©tapes d) et e) sont associĂ©es Ă une phase prĂ©paratoire de planification de lâintervention aboutissant, le cas Ă©chĂ©ant par rĂ©pĂ©titions successives, Ă lâobtention dâune image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (RV) jugĂ©e optimale, et Ă sa visualisation, par exemple sous forme de planisphĂšre, avec indication intĂ©grĂ©e des possibles trajectoires dâinsertion de lâaiguille (3) dĂ©terminĂ©es automatiquement ou par le praticien, puis dâune proposition de possible trajectoire dâinsertion optimisĂ©e et sĂ©curisĂ©e de lâaiguille (3), sĂ©lectionnĂ©e automatiquement ou par le praticien.
[Revendication 3] ProcĂ©dĂ© selon la revendication 1 ou 2, caractĂ©risĂ© en ce que lâĂ©tape f) correspond Ă une phase de replanification prĂ©cĂ©dant, durant la mĂȘme phase dâapnĂ©e, de maniĂšre imminente le dĂ©but de la phase dâinsertion
et prenant en compte une probable modification mineure de la position de la cible (C) et des structures molles (OVT) entre deux apnĂ©es du sujet (S), cette Ă©tape f) comprenant la crĂ©ation et la visualisation dâune nouvelle image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (RV) du mĂȘme type que celle obtenue Ă lâissue de lâĂ©tape e), ce en vue dâun possible ajustement automatique ou manuel du positionnement et/ou de lâorientation du porte- aiguille (8) correspondant Ă la trajectoire optimisĂ©e sĂ©lectionnĂ©e Ă lâissue de lâĂ©tape e) et au moins dâune validation de cette trajectoire, Ă©ventuellement rĂ©ajustĂ©e finement, par le praticien.
[Revendication 4] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 3, caractĂ©risĂ© en ce que, dans lâĂ©tape b), les trajectoires estimĂ©es raisonnables par le praticien sont dĂ©finies par ce dernier par lâintermĂ©diaire dâune direction dâinsertion mĂ©diane passant par la cible (C) et correspondent Ă des trajectoires rectilignes comprises dans un volume conique ou tronconique, prĂ©fĂ©rentiellement Ă base circulaire ou ellipsoĂŻdale, correspondant Ă©ventuellement au volume rĂ©duit (VR), sâĂ©tendant en sâeffilant de la peau (P) jusquâĂ la cible (C) au moins et avec un axe mĂ©dian (AML) passant par la cible (C), cet axe mĂ©dian correspondant Ă la direction mĂ©diane prĂ©citĂ©e et pouvant ĂȘtre matĂ©rialisĂ© par un positionnement correspondant du porte-aiguille (8), et en ce quâau moins une trajectoire dâinsertion possible, voire optimisĂ©e, est dĂ©terminĂ©e aprĂšs analyse du contenu de ladite premiĂšre image 3D et prise en compte des circonstances spĂ©cifiques liĂ©es au sujet (S) et Ă la configuration de lâintervention, de maniĂšre automatique ou semi-automatiquement ou par le praticien.
[Revendication 5] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 4, caractĂ©risĂ© en ce que les images 3D sensiblement standardisĂ©es de lâĂ©tape c) et de lâĂ©tape d) consistent en des images 3D produites Ă partir dâimages 2D acquises selon des plans sĂ©cants par rapport aux trajectoires raisonnables dâinsertions de lâĂ©tape b) et avec une qualitĂ© suffisante et constante, Ă savoir avec une trajectoire optimisĂ©e et reproductible de la sonde Ă©chographique 2D (1 ), câest-Ă -dire notamment en appliquant une force sensiblement constante et aussi faible que possible au niveau de la sonde 2D (1 ) permettant lâacquisition dâimages 2D avec la qualitĂ© prĂ©citĂ©e et en dĂ©plaçant cette derniĂšre avec une
vitesse dâacquisition maĂźtrisĂ©e et optimisĂ©e, notamment la vitesse la plus Ă©levĂ©e possible garantissant nĂ©anmoins une densitĂ© et une qualitĂ© dâinformations volumiques suffisantes pour produire des images de qualitĂ© acceptable.
[Revendication 6] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 5, caractĂ©risĂ© en ce que, dans lâĂ©tape e), la visualisation des tissus ou structures (OVT) dans lâimage 3D sensiblement standardisĂ©e de la rĂ©gion volumique (VR) est rĂ©alisĂ©e par lâintermĂ©diaire dâun mode de visualisation parmi : i) une visualisation successive de vues en coupe correspondant Ă des images interpolĂ©es 2D, ii) une visualisation 3D obtenue par une mĂ©thode de rendu volumique direct et iii) une visualisation 3D obtenue par une mĂ©thode de rendu surfacique, aprĂšs rĂ©alisation dâune phase de segmentation de ladite image 3D sensiblement standardisĂ©e de la rĂ©gion volumique (VR).
[Revendication 7] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 6, caractĂ©risĂ© en ce quâil comprend Ă©galement, aprĂšs lâĂ©tape f) et durant lâinsertion de lâaiguille (3), une Ă©tape g) consistant : Ă visualiser en quasi-temps rĂ©el lâinsertion progressive de lâaiguille (3) par crĂ©ation et visualisation rĂ©pĂ©tĂ©es dâimages 3D rafraĂźchies dâun volume (VR), par exemple sensiblement cylindrique ou tronconique, en tant que fraction de la rĂ©gion volumique prĂ©citĂ©e (RV) du sujet (S), prĂ©fĂ©rentiellement en tant que fraction variable de cette rĂ©gion volumique, les images 3D de ce volume (VR) montrant soit ladite cible (C) et au moins une portion dâextrĂ©mitĂ© (3â) de lâaiguille (3), prĂ©fĂ©rentiellement toute la partie de lâaiguille (3) insĂ©rĂ©e dans le sujet (S), soit au moins une portion dâextrĂ©mitĂ© (3â) de lâaiguille (3) et un volume (VP) prĂ©cĂ©dant cette extrĂ©mitĂ© (3â) durant lâinsertion, cette visualisation dâimages 3D rafraĂźchies dudit volume (VR) se prolongeant prĂ©fĂ©rentiellement au moins jusquâĂ ce que la cible (C) soit atteinte par lâaiguille (3), les deux Ă©tapes f) et g) Ă©tant rĂ©alisĂ©es ensemble durant une mĂȘme phase dâapnĂ©e du sujet (S).
[Revendication 8] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 7, caractĂ©risĂ© en ce quâil comprend une Ă©tape finale supplĂ©mentaire h) consistant Ă afficher simultanĂ©ment, et le cas Ă©chĂ©ant de maniĂšre superposĂ©e, au moins deux images 3D de la rĂ©gion volumique (RV) du sujet (S) sâĂ©tendant depuis la
peau (P) jusquâĂ la cible (C) concernĂ©e, et comprenant ces derniĂšres, ou en variante dâune rĂ©gion volumique plus restreinte renfermant lâemplacement de la cible (C), dont lâune a Ă©tĂ© prise avant lâintervention et le traitement au moyen de lâaiguille (3) et dont lâautre a Ă©tĂ© prise aprĂšs cette intervention.
[Revendication 9] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 8, caractĂ©risĂ© en ce quâil consiste Ă rĂ©aliser les explorations avec la sonde (1 ), qui sont postĂ©rieures Ă lâĂ©tape c) et initiĂ©es Ă lâinitiative du praticien, de maniĂšre semi-automatique ou collaborative, le mouvement de dĂ©placement de la sonde (1 ) et lâampleur de lâexploration Ă©tant dĂ©terminĂ©es par action manuelle du praticien, le dĂ©placement effectif de la sonde (1 ) Ă©tant nĂ©anmoins contraint par les paramĂštres de trajectoire dĂ©terminĂ©s Ă lâĂ©tape c), les dĂ©placements dâexploration pouvant sâeffectuĂ©s soit bidirectionnellement, soit unidirectionellement avec repositionnement initial de la sonde (1 ) aprĂšs achĂšvement dâune exploration.
[Revendication 10] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 6, caractĂ©risĂ© en ce que lâanalyse des images 2D acquises Ă lâĂ©tape a), en vue de lâidentification et de la localisation de la cible (C) Ă traiter, par exemple une tumeur cancĂ©reuse, est rĂ©alisĂ© par ou avec lâassistance dâun algorithme, par exemple un programme dâintelligence artificielle ayant subi prĂ©alablement un apprentissage adĂ©quat, cette localisation de la cible (C) Ă©tant rĂ©pĂ©tĂ©e automatiquement Ă chaque exploration et affichage dâimage 3D suivante.
[Revendication 1 1] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 6 et 10, caractĂ©risĂ© en ce que le dĂ©placement par le praticien de la sonde Ă©chographique (1 ) dans les Ă©tapes a) et b), est contrĂŽlĂ© par contrainte et limitation de mouvement par le bras robotisĂ© (2), en termes dâorientation et de position de la sonde (1 ) par rapport Ă la peau (P) du sujet (S) et de vitesse de dĂ©placement, le praticien pouvant avantageusement rĂ©gler la consigne de pression dâapplication de la sonde (1 ) sur la peau (P), contrĂŽlĂ©e par le bras robotisĂ© (2) durant le dĂ©placement et/ou dĂ©sactiver lâassistance du bras robotisĂ© (2), par le biais de moyens adĂ©quats faisant partie de lâinterface homme-machine (6, 7).
[Revendication 12] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 6, et 9 Ă 1 1 , caractĂ©risĂ© en ce que la pression dâapplication de la sonde (1 ) sur la
peau (P) est, durant le dĂ©placement de cette derniĂšre Ă chaque exploration effectuĂ©e durant la phase b) et/ou la phase d), contrĂŽlĂ©e automatiquement par le bras robotisĂ© (2) par contrĂŽle en temps rĂ©el de la valeur de cette pression au moyen dâun capteur adĂ©quat ou dâune boucle dâasservissement exploitant le rĂ©sultat dâune analyse de la qualitĂ© de lâimage Ă©chographique 2D gĂ©nĂ©rĂ©e en temps rĂ©el, ladite pression dâapplication Ă©tant minimisĂ©e durant les phases d), e) et f) Ă une valeur permettant tout juste dâacquĂ©rir des images 2D de qualitĂ© suffisante pour produire une image 3D standardisĂ©e, afin de gĂ©nĂ©rer une dĂ©formation minimale des tissus visualisĂ©s.
[Revendication 13] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 6 et 9 Ă 12, caractĂ©risĂ© en ce que la production dâimages 3D sensiblement standardisĂ©es au niveau des Ă©tapes c), d) et f) est rĂ©alisĂ©e automatiquement, sur la base des images 2D produites par la sonde (1 ) manipulĂ©e par le bras robotisĂ© (2), Ă chaque commande ou avec la participation du praticien, en faisant suivre Ă la sonde (1 ) une trajectoire dĂ©terminĂ©e, notamment optimisĂ©e en termes de position et dâorientation de la sonde (1 ) par rapport Ă la peau (P) du sujet (S) et de vitesse de dĂ©placement de la sonde (1 ), lors du dĂ©placement, cette trajectoire ayant Ă©tĂ© dĂ©terminĂ©e durant ou aprĂšs lâĂ©tape b).
[Revendication 14] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 13, caractĂ©risĂ© en ce quâil consiste, sur demande ou automatiquement, Ă rĂ©pandre par aspersion, par lâintermĂ©diaire dâun dispositif adĂ©quat associĂ© ou intĂ©grĂ© Ă la sonde (1 ), du gel de contact Ă©chographique devant et/ou derriĂšre la sonde (1 ) au cours dâun, prĂ©fĂ©rentiellement de chaque dĂ©placement exploratoire.
[Revendication 15] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 6 et 9 Ă 13, caractĂ©risĂ© en ce que la visualisation en 3D des organes, vaisseaux et/ou tissus prĂ©sents entre surface de la peau (P) et la cible (C) telle que prĂ©vue Ă lâĂ©tape e), comprend lâaffichage par surimpression dâun motif de collimation ou de visĂ©e centrĂ© sur la cible (C), permettant de dĂ©finir et de simuler visuellement la trajectoire virtuelle dâinsertion de lâaiguille (3) pour un positionnement et une orientation donnĂ©s du porte-aiguille (8), et avantageusement par interaction par le biais de lâinterface homme-machine, dâexplorer les possibilitĂ©s de trajectoire rectiligne dâinsertion de lâaiguille (3) et de point dâentrĂ©e dans le sujet (S) et de sĂ©lectionner une ou des proposition(s).
[Revendication 16] ProcĂ©dĂ© selon la revendication 15, caractĂ©risĂ© en ce quâil consiste Ă rĂ©aliser lâexploration des possibilitĂ©s de trajectoire rectiligne dâinsertion de lâaiguille (3) en simulant ou en rĂ©alisant collaborativement un dĂ©placement contraint de lâautre bras robotisĂ© (4) et donc du porte-aiguille (8), par exemple sous la forme dâun mouvement contraint de rotule, de telle maniĂšre que la trajectoire dâinsertion passe toujours par le centre de la cible (C) quelle que soit la position dudit bras (4) et dudit porte-aiguille (8).
[Revendication 17] ProcĂ©dĂ© selon lâune quelconque des revendications 1 Ă 6 et 9 Ă 15, caractĂ©risĂ© en ce que la dĂ©termination du positionnement et de lâorientation dâun porte-aiguille (8) en vue dâune possible trajectoire dâinsertion optimale par exploitation dâune visualisation en 3D des organes, vaisseaux et/ou tissus ou structures (OVT) prĂ©sents entre la peau (P) et la cible (C), telle que prĂ©vue Ă lâĂ©tape e), comprend lâanalyse automatique et lâaffichage dâau moins une, prĂ©fĂ©rentiellement de plusieurs proposition(s) de trajectoire rectiligne dâinsertion de lâaiguille (3) et de point dâentrĂ©e (PE) dans le sujet (S), chacune associĂ©e Ă une orientation ou une pluralitĂ© dâorientations contenues dans un cĂŽne virtuel dont le sommet touche la cible (C), par exemple le centre de celle-ci, le praticien pouvant sĂ©lectionner ou valider la ou lâune des proposition(s) par lâintermĂ©diaire de lâinterface homme-machine.
[Revendication 18] ProcĂ©dĂ© selon lâune quelconque des revendications 15 Ă 17, caractĂ©risĂ© en ce quâil consiste, aprĂšs sĂ©lection dâune proposition de trajectoire dâinsertion de lâaiguille (3) et de point dâentrĂ©e (PE) dans le sujet (S), Ă visualiser un volume tubulaire cylindrique limitĂ© (VT) avec comme axe mĂ©dian longitudinal (AML) ladite trajectoire et permettant de visualiser les organes, vaisseaux et/ou tissus ou structures (OVT) Ă©ventuellement prĂ©sents dans ce volume.
[Revendication 19] ProcĂ©dĂ© selon la revendication 7, caractĂ©risĂ© en ce que lâĂ©tape g) comprend la segmentation prĂ©alable de lâaiguille (3) dans les images acquises successivement au fur et Ă mesure de lâinsertion de lâaiguille (3) et en ce que le volume (VR) visualisĂ© consiste en un volume allongĂ© selon la direction dâinsertion de lâaiguille (3), prĂ©fĂ©rentiellement un volume tubulaire comprenant ladite cible (C) et au moins une portion dâextrĂ©mitĂ© (3â) de lâaiguille, ainsi que le volume intermĂ©diaire (VP) situĂ© entre eux, avec les organes,
vaisseaux et/ou tissus ou structures (OVT) éventuellement présents dans ce volume.
[Revendication 20] ProcĂ©dĂ© selon lâune quelconque des revendications 7 et 19, caractĂ©risĂ© en ce que, dans lâĂ©tape g), la dĂ©limitation du volume rĂ©duit (VR) destinĂ© Ă ĂȘtre visualisĂ© en 3D est asservi au mouvement dâinsertion de lâaiguille (3) et assujetti Ă la fraction de trajectoire restant Ă parcourir Ă la portion dâextrĂ©mitĂ© (3â) de lâaiguille (3) jusquâĂ la cible (C), cette dĂ©limitation Ă©tant rĂ©alisĂ©e soit en amont lors de lâacquisition des images 2D, soit en aval lors de la visualisation 3D.
[Revendication 21] ProcĂ©dĂ© collaboratif dâinsertion dâune aiguille (3) dans un sujet vivant (S), mettant en oeuvre une installation mĂ©dicale (5) comprenant, dâune part, au moins une interface homme-machine avec un dispositif dâaffichage (6) et des moyens (7) de commande ou de contrĂŽle et, dâautre part, au moins le bras robotisĂ© (2) portant ladite sonde Ă©chographique 2D (1 ), dont la position et lâorientation sont connues en temps rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă chaque exploration, par ladite installation (5), ladite installation (5) comportant en outre un autre ou second bras robotisĂ© (4) sur lequel est fixĂ© un porte-aiguille ou guide dâaiguille (8), au moins la position relative des deux bras (2 et 4) entre eux Ă©tant connue en permanence par ladite installation (5), ledit procĂ©dĂ© comprenant une phase prĂ©paratoire de planification prĂ©cĂ©dant lâopĂ©ration dâinsertion effective, cette derniĂšre Ă©tant rĂ©alisĂ©e automatiquement par le second bras robotisĂ© (4) ou par un praticien avec guidage par ce second bras robotisĂ© (4), le porte-aiguille ou guide dâaiguille (8) Ă©tant prĂ©positionnĂ© et prĂ©orientĂ© durant la phase prĂ©paratoire, procĂ©dĂ© caractĂ©risĂ© en ce quâil consiste Ă mettre en oeuvre le procĂ©dĂ© assistĂ© et interactif de production et dâaffichage dâimages Ă©chographiques 3D selon lâune quelconque des revendications 1 Ă 20, et notamment les Ă©tapes a) Ă e) de la revendication 1 durant une phase prĂ©paratoire de planification, lâĂ©tape f) durant une phase de replanification consĂ©cutive Ă la phase prĂ©paratoire de planification et immĂ©diatement avant le dĂ©but de lâinsertion de lâaiguille (3) et lâĂ©tape g) durant lâopĂ©ration effective de lâinsertion de lâaiguille (3), la phase de
replanification et lâopĂ©ration dâinsertion de lâaiguille (3) se dĂ©roulant durant une mĂȘme phase dâapnĂ©e du sujet (S).
[Revendication 22] ProcĂ©dĂ© dâinsertion selon la revendication 21 , caractĂ©risĂ© en ce quâil consiste Ă compenser les mouvements et dĂ©placements Ă©ventuels de la cible intervenant pendant lâinsertion de lâaiguille (3), par une modification de lâorientation du porte-aiguille (8) par le bras robotisĂ© (4) le portant, rĂ©alisĂ©e automatiquement ou par le praticien, avec une contrainte limitative.
[Revendication 23] ProcĂ©dĂ© dâinsertion selon la revendication 21 ou 22, caractĂ©risĂ© en ce que la phase de replanification, rĂ©alisĂ©e en dĂ©but de lâapnĂ©e durant laquelle lâinsertion doit ĂȘtre effectuĂ©e, consiste Ă crĂ©er une nouvelle image 3D standardisĂ©e en accord avec lâĂ©tape f), Ă vĂ©rifier lâadĂ©quation du positionnement du porte-aiguille (8) et de la trajectoire rĂ©sultante par rapport Ă la situation visualisĂ© dans cette nouvelle image 3D et Ă effectuer, le cas Ă©chĂ©ant, automatiquement ou non, et au moins aprĂšs validation par le praticien, un possible ajustement de lâorientation dudit porte-aiguille (8) nĂ©cessaire pour retrouver une trajectoire dâinsertion optimisĂ©e prenant en compte une Ă©ventuelle modification mineure de la position de la cible (C) et/ou des structures molles (OVT) entre deux apnĂ©es du sujet (S).
[Revendication 24] Installation mĂ©dicale (5) pour la mise en oeuvre du procĂ©dĂ© assistĂ© et interactif de production et dâaffichage dâimages Ă©chographiques 3D selon lâune quelconque des revendications 1 Ă 20, et prĂ©fĂ©rentiellement Ă©galement du procĂ©dĂ© dâinsertion dâaiguille (3) selon lâune quelconque des revendications 21 Ă 23, cette installation (5) comprenant, dâune part, au moins une interface homme-machine avec un dispositif dâaffichage (6) et des moyens (7) de commande ou de contrĂŽle et, dâautre part, au moins le bras robotisĂ© (2) portant ladite sonde Ă©chographique 2D (1 ), dont la position et lâorientation sont connues en temps rĂ©el et peuvent ĂȘtre exploitĂ©es et enregistrĂ©es, concomitamment avec les images 2D gĂ©nĂ©rĂ©es Ă chaque exploration, par ladite installation (5), installation (5) caractĂ©risĂ©e en ce quâelle comprend Ă©galement, dâune part, un autre ou second bras robotisĂ© (4) sur lequel est fixĂ© un porte-aiguille (8), au moins la position relative des deux bras (2 et 4) entre eux Ă©tant connue en permanence par ladite installation (5), et, dâautre part, des moyens pour
lâacquisition contrĂŽlĂ©e, le traitement et lâexploitation dâimages produites par la sonde Ă©chographique 2D (1 ) lorsque cette derniĂšre est dĂ©placĂ©e lors dâune exploration sur un sujet vivant (S) par le bras robotisĂ© (2) concernĂ©, ou par un praticien avec lâassistance dudit bras robotisĂ© (2).
[Revendication 25] Installation mĂ©dicale selon la revendication 24, caractĂ©risĂ©e en ce que les deux bras robotisĂ©s (2 et 4) sont montĂ©s sur une mĂȘme et unique embase (10), en Ă©tant avantageusement cinĂ©matiquement et structurellement sĂ©parĂ©s et indĂ©pendants, cette embase (10) intĂ©grant avantageusement une unitĂ© de commande de ces deux bras (2 et 4) et Ă©tant prĂ©fĂ©rentiellement Ă©quipĂ©e de moyens de roulement et associĂ©e Ă un moyen de contrĂŽle (7) de chaque bras, par exemple une pĂ©dale, faisant partie de lâinterface homme-machine.
[Revendication 26] Installation mĂ©dicale selon la revendication 24 ou 25, caractĂ©risĂ©e en ce que lâinterface homme-machine comprend une console de commande (11 ), Ă©ventuellement montĂ©es sur des moyens de roulement, comportant des moyens informatiques de calcul et de traitement de donnĂ©es, notamment des algorithmes et logiciels de traitement dâimages, et le dispositif dâaffichage (6), avantageusement sous la forme dâun dispositif dâaffichage tactile, ladite console de commande (11 ) interagissant avec les deux bras robotisĂ©s (2 et 4).
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FRFR2313679 | 2023-12-06 | ||
| FR2313679A FR3156300A1 (fr) | 2023-12-06 | 2023-12-06 | ProcĂ©dĂ© de production et dâaffichage dâimages Ă©chographiques 3D, procĂ©dĂ© dâinsertion dâaiguille lâutilisant et installation pour leur mise en oeuvre |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025119829A1 true WO2025119829A1 (fr) | 2025-06-12 |
Family
ID=90904720
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2024/084292 Pending WO2025119829A1 (fr) | 2023-12-06 | 2024-12-02 | Procede de production et d'affichage d'images echographiques 3d |
Country Status (2)
| Country | Link |
|---|---|
| FR (1) | FR3156300A1 (fr) |
| WO (1) | WO2025119829A1 (fr) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN215874870U (zh) * | 2021-08-18 | 2022-02-22 | äžćœç§ćŠéąæ·±ćłć èżææŻç ç©¶éą | äžç§éąćèé穿ćșçæșćšäșș穿ćșćźäœèŁ çœź |
| WO2022263764A1 (fr) * | 2021-06-16 | 2022-12-22 | Quantum Surgical | Robot équipé d'une sonde échographique pour le guidage temps-réel d'interventions percutanées |
| WO2022263763A1 (fr) * | 2021-06-16 | 2022-12-22 | Quantum Surgical | Robot médical pour le placement d'instruments médicaux sous guidage échographique |
-
2023
- 2023-12-06 FR FR2313679A patent/FR3156300A1/fr active Pending
-
2024
- 2024-12-02 WO PCT/EP2024/084292 patent/WO2025119829A1/fr active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022263764A1 (fr) * | 2021-06-16 | 2022-12-22 | Quantum Surgical | Robot équipé d'une sonde échographique pour le guidage temps-réel d'interventions percutanées |
| WO2022263763A1 (fr) * | 2021-06-16 | 2022-12-22 | Quantum Surgical | Robot médical pour le placement d'instruments médicaux sous guidage échographique |
| CN215874870U (zh) * | 2021-08-18 | 2022-02-22 | äžćœç§ćŠéąæ·±ćłć èżææŻç ç©¶éą | äžç§éąćèé穿ćșçæșćšäșș穿ćșćźäœèŁ çœź |
Also Published As
| Publication number | Publication date |
|---|---|
| FR3156300A1 (fr) | 2025-06-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP4355249B1 (fr) | Robot médical pour le placement d'instruments médicaux sous guidage échographique | |
| EP3684287B1 (fr) | Dispositif de guidage d'instrument | |
| CA2067209C (fr) | Systeme intractif d'intervention locale a l'interieur d'une zone d'une structure non homogene | |
| ES2718543T3 (es) | Sistema y procedimiento para la navegaciĂłn basada en imĂĄgenes fusionadas con la colocaciĂłn de marcador tardĂo | |
| CA2691042C (fr) | Plateforme robotisee multi-applicative pour la neurochirurgie et procede de recalage | |
| WO2009071766A1 (fr) | SystÚme et procédé d'imagerie et de localisation ponctions sous échographie prostatique | |
| WO2022263764A1 (fr) | Robot équipé d'une sonde échographique pour le guidage temps-réel d'interventions percutanées | |
| FR2898264A1 (fr) | Procede et systeme robotique medical permettant la tele-illustration en trois dimensions | |
| EP3682808A1 (fr) | Dispositif médical en radiologie interventionnelle de guidage en temps réel d'une aiguille médicale d'opération dans un volume | |
| WO2013178823A1 (fr) | Dispositif de guidage d'une sonde d'imagerie medicale et procede de guidage d'une telle sonde | |
| EP3322347B1 (fr) | Systeme de guidage autonome d'un equipement porte-aiguille | |
| FR2924255A1 (fr) | Procede de traitement d'images cardiaques radiographiques en vue d'obtenir une image soustraite et recalee | |
| WO2025119829A1 (fr) | Procede de production et d'affichage d'images echographiques 3d | |
| CA2751398A1 (fr) | Navigateur echographique | |
| EP4355251B1 (fr) | Robot équipé d'une sonde échographique pour le guidage temps-réel d'interventions percutanées | |
| FR2881941A1 (fr) | Procede de determination des parametres geometriques d'un dispositif d'imagerie par rayon x | |
| FR2982761A1 (fr) | Procedes d'assistance a la manipulation d'un instrument, et ensemble d'assistance associe | |
| FR3143314A1 (fr) | Dispositif dâassistance Ă la planification dâune intervention mini-invasive | |
| WO2025157723A1 (fr) | Robot médical collaboratif pour guider l'insertion d'instruments | |
| FR2838628A1 (fr) | Procede d'assistance et de guidage de navigation d'un outil dans des structures anatomiques | |
| WO2025074245A1 (fr) | ProcĂ©dĂ© de recalage d'une reprĂ©sentation tridimensionnelle d'un objet sur l'objet lui-mĂȘme et dispositif d'aide Ă la navigation dans un objet | |
| FR3146587A1 (fr) | Robot mĂ©dical collaboratif pour sĂ©curiser lâinsertion dâinstruments mĂ©dicaux | |
| WO2023187589A1 (fr) | ProcĂ©dĂ© de recalage de reprĂ©sentations tridimensionnelles d'un objet sur l'objet lui-mĂȘme et dispositif d'aide Ă la navigation dans un objet mettant en Ćuvre ce procĂ©dĂ© | |
| WO2023232990A1 (fr) | Dispositif pour l'assistance au guidage pour acquerir une image echographique et procede associe | |
| WO2024094895A1 (fr) | Methode pour la generation d'un point de penetration du corps d'un sujet et dispositif associe |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24817351 Country of ref document: EP Kind code of ref document: A1 |