WO2025172371A1 - Method for assisting with surgery and associated system - Google Patents
Method for assisting with surgery and associated systemInfo
- Publication number
- WO2025172371A1 WO2025172371A1 PCT/EP2025/053743 EP2025053743W WO2025172371A1 WO 2025172371 A1 WO2025172371 A1 WO 2025172371A1 EP 2025053743 W EP2025053743 W EP 2025053743W WO 2025172371 A1 WO2025172371 A1 WO 2025172371A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- model
- anatomical
- image
- generated
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
Definitions
- the invention relates to a computer-implemented method for assisting surgery, in particular a method for generating an instruction for displaying a hand axis on an augmented reality device.
- the invention also relates to a system or computer program for implementing said method and a memory comprising said computer program.
- Some technologies make it possible, using an augmented reality headset worn by the surgeon, to superimpose virtual characteristics corresponding to physical characteristics hidden by the patient's anatomy onto what the surgeon sees.
- WO2018164909 proposes a solution for displaying knee ligaments through the patient's skin on the display of an augmented reality device to allow the surgeon to visualize these ligaments during an operation.
- the size and shape of the virtual ligaments can be modified based on the detection of movement of adjacent bones.
- a disadvantage of this type of solution is that it does not allow the generation of surgery assistance images for body parts more complex than the knee, such as the hand or the foot.
- the invention relates to a computer-implemented method or method for assisting surgery.
- the process includes:
- ⁇ the generation and transmission of a display instruction to an augmented reality display to project a virtual representation of at least part of the anatomical elements of the 3D model associated with the second position, the display location of which is determined based on the depth information of the 3D model associated with the second position.
- the display location is also determined based on the position of the skin of the body portion on the acquired optical image.
- the optical image allows the detection of a change in position of the subject relative to the first position.
- the 3D model is used to calculate the new positions of each anatomical element.
- dimensional features of the patient's anatomy are extracted from medical images to serve as parameters for fitting a biomechanical model to the patient's size and shape. These dimensions may be the 2D dimensions of major organs and bones in the axial, coronal, or sagittal planes, or specific distances between organs, bones, or skin in the axial, coronal, or sagittal planes.
- Another way to fit the model is to use Atlas-based deformation techniques to determine a deformation field to be applied to one or more biomechanical models (from an atlas). The deformation field and the final chosen biomechanical model are determined after optimizing a cost function (similarity measures, strain energy) to match the actual patient anatomy.
- the method comprises generating a preoperative 3D model of the body portion associated with the first position from the received medical image.
- the preoperative 3D model comprises depth information of each anatomical element of said preoperative 3D model relative to the surface of the skin from the received medical image.
- the depth information of the 3D model associated with the second position is generated from said information of the preoperative 3D model, in particular from the depth information of each anatomical element of said preoperative 3D model.
- the body portion comprises at least one hand of said individual.
- the anatomical features comprise bones of the hand.
- the method comprises generating a pre-operative 3D model of the body portion associated with the first position from the received medical image.
- the invention relates to a computer-implemented method or method for assisting surgery.
- the method comprises receiving a medical image of a predetermined body portion of an individual in a first position.
- the method comprises generating a 3D model of an anatomical structure of said portion of the body, associated with the second position, from the received medical image and from said transformation parameter.
- said anatomical structure comprises at least one set of anatomical elements of said portion of the individual's body.
- the method comprises selecting at least one anatomical element from said set of anatomical elements of said generated 3D model.
- the method comprises generating a virtual attribute, said virtual attribute comprising an element characteristic of the position and orientation of said selected anatomical element in the 3D model.
- the virtual attribute provides the practitioner with information on the position and/or orientation of an anatomical element of the subject that is not visible to the naked eye. This virtual attribute can thus be displayed on an augmented reality device in the practitioner's field of vision.
- the geometric element of the virtual attribute comprises an axis or plane whose location and orientation are generated based on the position and orientation of said anatomical element.
- One advantage of an axis or plane is that it allows the practitioner to track the orientation of an element, for example for the alignment or placement of a surgical tool.
- the method comprises generating and transmitting a display instruction to an augmented reality display to project a virtual representation of the generated virtual attribute into a surgical field comprising said body portion of said individual while allowing the surgical field to be viewed through the augmented reality display.
- the display instruction includes an instruction to project a virtual representation of at least a portion of the 3D model into the surgical field by allowing the surgical field to be viewed through the augmented reality display.
- An advantage of displaying part of the 3D model in the surgical field is that it allows the visualization of anatomical elements under the skin such as bones or certain organs.
- the display of the 3D model is preferably displayed superimposed on the portion of the subject's body corresponding to said 3D model.
- the capture of position data of said portion of the body of said individual is carried out continuously and in which the display instruction is updated in real time.
- a preoperative 3D model of the body portion associated with the first position is generated from the received medical image, said 3D model associated with the second position being generated from the comparison and from said operative 3D model.
- the preoperative 3D model comprises depth information of each anatomical element of said set relative to the surface of the skin from the received medical image and the 3D model associated with the second position also comprises depth information of each anatomical element of said set relative to the surface of the skin from said information of the preoperative 3D model.
- One advantage is that it allows the depth information of an anatomical element to be retained in the 3D model, for example the distance between said anatomical element and the surface of the skin.
- the augmented reality display of all or part of the 3D model is thus advantageously more precise, in particular the position of the anatomical element of the 3D model in relation to the subject's skin.
- the display instruction further comprises an instruction for projecting a virtual representation of at least part of the anatomical elements of the 3D model associated with the second position, the display location of which is determined based on the depth information and the location of the subject's skin surface on the received optical and/or three-dimensional image.
- the display instruction further comprises an instruction for projecting a virtual representation of at least a portion of the anatomical elements of the 3D model associated with the second position, the display location of which is determined based on the information of hand surface depths and the location of the subject's hand skin surface on the received optical and/or three-dimensional image.
- the preoperative 3D model is generated from a segmentation and labeling of each anatomical element of the body portion from the received medical image.
- the comparison step comprises generating a first set of points of interest of the body portion of the individual in the first position from the preoperative 3D model associated with the first position.
- the comparison step comprises generating a second set of points of interest of the body portion of the individual in the second position from the 3D model associated with the generated second position.
- the comparison step comprises comparing the first set of points of interest with the second set of points of interest.
- the anatomical elements comprise bones of a skeleton portion and in that the set of anatomical elements comprises at least one skeleton portion comprising a set of bones connected to each other.
- the virtual attribute further comprises a first parameter, such as an angular distance between two bones, calculated from the 3D model associated with the second position.
- the virtual attribute includes a second parameter such as a screw diameter or length calculated from the 3D model associated with the second position.
- the invention relates to a system comprising hardware and/or software means for implementing the method according to the invention.
- the hardware means comprise information receiving means, information transmitting means, an optical acquisition device for acquiring optical and/or three-dimensional images, a display device and/or a human/machine interface.
- the software means comprises a processor and/or a memory for executing said method.
- the hardware means comprises at least one sensor for capturing data on the location and orientation of a body portion in the surgical field.
- the hardware means comprise a first processor associated with a first memory for implementing the method according to the invention.
- the system includes an augmented reality display to project a virtual representation of the generated virtual attribute into a surgical field while allowing the surgical field to be viewed through the augmented reality display.
- system further includes a robotic arm including a head configured to support a surgical tool.
- the system includes a second processor associated with a second memory to implement a method of real-time guidance of a robot arm.
- the first processor and the second processor are the same processor and/or the second memory and the first memory are the same memory.
- the method of real-time guidance of a robot arm comprises:
- the invention relates to a computer program product comprising instructions which cause the system according to the invention to execute the steps of the method according to the invention.
- the invention relates to a computer-readable medium such as a memory, in particular a non-transitory memory, on which the computer program according to the invention is recorded.
- the invention relates to a computer-implemented method for assisting surgery comprising the following steps:
- Fig. 1 a schematic view of a device according to one embodiment of the invention.
- Fig. 2 a flowchart of the method according to one embodiment of the invention.
- Fig. 3 A top view of a subject's hand showing examples of points of interest.
- Fig. 4 An example of visualizations of the detected points of interest used as a basis for detecting the position and orientation of the hand.
- Fig. 5 a simplified view of an example of a display device according to one embodiment of the invention.
- Fig. 6 a flowchart of the method according to an embodiment of the invention where a model of the body portion associated with the first position is generated to generate the second body model associated with the second position.
- Fig. 7 a schematic view of a device according to an embodiment of the invention comprising a guidance system including a robotic arm.
- Fig. 8 a flowchart of the method according to one embodiment of the invention.
- the following description essentially concerns an example for generating a display instruction for an augmented reality display device; said display instruction being configured to display a geometric element characteristic of the position and location of a selected bone of the hand of a subject in the field of vision of the augmented reality device.
- the proposed system and method can be adapted, for example, to other portions of the body such as the foot, ankle, wrist, vertebrae or any other part of the body for which the precise visualization of a geometric element characteristic of a bone selected on an augmented reality display.
- system and associated method make it possible to display such an augmented reality guidance element characteristic of an organ or a portion of an organ such as the heart, the colon, the intestinal or venous system.
- the system according to the invention comprises a calculation module comprising at least one calculator for generating a display instruction and an augmented reality device connected to said at least one calculator for displaying elements in response to said generated display instruction.
- a calculation module comprising at least one calculator for generating a display instruction and an augmented reality device connected to said at least one calculator for displaying elements in response to said generated display instruction.
- the method described is implemented by computer. The steps of the method can thus be implemented by one or more processors or computers.
- the invention comprises receiving 1100 a medical image 10 of the hand 14 of a subject.
- a medical image 10 of the hand 14 is acquired by a medical image acquisition module.
- the individual's hand 14 Before proceeding with medical image capture, it is best to prepare the individual's hand 14 for optimal results. This may involve instructions to place the hand in the first predetermined specific position, possibly using props to keep the hand steady, and/or ensuring that the hand is clean and free of objects that could interfere with medical image capture.
- the medical image 10 of the hand is obtained when the latter is arranged in a first predetermined position, for example, placed flat on a support.
- the support comprises a solid-colored surface.
- a specific support for example comprising stop elements, to guide the individual to place his hand in the first predetermined position is used.
- the medical image 10 preferably comprises a three-dimensional image of the body portion.
- the medical image 10 comprises a series comprising a plurality of cross-sectional images of the hand 14 allowing a three-dimensional representation of the acquired body portion.
- the medical image 10 preferably includes an anatomical image of a portion of an individual's body.
- the medical image is acquired by a CT scan technique, also called a "computed tomography.”
- a CT scan is a non-invasive medical imaging technique that provides detailed images of the inside of the body.
- a CT scan is also known as a computed axial tomography (CAT) scan.
- CAT computed axial tomography
- This technique uses X-rays and a computer to produce cross-sectional images (slices) of the body, allowing physicians to visualize internal structures, such as organs, bones, blood vessels, and soft tissues.
- the acquired medical image 10 is a functional image of the body portion.
- the medical image includes an image acquired by an MRI (Magnetic Resonance Imaging) technique.
- MRI images advantageously allow bones, soft tissues, and other anatomical structures to be viewed with high resolution without exposing the individual to ionizing radiation.
- the fundamental principle of MRI is based on the properties of hydrogen atoms present in the human body.
- a strong magnetic field is applied, which aligns the hydrogen atoms in a specific direction.
- short pulses of radiofrequency waves are emitted into the body, which disrupts the alignment of the hydrogen atoms.
- these radiofrequency pulses die down, the hydrogen atoms return to their original aligned state.
- This relaxation process generates signals that are detected by special antennas in the MRI scanner. These signals are then converted into detailed 2D or 3D medical images of the body's internal structures by a computer.
- medical image 10 includes any image allowing the bones or skeleton of an individual's body portion to be visualized as well as the soft parts of the body portion (organs, blood network, nervous network or muscles).
- the acquired raw slice images undergo preprocessing to reduce noise and improve data quality.
- Advanced filtering and normalization techniques are applied to eliminate artifacts and make the images more consistent.
- the slice images may be subject to artifacts and disturbances, including noise, which may affect the quality and reliability of the extracted information.
- Different filtering methods such as Gaussian filter, median filter, or bilateral filter, can be used to reduce noise while preserving important details.
- preprocessing the slice images includes applying contrast enhancement techniques, such as histogram equalization or linear contrast adjustment, to increase the brightness difference between tissues, thereby improving the visibility of details.
- contrast enhancement techniques such as histogram equalization or linear contrast adjustment
- preprocessing the slice images includes using artifact removal or correction methods to restore the integrity of the images and ensure their fidelity.
- preprocessing the medical images includes normalizing the intensities to make the slice images consistent by adjusting their grayscales or pixel values so that they have similar intensity ranges.
- preprocessing medical images includes implementing a registration and registration technique to align acquired slice images of the same body region and properly overlay them to obtain a consistent medical image.
- medical image will be used to designate both an acquired raw medical image and a medical image having undergone a pre-processing step as described above.
- the method according to the invention comprises the generation of a first preoperative 3D model 22 of the hand or a portion of the body of the individual in the first predetermined position in which the medical image 10 a was acquired.
- the generation of a first preoperative 3D model 22 of the hand preferably includes a detection of the body portion on the medical image 10 to identify the region of interest of the image corresponding to the hand in the medical image 10, distinguishing it from other surrounding anatomical structures or from the background. For example, a thresholding segmentation or contour segmentation method is used.
- the overall objective of the body portion detection step is to accurately isolate the region of interest corresponding to said body portion in the medical image. Once the body portion is detected, the processed medical images 10 are ready to be used in subsequent steps of the process, such as 3D reconstruction and anatomical modeling of said body portion. Accurate body portion detection advantageously provides more reliable and higher quality results throughout the process of generating the 3D model(s).
- the preoperative 3D model 22 is also generated from an optical image of the body portion and/or a point cloud of said body portion acquired when the hand is in the first position.
- the generation of a preoperative 3D model of the hand comprises a preoperative three-dimensional reconstruction to advantageously generate a three-dimensional volumetric representation of the hand associated with the first position.
- the first initial 3D model and the initial three-dimensional reconstruction are preferentially associated with the first position.
- the three-dimensional reconstruction of the first preoperative 3D model of the hand is generated from the 3D medical image or from a series of 2D cross-sectional images of the hand.
- the three-dimensional reconstruction comprises a voxel-based reconstruction.
- This method relies on the discretization of space into small cubic units called voxels. Each voxel is assigned an intensity value based on the corresponding medical image. Using these values, a volumetric 3D model of the hand is created, where each voxel represents a small volume element in three-dimensional space.
- the three-dimensional reconstruction comprises a contour reconstruction comprising segmenting the contours of the different structures of the hand in each cross-sectional image of the medical image and combining said contours to create a 3D representation of the body portion.
- the three-dimensional reconstruction comprises reconstruction by depth-based approaches. including using depth information from each cross-sectional image of the medical image to reconstruct the three-dimensional geometry of the hand.
- the method further comprises the generation 112 of a preoperative anatomical model 23.
- the preoperative anatomical model 23 can be carried out from the medical image 10 and/or from the three-dimensional representation generated as described previously.
- Anatomical modeling preferably includes a three-dimensional modeling of an anatomical system of the body portion of which the optical image was acquired.
- anatomical modeling includes a modeling of the bones of the user's hand.
- Anatomical modeling allows us to classify the different anatomical structures present in the hand, including bones, joints, and soft tissues of the skin or flesh.
- the generation of the preoperative anatomical modeling 23 comprises a segmentation of each anatomical structure of the medical image 10 and the classification of said segmented structure from the characteristics of said segmentation.
- the segmentation and classification of each structure of the hand is implemented by a learning function such as a deep neural network or generative adversarial networks (GAN), can be used to create anatomical models of the hand from the medical image and/or from the generated three-dimensional representation.
- GAN generative adversarial networks
- the first preoperative 3D model of the individual associated with the first position is thus generated from the medical image 10 and comprises a 3D representation of the hand whose anatomical structures are classified.
- the preoperative 3D model comprises a three-dimensional representation of the bony anatomical structures of the hand and optionally the surface of the skin.
- This preoperative 3D model can be obtained by subtracting certain anatomical structures from the three-dimensional representation according to their classification.
- the first preoperative 3D model 22 comprises a three-dimensional representation of the bones of the hand in which the bones of the hand are labeled to be able to be identified among the bones of said first 3D model and optionally virtual representation of the surface of the skin.
- the first 3D model comprises depth information of the surface of the skin relative to the surface of the anatomical bone structures of the first 3D model.
- Said depth information can be generated from an analysis of the medical image used to generate the 3D model.
- the method for generating said depth information comprises measuring or calculating on the medical image the distance between the surface of the skin and the exterior surface of the anatomical element (bone, organ, muscle, etc.). Said calculated or measured distance is then converted into depth information.
- each piece of depth information is associated with a point on the surface of the anatomical element.
- each bone and the relative position of a bone with respect to adjacent bones can be determined from the acquired medical image.
- these dimensional data can be recorded or stored, for example on a memory.
- the medical image 10 is transmitted to the PRO calculation module and the first preoperative 3D model is generated by the PRO calculation module.
- the first preoperative 3D model and/or the preoperative anatomical modeling associated with the first position are transmitted to the PRO calculation module and/or stored or recorded on a data storage unit such as a MEM memory (preferably non-transient).
- the method further comprises a step 120 of determining the position and optionally the location of the individual's hand.
- the determination comprises acquiring 121 an image such as an optical image of the individual's hand when the individual's hand is in a second position different from the first position.
- the optical image may comprise a 2-dimensional or preferably a 3-dimensional optical image of the individual's hand.
- the image may be acquired by a remote image acquisition device. More preferably, the image is acquired by an image acquisition device integrated into a reality headset. augmented as described below.
- said image comprises an image of the individual's hand in an environment comprising objects which will make it possible to extract data on the location and orientation of the hand relative to said object in the environment.
- the determining comprises acquiring a three-dimensional image of the body portion such as a point cloud or a depth map.
- the image acquisition device preferably includes a 3D scanner.
- a 3D scanner is a device that uses multiple lasers or sensors to measure the three-dimensional geometry of the hand. It can provide a detailed 3D image of the hand, capturing its shape and contours accurately based on the principle of the laser's time of flight as it reflects from the hand.
- the scanner is designed to scan the individual's hand to record the depth information of each pixel.
- the image acquisition device may comprise means for acquiring two-dimensional or three-dimensional optical images.
- the acquisition device comprises a stereoscopic camera, i.e., a pair of stereoscopic cameras.
- a computing unit may then be used to extract depth information from the acquired 2D images, using parallax or angle difference. By combining these images, it is possible to obtain a 3D image of the hand.
- the optical image acquisition device comprises a depth camera.
- the optical image acquisition device comprises a LIDAR device for generating a point cloud or a depth map.
- optical image therefore means an image in the visible or infrared range or a depth map or point cloud.
- the optical image comprises a point cloud of at least a portion of the hand.
- a point cloud representing at least a portion of the hand is generated from the acquired image.
- the method then comprises the generation of data 11, called “position data” or “position indicator” as a function of the second position of the hand on the acquired image.
- position data for example, an indicator position indicator is generated from said acquired image of the hand in the second position.
- Said generated position indicator is characteristic of said second position. Preferably, it is thus possible to reconstruct the second position of the hand from said generated indicator.
- said generated indicator comprises pose information such as angular values of at least a portion of the joints of the hand.
- the generated indicator is associated with said second position of the individual's hand.
- the position data makes it possible to characterize the second position and makes it possible to reconstruct a virtual model of a hand in said second position.
- the position data 11 may describe the relative position of the joints of the hand and their spatial coordinates and/or the relative positions of the different fingers of the hand and the palm of the hand.
- the position data further comprises location and orientation data of the hand and/or each finger of the hand and/or each phalanx of the hand.
- the location data comprises relative coordinates of the hand in the environment.
- the orientation data comprises the relative orientation of the individual's hand in the environment.
- points of interest 206, 208 of the user's hand are generated from the acquired image or from the processing of the point cloud E1 generated as illustrated in FIG. 3.
- the points of interest may comprise deflection points 206.
- the deflection points 206 are generated at the boundary between two adjacent portions of the hand. For example, a point of interest may be generated between the portions of the hand corresponding to two adjacent phalanges of the same finger. The location of such a point of interest may then correspond to the location of a joint, for example between two phalanges.
- the points of interest may include the tip or end of a finger.
- the different points of interest may be connected to each other by segments 207.
- Points of interest may include coordinates of a point or area on the acquired image and labeling information corresponding to identification information.
- the identification information makes it possible to identify a predetermined joint.
- the step of generating the points of interest comprises generating the coordinates of each point of interest on the acquired image or in the generated point cloud of the individual's hand in the second position.
- the position data are obtained from the coordinates of said points of interest.
- the pose of the hand in the second position can thus be determined from the angular differences between two segments 207 connected to the same point of interest 206; 208.
- FIG. 4 An example of a 3D model associated with a second position E2 is represented in FIG. 4 in which the points of interest 211, 212, 213 are generated from the transformation parameter as well as the segments 214 connecting said points of interest.
- the position indicator is generated from a trained learning function such as a trained neural network.
- said learning function is trained from a collection of labeled training images.
- Each training image is an optical image of the hand in a position and comprises a label comprising the hand position data associated with said training image.
- Said learning function once trained, is configured to receive as input an image of the hand and generate as output a position indicator of said hand on the image associated with said input image.
- preprocessing of the hand image may be carried out, for example the generation of points of interest.
- the learning function is configured to generate position data from the coordinates of the points of interest and/or the acquired image of the hand.
- the second position of the body portion is compared (130) to the first predetermined position in which the preoperative medical image of the body portion was acquired.
- This comparison step generates a transformation parameter 26.
- the transformation parameter 26 may for example comprise a transformation matrix making it possible to transform the position of the body portion into the second position from the first position.
- the transformation parameter 26 is obtained by mathematical operations of comparison between the generated position indicator associated with the second position and a pre-recorded position indicator associated with the first position and preferably different from the generated position indicator.
- the position indicator relating to the first position is determined from an optical and/or three-dimensional image of the body portion in the first position.
- the comparison can be obtained by regression, subtraction or division operations.
- the transformation parameter may be generated based on pre-recorded biomechanical rules.
- the transformation parameter may include an angular value of rotation of each joint of the hand allowing a hand to move from the first to the second position.
- the transformation parameter includes an angular value of each joint of the hand allowing it to move from the first to the second position.
- the transformation parameter is a parameter associated with the second position and converting the position index associated with the first position into a position index associated with the second position.
- the generation of the transformation parameter comprises the detection or calculation of angles of the different parts of the body portion around joints of said body portion (for example the angle between two adjacent phalanges) from the acquired optical images.
- the transformation parameter is generated by comparing the angular values of joints associated with the first pre-recorded position and those associated with the second position.
- the method comprises generating 140 a second updated 3D model 14 associated with the second position.
- the updated 3D model preferably comprises a 3D model as described for the preoperative 3D model.
- the updated 3D model 14 is however associated with the second position.
- the second updated 3D model 14 is generated from the acquired images of the body portion in the second position in the same manner as the first initial 3D model is generated from the acquired images of the body portion in the first position.
- the updated 3D model includes an anatomical model comprising a three-dimensional model of said anatomical system associated with the second position.
- the anatomical system includes a representation of the skeletal system of the hand composed of the bones of the hand.
- Generating an updated 3D model includes a three-dimensional reconstruction to advantageously generate a three-dimensional volumetric representation of the hand in the second position.
- Said three-dimensional reconstruction may be the same as that described for the first initial 3D model.
- the anatomical modeling associated with the second position is generated from the pre-recorded pre-operative anatomical modeling 23 associated with the first position and from the generated transformation parameter 26 associated with the transformation of the body portion in the second position from the first position.
- transformation parameter 26 is applied to the preoperative anatomical model associated with the first position to obtain an anatomical model associated with the second position.
- the angular value of each joint of the first preoperative anatomical modeling associated with the first position is modified by the value of said joint according to the position data associated with the second position to generate the updated anatomical modeling associated with the second position.
- each anatomical element is generated from the previously acquired medical image associated with the first position of the body portion.
- the position and orientation of each anatomical element relative to each other are generated from the transformation parameter and/or from the comparison between the first predetermined position and the second position.
- an anatomical element must be understood as an object of a 3D model defining a three-dimensional volume, itself defined by a surface, a point cloud, a point mesh.
- a 3D model can thus be defined by one or more anatomical elements.
- An anatomical element of the 3D model can include a representation of bones, an organ, a muscle, a tendon.
- the updated anatomical modeling associated with the second position preferably includes a representation of the user's hand skeleton, that is, a set of bones connected to each other.
- a representation of the user's hand skeleton that is, a set of bones connected to each other.
- the connection between two bones is symbolized by a joint labeled by an identifier.
- the updated 3D model associated with the second position is generated from the pre-operative 3D model associated with the first position.
- the anatomical elements of the updated 3D model are identical to the anatomical elements of the preoperative 3D model.
- the updated anatomical modeling is generated from the preoperative anatomical modeling on which a spatial transformation in translation and/or rotation of the anatomical elements (for example bones) is applied according to the transformation parameter 16 previously calculated and optionally according to a set of pre-recorded biodynamic rules.
- biodynamic rules may set constraints on the angular displacement of certain joints.
- biodynamic rules define axes of rotation of each joint and/or ranges of authorized and/or prohibited values of each joint of the body portion.
- the second updated anatomical model associated with the second position may include depth information.
- the depth information includes distance information between the surface of a point of the updated anatomical model and the skin of the subject.
- this information is generated from the acquired medical images.
- the acquired medical images are processed so as to determine the distance between the surface of a point of a determined bone of the subject and the skin of the subject. For example, the distance between the surface of a bone and the skin of the subject is measured on the medical images and associated with the bone or point of the bone used for said measurement.
- This depth information is preferably associated with coordinates of the point of the anatomical model from which the distance was measured relative to a reference point located on said anatomical element. Said coordinates can be calculated from the two-dimensional coordinates of the point on the medical image and as a function of the section image used or the depth associated with said section image.
- the depth distances between the skin surface and the anatomical elements of the second updated anatomical model associated with the second position are similar to the distances determined during the construction of the first preoperative anatomical model.
- the device comprises means for acquiring or receiving optical and/or three-dimensional images of the body portion continuously and for generating continuously and/or in real time a second 3D model updated from said images.
- the anatomical modeling is generated by a trained learning function such as a trained neural network.
- Said learning function is configured to receive as input: - a transformation parameter 26 associated with the second position and converting the position index associated with the first position into a position index associated with the second position; associated with
- Said learning function is configured to generate as output an anatomical model associated with the second position.
- Said learning function was preferably trained from a training database of a plurality of triplets each composed of medical images of the body portion in the first position, of transformation parameters associated with the transformation from the first position to a second position (different from the first position) and of an anatomical modeling of said body portion in the second position.
- the method further comprises selecting 150, from the set of anatomical elements comprising the updated anatomical modeling associated with the second position, an anatomical element 16.
- Said selection can be carried out via a human-machine interface INT.
- Said human-machine interface INT further comprises one or more user interfaces.
- the user interface(s) may, for example, include one or more computer mice, a keyboard, a touchscreen, a trackball, a microphone for providing voice recognition software running on a processor with spoken instructions, a camera for providing images of captured gestures or the like to gesture recognition software running on a processor, and so on. It should be understood that any existing user interface device may be used in conjunction with the AFF display system described hereinafter.
- a display system includes a list of labels, each label being associated with a predetermined anatomical feature.
- the method comprises the generation 170 of a virtual image 17 and/or the generation of a display instruction to display said virtual image, in particular by an augmented reality device. Said display instruction can then be received by a display module such as that of an augmented reality display computer device as described below to display said virtual image.
- the virtual image 17 may comprise a portion of the updated anatomical model.
- the virtual image comprises at least a portion of the individual's hand bone system generated by the steps previously described.
- the position of the hand is detected (second position) by the image capture device and the virtual image comprising said portion of the anatomical model associated with the second position is displayed in real time.
- the virtual image is displayed in such a way that said portion of the anatomical model is superimposed on the portion of the individual's body.
- the virtual image is displayed so as to match the skin surface of the updated 3D model with the user's skin surface on the optical image.
- the updated 3D model is displayed so that the skin surface of said 3D model is confused with the skin surface detected on the acquired optical image and/or with the point cloud of the body portion acquired by the image acquisition device.
- the system is configured to display an anatomical element of the 3D model at a relative position of the subject's skin by taking into account the depth information of said anatomical element of the 3D model.
- the displayed virtual image including a portion of the 3D model, is thus advantageously consistent with the position of the subject's hand.
- the user thus obtains an augmented reality display of the 3D model.
- the portion of the 3D model displayed does not include the skin surface but the internal anatomical elements of the subject such as than the bones of the subject.
- said anatomical elements are displayed with a particularly advantageous localization precision, even in the event of movement of the subject's body portion.
- the virtual image 17 is generated according to the selected anatomical element.
- the virtual image can thus comprise only the selected anatomical element 16 and/or the adjacent anatomical elements of the selected anatomical element 16.
- the method further comprises generating a virtual attribute 15.
- the virtual attribute 15 comprises an element to be displayed reflecting a property of the selected anatomical element 16.
- the virtual attribute 15 may comprise a direction axis.
- the direction axis is generated based on the shape and/or orientation of the selected anatomical element 16 according to a rule or set of rules predefined and/or associated with said selected anatomical element.
- the virtual attribute 15 may comprise an axis merged with the longitudinal axis of said selected bone.
- One advantage of displaying such an axis on an augmented reality display module is that it allows the surgeon to visualize a specific axis relating to the anatomical element that he has previously selected.
- the virtual attribute comprises a pre-generated anatomical indicator.
- the anatomical indicator may be displayed as a number near or superimposed on the body portion.
- the anatomical indicator may comprise the value of a distance between the surface of the skin and the surface of an anatomical element, for example at a predetermined and/or selected point.
- the virtual attribute 15 comprises a plane whose coordinates are a function of the selected anatomical element.
- the computing device described below displays the plane of the virtual attribute as a section plane so as to display a portion of the modeling associated with the second position superimposed on the part of the individual's body in contact with said generated plane.
- said generated plane is therefore seen as a section plane.
- the operator can select via the human-machine interface INT a virtual attribute from a list of virtual attributes such as those previously described to be displayed and the computing device will in return display the selected virtual attribute.
- the virtual image 17 and/or the virtual attribute 15 are generated and/or displayed in real time from the optical and/or three-dimensional images acquired and received by the system. These two pieces of information can thus evolve in real time depending on the movements of the subject.
- Figure 5 schematically represents a particularly preferred embodiment of the AFF display system, in which this system is implemented as a head-mounted computing device such that the virtual image 17 can be generated in the view of the doctor in the first instance.
- the device further comprises a location for augmenting the reality (i.e., the real view) of the doctor, e.g., by superimposing the virtual image 17 on this real view.
- a head-mountable computing device is a device that can be worn on the head of its user and provides the user with computing functionality.
- the head-mounted computing device may be configured to perform specific computing tasks as specified in a software application (app) that may be retrieved from the Internet or other computer-readable medium.
- apps software application
- Non-limiting examples of such head-mounted computing devices include smart headsets, e.g., glasses, goggles, a helmet, a hat, a visor, a headband, or any other device capable of being supported on or from the wearer's head, etc.
- smart headsets e.g., glasses, goggles, a helmet, a hat, a visor, a headband, or any other device capable of being supported on or from the wearer's head, etc.
- the head-mountable computing device may comprise the PRO processor and/or the computing unit 2, e.g., in a component package 122.
- the head-mountable computing device may further include an image sensor or camera 127 as a detector. the position of the body portion to capture an image in a field of view of a wearer of the wearable computing device.
- the image sensor may be arranged such that when the head-mountable computing device is worn as intended, the image sensor aligns with the eyes of its wearer, i.e., produces a forward-facing sensor signal corresponding to the field of view of its wearer.
- Such an image sensor or camera may be integrated into the head-mounted computing device, for example, integrated into a lens of a head-mounted computing device through which its wearer views his or her field of view, into a lens holder or frame for such a lens, or into any other suitable structure of the head-mounted computing device in which the optical sensor aligns with the field of view of the wearer of the head-mounted computing device.
- such an image sensor may be part of a modular wearable computing device, e.g., a head-mounted image sensor module communicatively coupled via a wired or wireless connection to one or more other modules of the head-mounted computing device, wherein at least some of the other modules may be worn on parts of the body other than the head, or wherein some of the other modules may not be wearable, but rather portable, for example.
- a head-mounted image sensor module communicatively coupled via a wired or wireless connection to one or more other modules of the head-mounted computing device, wherein at least some of the other modules may be worn on parts of the body other than the head, or wherein some of the other modules may not be wearable, but rather portable, for example.
- the head-mountable computing device generally includes at least one display module 125, which may be a transparent display module, under the control of a discrete display controller (not shown).
- the display controller may be implemented by a processor of the head-mounted computing device.
- the at least one display module 125 is generally arranged such that a wearer of the head-mountable computing device, e.g., the physician present at the first location 100, can observe the virtual image 17 of the ultrasound probe 11 displayed on the at least one display module 125.
- the at least one display module 125 is a transparent display module such that the wearer can observe at least a portion of a field of vision through the display module 125, e.g. e.g. the subject's hand or any other body part, the doctor's tools necessary for surgery.
- the head-mountable computing device includes a pair of display modules 125 including a first display module that can be viewed by the wearer's right eye and a second display module that can be viewed by the wearer's left eye.
- At least one display module 125 may be an opaque display module on which an augmented reality scene of the field of vision of its wearer is displayed, for example a display module 125 making it possible to project a virtual image 17 into the augmented field of vision.
- the head-mountable computing device may comprise a camera for capturing the field of vision of its wearer.
- the first display module and the second display module can be controlled to display different images, e.g. to generate a stereoscopic image as is well known in the art.
- an image may be generated on one of the first and second display modules only such that the wearer can observe the generated image with one eye and the actual field of view with the other eye.
- the first and second display modules may be transparent or partially transparent display modules.
- one of the first and second display modules may be a transparent or partially transparent display module, while the other display module is an opaque display module, i.e., a display module that is not transparent such that the wearer cannot see through that display.
- the at least one display module 125 may be provided in any suitable form, such as a transparent lens portion.
- the head-mountable computing device may include a pair of lens portions, i.e., one for each eye, as explained above.
- the one or more transparent lens portions may be sized such that substantially the entire field of vision of the wearer is obtained through the one or more transparent lens portions.
- the at least one display module 125 may be shaped as a lens to be mounted within the frame of the head-mountable computing device. Any other configuration known to those skilled in the art may be contemplated.
- the frame 128 may have any suitable shape and may be made of any suitable material, e.g., a metal, a metal alloy, a plastic, or a combination thereof.
- the head-mountable computing device may be mounted within the frame 128, for example, within a component housing 122 forming part of the frame 128.
- the component housing 122 may have any suitable shape, preferably an ergonomic shape that allows the head-mountable device to be worn by its wearer in a comfortable manner.
- the system further comprises a guidance system.
- the guidance system may comprise, for example, a robot arm ROB for guiding an OTL surgical tool.
- the surgical tool may include a cutting tool, a device for injecting a medicinal or anesthetic product, a device for inserting a medical device such as a pin, plate, or screw.
- the robot arm includes a head configured to receive a surgical tool.
- the system is configured to guide the robot arm head in real time according to a position and/or an orientation based on the updated 3D model associated with the second position.
- the system is configured to control the robot arm so as to orient the head of the robot arm in real time according to the generated virtual attribute.
- the head of the robot arm is controlled according to the axis 151 of the virtual attribute 15, preferably to align the longitudinal axis of the surgical tool with said axis 151 of the virtual attribute.
- the robot arm can thus be guided, manually by an operator or automatically to reach a point of interest of the body portion of the subject along a predetermined axis, even if the subject is moving.
- the system is configured to detect the position and/or orientation of the robot arm head in its environment such as relative to a point of interest of the body portion. of the subject.
- the system is then also designed to generate a guidance trajectory to move the robot arm head from its initial position to a predetermined target point.
- the predetermined target point and the guidance trajectory can be continuously updated from the newly generated updated 3D anatomical model and the generated virtual attribute.
- the robot arm may comprise sensors such as optical and/or three-dimensional image sensors, for example for generating the updated three-dimensional model or for detecting obstacles on the guidance path.
- sensors such as optical and/or three-dimensional image sensors, for example for generating the updated three-dimensional model or for detecting obstacles on the guidance path.
- aspects of the disclosed method may be provided in the form of a computer program product comprising a computer-readable storage medium having embedded therein computer-readable program instructions for, when executed on the system processor, causing those processors to perform the relevant steps of said method.
- aspects of the present invention may be implemented as a medical system 1, a display device control system 2, a display system 20.
- Certain aspects of the present invention may take the form of a computer program product embodied in one or more computer-readable media having computer-readable program code embedded therein.
- the computer-readable medium may be a computer-readable signal medium or a computer-readable storage medium.
- a computer-readable storage medium may be, for example, but not limited to, an electronic, magnetic, optical, electromagnetic, infrared or semiconductor system, apparatus or device, or any suitable combination of the foregoing.
- Such a system, device, or apparatus may be accessible via any suitable network connection; for example, the system, device, or apparatus may be accessible over a network to retrieve computer-readable program code over the network.
- Such a network can be, for example, the Internet, a mobile communications network or other.
- the computer-readable storage medium may include the following, a hard disk drive, random access memory (RAM), a drive, memory only (ROM), an erasable programmable read-only memory (EPROM or Flash memory), an optical fiber, a portable compact disc read-only memory (CD-ROM), an optical storage device, a magnetic storage device, or any other suitable combination of the foregoing.
- a computer-readable storage medium may be any tangible or non-transitory medium capable of containing or storing a program for use by or in connection with an instruction executing system, apparatus, or device.
- a computer-readable signal carrier may comprise a propagated data signal having computer-readable program code embedded therein, for example in baseband or as part of a carrier wave.
- Such a propagated signal may take various forms, including, but not limited to, electromagnetic, optical, or any suitable combination thereof.
- a computer-readable signal carrier may be any computer-readable medium that is not a computer-readable storage medium and that can communicate, propagate, or carry a program for use by or in connection with an instruction-executing system, apparatus, or device.
- Program code embodied on a computer-readable medium may be transmitted using any suitable medium, including, but not limited to, wireless, wire, fiber optic cable, RF, etc., or any suitable combination of the foregoing.
- the processor or computer can communicate with one or more external devices via the network.
- the processor or the calculator may be connected to the network via a wired connection (e.g., via an Ethernet cable) and/or a wireless connection (e.g., via a WiFi network).
- These external devices may include servers, workstations, and/or databases.
- the processor or the calculator may communicate with these devices to, for example, offload computationally intensive tasks.
- the processor or the calculator may send medical images or optical image(s) via the network to the server for analysis and receive the results of the analysis from the server (e.g., respectively, the preoperative 3D model or the 3D model associated with the second position).
- the processor or the calculator may communicate with these devices to access information that is not available locally and/or update a central information repository.
- the device may also include a plurality of processors, each associated with one or more memories, and configured to together execute such steps.
- the processor(s) may be remote and connected to the display by a data network.
- the device further comprises a memory or several memories for storing or recording the display instructions and/or the 3D models generated by the method according to the invention and/or for storing the computer programs allowing, when executed by one or more processors, to implement the method according to the invention.
- the device further comprises a transmitter connected to said memory for transmitting said instructions and/or 3D models generated on said memory to a data network.
- the device further comprises a second transmitter connected for transmitting said instruction to a display device (preferably an augmented reality display device).
- the device may further comprise communication means such as transmitters and receivers for exchanging information with the probe and/or a remote device.
- the display may include means for receiving the various information received by the various means of the device to generate the final image to be displayed, preferably in augmented reality.
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Primary Health Care (AREA)
- Surgery (AREA)
- Epidemiology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Urology & Nephrology (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
METHODE D’AIDE A LA CHIRURGIE ET SYSTEME ASSOCIE SURGERY AID METHOD AND ASSOCIATED SYSTEM
Domaine de l’invention Field of invention
L’invention concerne un procédé mis en œuvre par ordinateur pour l’assistance à la chirurgie, notamment un procédé de génération d’une consigne d’affichage d’un axe de la main sur un dispositif de réalité augmentée. L’invention concerne également un système ou un programme d’ordinateur pour mettre en œuvre ledit procédé ainsi qu’une mémoire comprenant ledit programme d’ordinateur. The invention relates to a computer-implemented method for assisting surgery, in particular a method for generating an instruction for displaying a hand axis on an augmented reality device. The invention also relates to a system or computer program for implementing said method and a memory comprising said computer program.
État de la technique State of the art
Lors de certaines chirurgies, certaines parties anatomiques du patient comme les os sont invisibles au chirurgien. During some surgeries, certain anatomical parts of the patient such as bones are invisible to the surgeon.
Certaines technologies permettent d’obtenir, à l’aide d’un casque de réalité augmentée porté par le chirurgien, de superposer sur ce que voit le chirurgien des caractéristiques virtuelles correspondant à des caractéristiques physiques cachées par l’anatomie du patient. Some technologies make it possible, using an augmented reality headset worn by the surgeon, to superimpose virtual characteristics corresponding to physical characteristics hidden by the patient's anatomy onto what the surgeon sees.
Par exemple, on connait WO2018164909 proposant une solution pour afficher sur l’afficheur d’un dispositif de réalité augmentée des ligaments d’un genou à travers la peau du patient pour permettre au chirurgien de visualiser ces ligaments lors d’une opération. La taille et la forme des ligaments virtuels peuvent être modifiées en fonction de la détection d’un mouvement des os adjacents. For example, WO2018164909 is known, which proposes a solution for displaying knee ligaments through the patient's skin on the display of an augmented reality device to allow the surgeon to visualize these ligaments during an operation. The size and shape of the virtual ligaments can be modified based on the detection of movement of adjacent bones.
Un inconvénient de ce type de solution est qu’il ne permet pas de générer des images d’assistance à la chirurgie pour des portions de corps plus complexes que le genou telles que la main ou le pied. A disadvantage of this type of solution is that it does not allow the generation of surgery assistance images for body parts more complex than the knee, such as the hand or the foot.
Il existe donc un besoin d’une méthode et d’un système d’assistance à la chirurgie permettant de représenter des caractéristiques physiques d’une portion de corps telles que la main ou le pied. There is therefore a need for a method and a surgical assistance system that can represent physical characteristics of a body portion such as the hand or the foot.
Résumé de l’invention Summary of the invention
Selon un aspect, l’invention concerne un procédé ou une méthode d’aide à la chirurgie mise en œuvre par ordinateur. In one aspect, the invention relates to a computer-implemented method or method for assisting surgery.
Le procédé comprend : The process includes:
■ La réception d’une image médicale d’une portion de corps prédéterminée d’un individu dans une première position ; ■ La réception d’une image optique d’une scène comprenant ladite portion de corps dans une seconde position différente de la première position ; ■ Receiving a medical image of a predetermined body portion of an individual in a first position; ■ Receiving an optical image of a scene comprising said body portion in a second position different from the first position;
■ La comparaison entre la seconde position et la première position pour générer un paramètre de transformation ; ■ Comparison between the second position and the first position to generate a transformation parameter;
■ La génération d’un modèle 3D d’une structure anatomique de ladite portion du corps, associé à la seconde position, ledit modèle 3D associé à la seconde position étant généré à partir du paramètre de transformation et à partir dudit modèle 3D préopératoire ; ladite structure anatomique comprenant au moins un ensemble d’éléments anatomiques de ladite portion de corps de l’individu ; le modèle 3D associé à la seconde position comprenant également des informations de profondeur de chaque élément anatomique dudit ensemble par rapport à la surface de la peau ; ■ The generation of a 3D model of an anatomical structure of said portion of the body, associated with the second position, said 3D model associated with the second position being generated from the transformation parameter and from said preoperative 3D model; said anatomical structure comprising at least one set of anatomical elements of said portion of the body of the individual; the 3D model associated with the second position also comprising depth information of each anatomical element of said set relative to the surface of the skin;
■ la génération et la transmission d’une consigne d’affichage à un afficheur de réalité augmentée pour projeter une représentation virtuelle d’au moins une partie des éléments anatomiques du modèle 3D associé à la seconde position dont l’emplacement d’affichage est déterminé en fonction des informations de profondeurs du modèle 3D associé à la seconde position. ■ the generation and transmission of a display instruction to an augmented reality display to project a virtual representation of at least part of the anatomical elements of the 3D model associated with the second position, the display location of which is determined based on the depth information of the 3D model associated with the second position.
Dans un mode de réalisation, l’emplacement d’affichage est déterminé également en fonction de la position de la peau de la portion de corps sur l’image optique acquise. In one embodiment, the display location is also determined based on the position of the skin of the body portion on the acquired optical image.
Dans un mode de réalisation, l’image optique permet la détection d’un changement de position du sujet par rapport à la première position. Le modèle 3D est utilisé pour calculer les nouvelles positions de chaque élément anatomique. In one embodiment, the optical image allows the detection of a change in position of the subject relative to the first position. The 3D model is used to calculate the new positions of each anatomical element.
Dans un mode de réalisation, les caractéristiques dimensionnelles de l'anatomie du patient sont extraites des images médicales pour servir de paramètres permettant d'ajuster un modèle biomécanique à la taille et à la forme du patient. Ces dimensions peuvent être les dimensions 2D des principaux organes et os dans les plans axial, coronal ou sagittal, ou des distances spécifiques entre les organes, les os ou la peau dans les plans axial, coronal ou sagittal. Une autre façon d'ajuster le modèle consiste à utiliser des techniques de déformation basées sur l'atlas pour déterminer un champ de déformation à appliquer à un ou plusieurs modèles biomécaniques (à partir d'un atlas). Le champ de déformation et le modèle biomécanique final choisi sont déterminés après optimisation d'une fonction de coût (mesures de similarité, énergie de déformation) pour correspondre à l'anatomie réelle du patient. In one embodiment, dimensional features of the patient's anatomy are extracted from medical images to serve as parameters for fitting a biomechanical model to the patient's size and shape. These dimensions may be the 2D dimensions of major organs and bones in the axial, coronal, or sagittal planes, or specific distances between organs, bones, or skin in the axial, coronal, or sagittal planes. Another way to fit the model is to use Atlas-based deformation techniques to determine a deformation field to be applied to one or more biomechanical models (from an atlas). The deformation field and the final chosen biomechanical model are determined after optimizing a cost function (similarity measures, strain energy) to match the actual patient anatomy.
Dans un mode de réalisation, le procédé comprend la génération d’un modèle 3D préopératoire de la portion de corps associé à la première position à partir l’image médicale reçue. Dans un mode de réalisation, le modèle 3D préopératoire comprend des informations de profondeur de chaque élément anatomique dudit modèle 3D préopératoire par rapport à la surface de la peau à partir de l’image médicale reçue. Dans un mode de réalisation, les informations de profondeur du modèle 3D associé à la seconde position sont générés à partir desdites informations du modèle 3D préopératoire, notamment à partir des informations de profondeur de chaque élément anatomique dudit modèle 3D préopératoire. In one embodiment, the method comprises generating a preoperative 3D model of the body portion associated with the first position from the received medical image. In one embodiment, the preoperative 3D model comprises depth information of each anatomical element of said preoperative 3D model relative to the surface of the skin from the received medical image. In one embodiment, the depth information of the 3D model associated with the second position is generated from said information of the preoperative 3D model, in particular from the depth information of each anatomical element of said preoperative 3D model.
Dans un mode de réalisation, la portion de corps comprend au moins une main dudit individu. Dans un mode de réalisation, les éléments anatomiques comprennent des os de la main. In one embodiment, the body portion comprises at least one hand of said individual. In one embodiment, the anatomical features comprise bones of the hand.
Dans un mode de réalisation, le procédé comprend la génération d’un modèle 3D préopératoire de la portion de corps associé à la première position à partir l’image médicale reçue. In one embodiment, the method comprises generating a pre-operative 3D model of the body portion associated with the first position from the received medical image.
Dans un mode de réalisation, le procédé comprend une étape de génération d’un attribut virtuel, ledit attribut virtuel comprenant un élément caractéristique de la position et de l’orientation d’un élément anatomique prédéterminé ou sélectionné dans le modèle 3D. In one embodiment, the method comprises a step of generating a virtual attribute, said virtual attribute comprising an element characteristic of the position and orientation of a predetermined or selected anatomical element in the 3D model.
Selon un aspect, l’invention concerne un procédé ou une méthode d’aide à la chirurgie mis en œuvre par ordinateur. In one aspect, the invention relates to a computer-implemented method or method for assisting surgery.
Le procédé comprend la réception d’une image médicale d’une portion de corps prédéterminée d’un individu dans une première position. The method comprises receiving a medical image of a predetermined body portion of an individual in a first position.
Le procédé comprend la réception d’une image optique et/ou tridimensionnelle de ladite portion de corps dans une seconde position différente de la première position et la détermination de donnée de position de ladite portion de corps caractéristique de ladite seconde position à partir de ladite image réceptionnée. Le procédé comprend la comparaison entre la seconde position et la première position pour générer un paramètre de transformation. The method comprises receiving an optical and/or three-dimensional image of said body portion in a second position different from the first position and determining position data of said body portion characteristic of said second position from said received image. The method includes comparing the second position to the first position to generate a transformation parameter.
Le procédé comprend la génération d’un modèle 3D d’une structure anatomique de ladite portion du corps, associé à la seconde position, à partir de l’image médicale reçue et à partir dudit paramètre de transformation. The method comprises generating a 3D model of an anatomical structure of said portion of the body, associated with the second position, from the received medical image and from said transformation parameter.
Dans un mode d'exécution, ladite structure anatomique comprend au moins un ensemble d’éléments anatomiques de ladite portion de corps de l’individu. In one embodiment, said anatomical structure comprises at least one set of anatomical elements of said portion of the individual's body.
Dans un mode d'exécution, le procédé comprend la sélection d’au moins un élément anatomique parmi ledit ensemble d’éléments anatomique dudit modèle 3D généré. In one embodiment, the method comprises selecting at least one anatomical element from said set of anatomical elements of said generated 3D model.
Dans un mode d'exécution, le procédé comprend la génération d’un attribut virtuel, ledit attribut virtuel comprenant un élément caractéristique de la position et de l’orientation dudit élément anatomique sélectionné dans le modèle 3D. In one embodiment, the method comprises generating a virtual attribute, said virtual attribute comprising an element characteristic of the position and orientation of said selected anatomical element in the 3D model.
Un avantage de l’attribut virtuel est de fournir au praticien une information sur la position et/ou l’orientation d’un élément anatomique du sujet non visible à l’œil nu. Cet attribut virtuel peut ainsi être affiché sur un dispositif de réalité augmenté dans le champ de vision du praticien. One advantage of the virtual attribute is that it provides the practitioner with information on the position and/or orientation of an anatomical element of the subject that is not visible to the naked eye. This virtual attribute can thus be displayed on an augmented reality device in the practitioner's field of vision.
Dans un mode d'exécution, l’élément géométrique de l’attribut virtuel comprend un axe ou un plan dont l’emplacement et l’orientation sont générés en fonction de la position et de l’orientation dudit élément anatomique. In one embodiment, the geometric element of the virtual attribute comprises an axis or plane whose location and orientation are generated based on the position and orientation of said anatomical element.
Un avantage d’un axe ou d’un plan est de permettre au praticien de suivre l’orientation d’un élément, par exemple pour l’alignement ou le placement d’un outil chirurgical. One advantage of an axis or plane is that it allows the practitioner to track the orientation of an element, for example for the alignment or placement of a surgical tool.
Dans un mode d'exécution, le procédé comprend la génération et la transmission d’une consigne d’affichage à un afficheur de réalité augmentée pour projeter une représentation virtuelle de l’attribut virtuel généré dans un champ chirurgical comprenant ladite portion de corps dudit individu tout en permettant au champ chirurgical d'être vu à travers l’afficheur de réalité augmentée. In one embodiment, the method comprises generating and transmitting a display instruction to an augmented reality display to project a virtual representation of the generated virtual attribute into a surgical field comprising said body portion of said individual while allowing the surgical field to be viewed through the augmented reality display.
Dans un mode d'exécution, la consigne d’affichage comprend une consigne pour projeter représentation virtuelle d’au moins une partie du modèle 3D dans le champ chirurgical en permettant au champ chirurgical d'être vu à travers l’afficheur de réalité augmentée. Un avantage d’afficher dans le champ chirurgical une partie du modèle 3D est de permettre la visualisation d’éléments anatomiques sous la peau tel que les os ou certains organes. L’affichage du modèle 3D est préférentiellement affiché en superposition de la portion de corps du sujet correspondant audit modèle 3D. In one embodiment, the display instruction includes an instruction to project a virtual representation of at least a portion of the 3D model into the surgical field by allowing the surgical field to be viewed through the augmented reality display. An advantage of displaying part of the 3D model in the surgical field is that it allows the visualization of anatomical elements under the skin such as bones or certain organs. The display of the 3D model is preferably displayed superimposed on the portion of the subject's body corresponding to said 3D model.
Dans un mode d'exécution, la capture de donnée de position de ladite portion de corps dudit individu est réalisée en continu et dans lequel la consigne d’affichage est mise à jour en temps réel. In one execution mode, the capture of position data of said portion of the body of said individual is carried out continuously and in which the display instruction is updated in real time.
Dans un mode d'exécution, un modèle 3D préopératoire de la portion de corps associé à la première position est généré à partir l’image médicale reçue, ledit modèle 3D associé à la seconde position étant généré à partir de la comparaison et à partir dudit modèle 3D opératoire. In one embodiment, a preoperative 3D model of the body portion associated with the first position is generated from the received medical image, said 3D model associated with the second position being generated from the comparison and from said operative 3D model.
Dans un mode d'exécution, le modèle 3D préopératoire comprend des informations de profondeur de chaque élément anatomique dudit ensemble par rapport à la surface de la peau à partir de l’image médicale reçue et le modèle 3D associé à la seconde position comprend également des informations de profondeur de chaque élément anatomique dudit ensemble par rapport à la surface de la peau à partir desdites informations du modèle 3D préopératoire. In one embodiment, the preoperative 3D model comprises depth information of each anatomical element of said set relative to the surface of the skin from the received medical image and the 3D model associated with the second position also comprises depth information of each anatomical element of said set relative to the surface of the skin from said information of the preoperative 3D model.
Un avantage est de permettre de conserver dans le modèle 3D les informations de profondeur d’un élément anatomique, par exemple la distance entre ledit élément anatomique et la surface de la peau. L’affichage en réalité augmentée de tout ou partie du modèle 3D est ainsi avantageusement plus précis, notamment la position de l’élément anatomique du modèle 3D par rapport à la peau du sujet. One advantage is that it allows the depth information of an anatomical element to be retained in the 3D model, for example the distance between said anatomical element and the surface of the skin. The augmented reality display of all or part of the 3D model is thus advantageously more precise, in particular the position of the anatomical element of the 3D model in relation to the subject's skin.
Dans un mode d'exécution, la consigne d’affichage comprend en outre une consigne pour projeter une représentation virtuelle d’au moins une partie des éléments anatomiques du modèle 3D associé à la seconde position, dont l’emplacement d’affichage est déterminé en fonction des informations de profondeurs et de l’emplacement de la surface de peau du sujet sur l’image optique et/ou tridimensionnelle reçue. In one embodiment, the display instruction further comprises an instruction for projecting a virtual representation of at least part of the anatomical elements of the 3D model associated with the second position, the display location of which is determined based on the depth information and the location of the subject's skin surface on the received optical and/or three-dimensional image.
Dans un mode d'exécution, la consigne d’affichage comprend en outre une consigne pour projeter une représentation virtuelle d’au moins une partie des éléments anatomiques du modèle 3D associé à la seconde position, dont l’emplacement d’affichage est déterminé en fonction des informations de profondeurs surface de main et de l’emplacement de la surface de peau de la main du sujet sur l’image optique et/ou tridimensionnelle reçue. In one embodiment, the display instruction further comprises an instruction for projecting a virtual representation of at least a portion of the anatomical elements of the 3D model associated with the second position, the display location of which is determined based on the information of hand surface depths and the location of the subject's hand skin surface on the received optical and/or three-dimensional image.
Dans un mode d'exécution, le modèle 3D préopératoire est généré à partir d’une segmentation et de la labellisation de chaque élément anatomique de la portion de corps à partir de l’image médicale reçue. In one execution mode, the preoperative 3D model is generated from a segmentation and labeling of each anatomical element of the body portion from the received medical image.
Dans un mode d'exécution, l’étape de comparaison comprend la génération d’un premier ensemble de points d’intérêts de la portion de corps de l’individu dans la première position à partir du modèle 3D préopératoire associé à la première position. In one embodiment, the comparison step comprises generating a first set of points of interest of the body portion of the individual in the first position from the preoperative 3D model associated with the first position.
Dans un mode d'exécution, l’étape de comparaison comprend la génération d’un second ensemble de points d’intérêts de la portion de corps de l’individu dans la seconde position à partir du modèle 3D associé à la seconde position générée. In one embodiment, the comparison step comprises generating a second set of points of interest of the body portion of the individual in the second position from the 3D model associated with the generated second position.
Dans un mode d'exécution, l’étape de comparaison comprend la comparaison entre le premier ensemble de points d’intérêts et du second ensemble de points d’intérêts. In one execution mode, the comparison step comprises comparing the first set of points of interest with the second set of points of interest.
Dans un mode d'exécution, les éléments anatomiques comprennent des os d’une portion de squelette et en ce que l’ensemble d’éléments anatomique comprend au moins une portion de squelette comprenant un ensemble d’os connectés les uns aux autres. In one embodiment, the anatomical elements comprise bones of a skeleton portion and in that the set of anatomical elements comprises at least one skeleton portion comprising a set of bones connected to each other.
Dans un mode d'exécution, l’attribut virtuel comprend en outre un premier paramètre, tel qu’une distance angulaire entre deux os, calculé à partir du modèle 3D associé à la seconde position. In an execution mode, the virtual attribute further comprises a first parameter, such as an angular distance between two bones, calculated from the 3D model associated with the second position.
Dans un mode d'exécution, l’attribut virtuel comprend un deuxième paramètre tel qu’un diamètre ou une longueur de vis calculée à partir du modèle 3D associé à la seconde position. In an execution mode, the virtual attribute includes a second parameter such as a screw diameter or length calculated from the 3D model associated with the second position.
Selon un autre aspect, l’invention concerne un système comprenant des moyens matériels et/ou logiciels pour la mise en œuvre du procédé selon l’invention. According to another aspect, the invention relates to a system comprising hardware and/or software means for implementing the method according to the invention.
Dans un mode de réalisation, les moyens matériels comprennent des moyens de réception d’information, des moyens de transmission d’informations, un dispositif d’acquisition optique pour l’acquisition d’images optiques et/ou tridimensionnelles, un dispositif d’affichage et/ou une interface homme/machine. Dans un mode de réalisation, les moyens logiciels comprennent un processeur et/ou une mémoire pour l’exécution de ladite méthode. In one embodiment, the hardware means comprise information receiving means, information transmitting means, an optical acquisition device for acquiring optical and/or three-dimensional images, a display device and/or a human/machine interface. In one embodiment, the software means comprises a processor and/or a memory for executing said method.
Dans un mode de réalisation, les moyens matériels comprennent au moins un capteur pour capturer des données sur l'emplacement et l'orientation d'une portion de corps dans le champ chirurgical. In one embodiment, the hardware means comprises at least one sensor for capturing data on the location and orientation of a body portion in the surgical field.
Dans un mode de réalisation, les moyens matériels comprennent un premier processeur associé à une première mémoire pour mettre en œuvre du procédé selon l’invention. In one embodiment, the hardware means comprise a first processor associated with a first memory for implementing the method according to the invention.
Dans un mode de réalisation, le système comprend un afficheur de réalité augmentée pour projeter une représentation virtuelle de l’attribut virtuel généré dans un champ chirurgical tout en permettant au champ chirurgical d'être vu à travers l’afficheur de réalité augmentée. In one embodiment, the system includes an augmented reality display to project a virtual representation of the generated virtual attribute into a surgical field while allowing the surgical field to be viewed through the augmented reality display.
Dans un mode de réalisation, le système comprend en outre un bras robot comprenant une tête conçue pour supporter un outil chirurgical. In one embodiment, the system further includes a robotic arm including a head configured to support a surgical tool.
Dans un mode de réalisation, le système comprend un second processeur associé à une seconde mémoire pour mettre en œuvre un procédé de guidage en temps réel d’un bras robot. In one embodiment, the system includes a second processor associated with a second memory to implement a method of real-time guidance of a robot arm.
Dans un mode de réalisation, le premier processeur et le second processeur sont le même processeur et/ou la seconde mémoire et la première mémoire sont la même mémoire. In one embodiment, the first processor and the second processor are the same processor and/or the second memory and the first memory are the same memory.
Dans un mode d'exécution, le procédé de guidage en temps réel d’un bras robot comprend : In one embodiment, the method of real-time guidance of a robot arm comprises:
- la détermination de la position relative de la tête du bras robot ;- determination of the relative position of the head of the robot arm;
- le calcul d’une première trajectoire de guidage de la tête du bras robot en fonction de la position relative de la tête du bras robot et de l’attribut virtuel ; - the calculation of a first guidance trajectory of the head of the robot arm as a function of the relative position of the head of the robot arm and the virtual attribute;
- l’activation d’une cinématique du bras robot pour parcourir la trajectoire de guidage ; - activation of a kinematic of the robot arm to travel the guidance trajectory;
- la réception d’un nouveau modèle 3D et/ou d’un nouvel attribut virtuel généré par le procédé selon l’invention pour le calcul d’une nouvelle trajectoire de guidage et l’activation d’une nouvelle cinématique en fonction dudit nouveau modèle 3D et/ou du nouvel attribut virtuel généré. Selon un autre aspect, l’invention concerne un produit programme d’ordinateur comprenant des instructions qui conduisent le système selon l’invention à exécuter les étapes de la méthode selon l’invention. - receiving a new 3D model and/or a new virtual attribute generated by the method according to the invention for calculating a new guidance trajectory and activating new kinematics based on said new 3D model and/or the new virtual attribute generated. According to another aspect, the invention relates to a computer program product comprising instructions which cause the system according to the invention to execute the steps of the method according to the invention.
Selon un autre aspect, l’invention concerne un support lisible par ordinateur tel qu’une mémoire, notamment une mémoire non-transitoire, sur lequel est enregistré le programme d'ordinateur selon l’invention. According to another aspect, the invention relates to a computer-readable medium such as a memory, in particular a non-transitory memory, on which the computer program according to the invention is recorded.
Selon un dernier aspect, l’invention concerne un procédé mis en œuvre par ordinateur d’aide à la chirurgie comprenant les étapes suivantes : According to a final aspect, the invention relates to a computer-implemented method for assisting surgery comprising the following steps:
- La réception d’une image médicale d’une portion de corps prédéterminée d’un individu dans une première position ; - Receiving a medical image of a predetermined body portion of an individual in a first position;
- La capture de donnée de position de ladite portion de corps dudit individu dans une seconde position différente de la première position ; - Capturing position data of said portion of the body of said individual in a second position different from the first position;
- La comparaison entre la seconde position et la première position pour générer un paramètre de transformation ; - Comparison between the second position and the first position to generate a transformation parameter;
- La génération d’un modèle 3D des os de ladite portion du corps, associé à la seconde position, à partir de l’image médicale reçue et à partir dudit paramètre de transformation ; - The generation of a 3D model of the bones of said portion of the body, associated with the second position, from the medical image received and from said transformation parameter;
- La sélection d’au moins un os dudit modèle 3D généré et la génération d’un attribut virtuel, ledit attribut virtuel comprenant un élément caractéristique de la position et de l’orientation dudit os sélectionné dans le modèle 3D; - The selection of at least one bone from said generated 3D model and the generation of a virtual attribute, said virtual attribute comprising an element characteristic of the position and orientation of said selected bone in the 3D model;
- La transmission d’une consigne d’affichage à un afficheur de réalité augmentée pour projeter une représentation virtuelle de l’attribut virtuel généré dans un champ chirurgical comprenant ladite portion de corps dudit individu tout en permettant au champ chirurgical d'être vu à travers l’afficheur de réalité augmentée. - Transmitting a display instruction to an augmented reality display to project a virtual representation of the generated virtual attribute into a surgical field comprising said portion of the body of said individual while allowing the surgical field to be seen through the augmented reality display.
Brève description des figures Brief description of the figures
D’autres caractéristiques et avantages de l’invention ressortiront à la lecture de la description détaillée qui suit, en référence aux figures annexées, qui illustrent : Other characteristics and advantages of the invention will emerge from reading the detailed description which follows, with reference to the appended figures, which illustrate:
Fig. 1 : une vue schématique d’un dispositif selon un mode de réalisation de l’invention. Fig. 2 : un logigramme de la méthode selon un mode de réalisation de l'invention. Fig. 1: a schematic view of a device according to one embodiment of the invention. Fig. 2: a flowchart of the method according to one embodiment of the invention.
Fig. 3 : une vue du dessus de la main d’un sujet sur laquelle sont représentés des exemples de points d’intérêts. Fig. 3: A top view of a subject's hand showing examples of points of interest.
Fig. 4 : un exemple de visualisations des points d’intérêts détectés permettant de servir de base à la détection de la position et orientation de la main. Fig. 4: An example of visualizations of the detected points of interest used as a basis for detecting the position and orientation of the hand.
Fig. 5 : une vue simplifiée d’un exemple de dispositif d’affichage selon un mode de réalisation de l’invention. Fig. 5: a simplified view of an example of a display device according to one embodiment of the invention.
Fig. 6 : un logigramme de la méthode selon un mode de réalisation de l'invention où un modèle de la portion de corps associé à la première position est généré pour générer le second modèle de corps associé à la seconde position. Fig. 6: a flowchart of the method according to an embodiment of the invention where a model of the body portion associated with the first position is generated to generate the second body model associated with the second position.
Fig. 7 : une vue schématique d’un dispositif selon un mode de réalisation de l’invention comprenant un système de guidage incluant un bras robotique.Fig. 7: a schematic view of a device according to an embodiment of the invention comprising a guidance system including a robotic arm.
Fig. 8 : un logigramme du procédé selon un mode de réalisation de l’invention. Fig. 8: a flowchart of the method according to one embodiment of the invention.
Description de l’invention Description of the invention
La description qui va suivre porte essentiellement sur un exemple pour la génération d’une consigne d’affichage pour un dispositif d’affichage de réalité augmentée ; ladite consigne d’affichage étant configurée pour afficher un élément géométrique caractéristique de la position et de l’emplacement d’un os sélectionné de la main d’un sujet dans le champ de vision du dispositif de réalité augmentée. The following description essentially concerns an example for generating a display instruction for an augmented reality display device; said display instruction being configured to display a geometric element characteristic of the position and location of a selected bone of the hand of a subject in the field of vision of the augmented reality device.
Le système et la méthode proposés peuvent s’adapter par exemple à d’autres portions du corps comme le pied, la cheville, le poignet, les vertèbres ou toute autre partie du corps pour lesquelles la visualisation avec précision d’élément géométrique caractéristique d’un os sélectionné sur un afficheur de réalité augmentée. The proposed system and method can be adapted, for example, to other portions of the body such as the foot, ankle, wrist, vertebrae or any other part of the body for which the precise visualization of a geometric element characteristic of a bone selected on an augmented reality display.
Dans un autre exemple, le système et la méthode associée permettent d’afficher un tel élément de guidage en réalité augmentée caractéristique d’un organe ou d’une portion d’organe tels que le cœur, le colon, le système intestinal ou veineux. In another example, the system and associated method make it possible to display such an augmented reality guidance element characteristic of an organ or a portion of an organ such as the heart, the colon, the intestinal or venous system.
Le système selon l’invention comprend un module de calcul comprenant au moins un calculateur pour générer une consigne d’affichage et un dispositif de réalité augmentée connecté audit au moins un calculateur pour afficher des éléments en réponse à ladite consigne d’affichage générée. Préférentiellement, la méthode décrite est mise en œuvre par ordinateur. Les étapes de la méthode peuvent ainsi être mis en œuvre par un ou plusieurs processeurs ou calculateurs. The system according to the invention comprises a calculation module comprising at least one calculator for generating a display instruction and an augmented reality device connected to said at least one calculator for displaying elements in response to said generated display instruction. Preferably, the method described is implemented by computer. The steps of the method can thus be implemented by one or more processors or computers.
Acquisition d’images médicales Medical image acquisition
L’invention comprend la réception 1100 d’une image médicale 10 de la main 14 d’un sujet. The invention comprises receiving 1100 a medical image 10 of the hand 14 of a subject.
Une image médicale 10 de la main 14 est acquise par un module d’acquisition d’image médicale. A medical image 10 of the hand 14 is acquired by a medical image acquisition module.
Avant de procéder à la capture de l'image médicale, il est préférable de préparer la main 14 de l'individu pour obtenir des résultats optimaux. Cela peut impliquer des instructions pour placer la main dans la première position spécifique prédéterminée, éventuellement en utilisant des accessoires pour maintenir la main stable, et/ou en s'assurant que la main est propre et dépourvue d'objets qui pourraient gêner la capture de l’image médicale. Before proceeding with medical image capture, it is best to prepare the individual's hand 14 for optimal results. This may involve instructions to place the hand in the first predetermined specific position, possibly using props to keep the hand steady, and/or ensuring that the hand is clean and free of objects that could interfere with medical image capture.
Préférentiellement, l’image médicale 10 de la main est obtenue lorsque cette dernière est agencée à une première position prédéterminée, par exemple, posée à plat sur un support. Préférentiellement, le support comprend une surface de couleur unie. Dans un mode de réalisation, un support spécifique, comprenant par exemple des éléments de butée, pour guider l’individu à placer sa main dans la première position prédéterminée est utilisé. Preferably, the medical image 10 of the hand is obtained when the latter is arranged in a first predetermined position, for example, placed flat on a support. Preferably, the support comprises a solid-colored surface. In one embodiment, a specific support, for example comprising stop elements, to guide the individual to place his hand in the first predetermined position is used.
L’image médicale 10 comprend préférentiellement une image tridimensionnelle de la portion de corps. Par exemple, l’image médicale 10 comprend une série comprenant une pluralité d’images de coupe transversale de la main 14 permettant une représentation tridimensionnelle de la portion de corps acquise. The medical image 10 preferably comprises a three-dimensional image of the body portion. For example, the medical image 10 comprises a series comprising a plurality of cross-sectional images of the hand 14 allowing a three-dimensional representation of the acquired body portion.
L’image médicale 10 comprend préférentiellement une image anatomique d’une portion de corps d’un individu. Par exemple, l’image médicale est acquise par une technique CT-scan, aussi appelée « tomodensitométrie ». Le CT-scan est une technique d'imagerie médicale non invasive qui permet d'obtenir des images détaillées de l'intérieur du corps. Le CT scan est également connu sous le nom de scanner ou tomographie axiale calculée (TAC). Cette technique utilise des rayons X et un ordinateur pour produire des images en coupe transversale (tranches) du corps, ce qui permet aux médecins de visualiser les structures internes, telles que les organes, les os, les vaisseaux sanguins et les tissus mous. Dans un autre mode de réalisation, l’image médicale 10 acquise est une image fonctionnelle de la portion de corps. Par exemple, l’image médicale comprend une image acquise par une technique IRM (pour Imagerie par Résonance Magnétique). Les images IRM permettent avantageusement de visualiser les os, les tissus mous et d’autres structures anatomiques avec une résolution élevée sans exposer l’individu à des rayonnements ionisants. Le principe fondamental de l'IRM repose sur les propriétés des atomes d'hydrogène présents dans le corps humain. Lorsque le patient est placé à l'intérieur d'un scanner d'IRM, un champ magnétique puissant est appliqué, ce qui aligne les atomes d'hydrogène dans une direction spécifique. Ensuite, de courtes impulsions d'ondes radiofréquences sont émises dans le corps, ce qui perturbe l'alignement des atomes d'hydrogène. Lorsque ces impulsions radiofréquences s'éteignent, les atomes d'hydrogène reviennent à leur état d'alignement d'origine. Ce processus de relaxation génère des signaux détectés par des antennes spéciales dans le scanner d'IRM. Ces signaux sont ensuite transformés en images médicales 2D ou 3D détaillées des structures internes du corps par un ordinateur. The medical image 10 preferably includes an anatomical image of a portion of an individual's body. For example, the medical image is acquired by a CT scan technique, also called a "computed tomography." A CT scan is a non-invasive medical imaging technique that provides detailed images of the inside of the body. A CT scan is also known as a computed axial tomography (CAT) scan. This technique uses X-rays and a computer to produce cross-sectional images (slices) of the body, allowing physicians to visualize internal structures, such as organs, bones, blood vessels, and soft tissues. In another embodiment, the acquired medical image 10 is a functional image of the body portion. For example, the medical image includes an image acquired by an MRI (Magnetic Resonance Imaging) technique. MRI images advantageously allow bones, soft tissues, and other anatomical structures to be viewed with high resolution without exposing the individual to ionizing radiation. The fundamental principle of MRI is based on the properties of hydrogen atoms present in the human body. When the patient is placed inside an MRI scanner, a strong magnetic field is applied, which aligns the hydrogen atoms in a specific direction. Then, short pulses of radiofrequency waves are emitted into the body, which disrupts the alignment of the hydrogen atoms. When these radiofrequency pulses die down, the hydrogen atoms return to their original aligned state. This relaxation process generates signals that are detected by special antennas in the MRI scanner. These signals are then converted into detailed 2D or 3D medical images of the body's internal structures by a computer.
De manière générale, l’image médicale 10 comprend toute image permettant de visualiser les os ou le squelette de la portion de corps d’un individu ainsi que les parties molles de la portion de corps (organes, réseau sanguin, réseau nerveux ou muscles). Generally speaking, medical image 10 includes any image allowing the bones or skeleton of an individual's body portion to be visualized as well as the soft parts of the body portion (organs, blood network, nervous network or muscles).
Dans un mode de réalisation, le terme « image médicale » peut être compris comme une série d’images de coupe transversale (telles que des images IRM ou CT scan) acquise à l’aide d’un appareil médical approprié dans laquelle chaque coupe transversale correspond à une image à une profondeur différente. In one embodiment, the term "medical image" may be understood as a series of cross-sectional images (such as MRI or CT scan images) acquired using a suitable medical device in which each cross-section corresponds to an image at a different depth.
Dans un mode de réalisation, les images de coupe brutes acquises subissent un prétraitement afin de réduire le bruit et d'améliorer la qualité des données. Des techniques avancées de filtrage et de normalisation sont appliquées pour éliminer les artefacts et rendre les images plus cohérentes. In one embodiment, the acquired raw slice images undergo preprocessing to reduce noise and improve data quality. Advanced filtering and normalization techniques are applied to eliminate artifacts and make the images more consistent.
Dans un mode de réalisation, les images de coupe peuvent être sujettes à des artefacts et à des perturbations, notamment le bruit, qui peuvent affecter la qualité et la fiabilité des informations extraites. Différentes méthodes de filtrage, telles que le filtre gaussien, le filtre médian ou le filtre bilatéral, peuvent être utilisées pour réduire le bruit tout en préservant les détails importants. In one embodiment, the slice images may be subject to artifacts and disturbances, including noise, which may affect the quality and reliability of the extracted information. Different filtering methods, such as Gaussian filter, median filter, or bilateral filter, can be used to reduce noise while preserving important details.
Dans un mode de réalisation, le prétraitement des images de coupe comprend l’application de techniques d'amélioration de contraste, telles que l'égalisation d'histogramme ou l'ajustement linéaire de contraste, pour augmenter la différence de luminosité entre les tissus, améliorant ainsi la visibilité des détails. In one embodiment, preprocessing the slice images includes applying contrast enhancement techniques, such as histogram equalization or linear contrast adjustment, to increase the brightness difference between tissues, thereby improving the visibility of details.
Dans un mode de réalisation, le prétraitement des images de coupe comprend l’utilisation de méthodes d'élimination ou de correction d'artefacts pour rétablir l'intégrité des images et garantir leur fidélité. In one embodiment, preprocessing the slice images includes using artifact removal or correction methods to restore the integrity of the images and ensure their fidelity.
Dans un mode de réalisation, le prétraitement des images médicales comprend une normalisation des intensités pour rendre les images de coupe cohérentes en ajustant leurs échelles de gris ou leurs valeurs de pixels afin qu'elles aient des plages d'intensité similaires. In one embodiment, preprocessing the medical images includes normalizing the intensities to make the slice images consistent by adjusting their grayscales or pixel values so that they have similar intensity ranges.
Dans un mode de réalisation, le prétraitement des images médicales comprend la mise en œuvre d’une technique d'enregistrement et de recalage pour aligner les images de coupe acquises d'une même région du corps et les superposer correctement pour obtenir une image médicale cohérente. In one embodiment, preprocessing medical images includes implementing a registration and registration technique to align acquired slice images of the same body region and properly overlay them to obtain a consistent medical image.
Dans la suite de la description, on utilisera le terme « image médicale » pour désigner à la fois une image médicale brute acquise ou une image médicale ayant subi une étape de prétraitement comme décrit ci-avant. In the remainder of the description, the term “medical image” will be used to designate both an acquired raw medical image and a medical image having undergone a pre-processing step as described above.
Génération d’un modèle 3D préopératoire associé à la première Generation of a preoperative 3D model associated with the first
Dans un mode de réalisation, la méthode selon l’invention comprend la génération d’un premier modèle 3D préopératoire 22 de la main ou d’une portion de corps de l’individu dans la première position prédéterminée dans laquelle l’image médicale 10 a était acquise. In one embodiment, the method according to the invention comprises the generation of a first preoperative 3D model 22 of the hand or a portion of the body of the individual in the first predetermined position in which the medical image 10 a was acquired.
La génération d’un premier modèle 3D préopératoire 22 de la main comprennent préférentiellement une détection de la portion de corps sur l’image médicale 10 pour identifier la région d’intérêt de l’image correspondant à la main dans l’image médicale 10, en la distinguant des autres structures anatomiques environnantes ou du fond. Par exemple, une méthode de segmentation par seuillage ou de segmentation par contour est utilisée. L'objectif global de l'étape de détection de la portion de corps est d'isoler avec précision la région d'intérêt correspondant à ladite portion de corps dans l'image médicale. Une fois la portion de corps détectée, les images médicales 10 traitées sont prêtes à être utilisées dans les étapes ultérieures du processus, telles que la reconstruction 3D et la modélisation anatomique de ladite portion de corps. Une détection précise de la portion de corps permet avantageusement d’obtenir des résultats plus fiables et de meilleure qualité tout au long du processus de génération du ou des modèles 3D. The generation of a first preoperative 3D model 22 of the hand preferably includes a detection of the body portion on the medical image 10 to identify the region of interest of the image corresponding to the hand in the medical image 10, distinguishing it from other surrounding anatomical structures or from the background. For example, a thresholding segmentation or contour segmentation method is used. The overall objective of the body portion detection step is to accurately isolate the region of interest corresponding to said body portion in the medical image. Once the body portion is detected, the processed medical images 10 are ready to be used in subsequent steps of the process, such as 3D reconstruction and anatomical modeling of said body portion. Accurate body portion detection advantageously provides more reliable and higher quality results throughout the process of generating the 3D model(s).
Préférentiellement, le modèle 3D préopératoire 22 est généré également à partir d’une image optique de la portion de corps et/ou d’un nuage de point de ladite portion de corps acquis lorsque la main est dans la première position. Preferably, the preoperative 3D model 22 is also generated from an optical image of the body portion and/or a point cloud of said body portion acquired when the hand is in the first position.
La génération d’un modèle 3D préopératoire de la main comprend une reconstruction tridimensionnelle préopératoire pour avantageusement générer une représentation volumétrique en trois dimensions de la main associée à la première position. Le premier modèle 3D initial et la reconstruction tridimensionnelle initiale sont préférentiellement associés à la première position. The generation of a preoperative 3D model of the hand comprises a preoperative three-dimensional reconstruction to advantageously generate a three-dimensional volumetric representation of the hand associated with the first position. The first initial 3D model and the initial three-dimensional reconstruction are preferentially associated with the first position.
Préférentiellement, la reconstruction tridimensionnelle du premier modèle 3D préopératoire de la main est générée à partir de l’image médicale 3D ou à partir d’une série d’images de coupe transversale 2D de la main. Preferably, the three-dimensional reconstruction of the first preoperative 3D model of the hand is generated from the 3D medical image or from a series of 2D cross-sectional images of the hand.
Dans un mode de réalisation, la reconstruction tridimensionnelle comprend une reconstruction par voxels. Cette méthode repose sur la discrétisation de l'espace en petites unités cubiques appelées voxels. Chaque voxel est attribué à une valeur d'intensité en fonction de l'image médicale correspondante. En utilisant ces valeurs, un modèle 3D volumétrique de la main est créé, où chaque voxel représente un petit élément de volume dans l'espace tridimensionnel. In one embodiment, the three-dimensional reconstruction comprises a voxel-based reconstruction. This method relies on the discretization of space into small cubic units called voxels. Each voxel is assigned an intensity value based on the corresponding medical image. Using these values, a volumetric 3D model of the hand is created, where each voxel represents a small volume element in three-dimensional space.
Dans un mode de réalisation, la reconstruction tridimensionnelle comprend une reconstruction par contour comprenant la segmentation des contours des différentes structures de la main dans chaque image de coupe transversale de l’image médicale et de combiner lesdits contours pour créer une représentation 3D de la portion de corps. In one embodiment, the three-dimensional reconstruction comprises a contour reconstruction comprising segmenting the contours of the different structures of the hand in each cross-sectional image of the medical image and combining said contours to create a 3D representation of the body portion.
Dans un mode de réalisation, la reconstruction tridimensionnelle comprend une reconstruction par approches basées sur la profondeur comprenant l’utilisation des informations de profondeur de chaque image de coupe transversale de l’image médicale pour reconstruire la géométrie tridimensionnelle de la main. In one embodiment, the three-dimensional reconstruction comprises reconstruction by depth-based approaches. including using depth information from each cross-sectional image of the medical image to reconstruct the three-dimensional geometry of the hand.
Dans un mode de réalisation, la méthode comprend en outre la génération 112 d’une modélisation anatomique préopératoire 23. La modélisation anatomique préopératoire 23 peut être réalisée à partir de l’image médicale 10 et/ou à partir de la représentation tridimensionnelle générée telle que décrite précédemment. In one embodiment, the method further comprises the generation 112 of a preoperative anatomical model 23. The preoperative anatomical model 23 can be carried out from the medical image 10 and/or from the three-dimensional representation generated as described previously.
La modélisation anatomique comprend préférentiellement une modélisation en trois dimensions d’un système anatomique de la portion de corps dont l’image optique a été acquise. Par exemple, la modélisation anatomique comprend une modélisation des os de la main de l’utilisateur. Anatomical modeling preferably includes a three-dimensional modeling of an anatomical system of the body portion of which the optical image was acquired. For example, anatomical modeling includes a modeling of the bones of the user's hand.
La modélisation anatomique permet de classifier les différentes structures anatomiques présentes dans la main, notamment les os, les articulations, et les tissus mous de la peau ou de la chair. Anatomical modeling allows us to classify the different anatomical structures present in the hand, including bones, joints, and soft tissues of the skin or flesh.
Dans un mode de réalisation, la génération de la modélisation anatomique préopératoire 23 comprend une segmentation de chaque structure anatomique de l’image médicale 10 et de la classification de ladite structure segmentée à partir des caractéristiques de ladite segmentation. Dans un autre mode de réalisation, la segmentation et la classification de chaque structure de la main est mise en œuvre par une fonction apprenante telles qu’un réseau de neurones profond ou les réseaux génératifs adverses (GAN), peuvent être utilisés pour créer des modèles anatomiques de la main à partir de l’image médicale et/ou à partir de la représentation tridimensionnelle générée. In one embodiment, the generation of the preoperative anatomical modeling 23 comprises a segmentation of each anatomical structure of the medical image 10 and the classification of said segmented structure from the characteristics of said segmentation. In another embodiment, the segmentation and classification of each structure of the hand is implemented by a learning function such as a deep neural network or generative adversarial networks (GAN), can be used to create anatomical models of the hand from the medical image and/or from the generated three-dimensional representation.
Le premier modèle 3D préopératoire de l’individu associé à la première position est ainsi généré à partir de l’image médicale 10 et comprend une représentation 3D de la main dont les structures anatomiques sont classifiées. Préférentiellement, le modèle 3D préopératoire comprend une représentation tridimensionnelle des structures anatomiques osseuses de la main et optionnellement la surface de la peau. Ce modèle 3D préopératoire peut être obtenu par soustraction de certaines structures anatomiques de la représentation tridimensionnelle en fonction de leur classification. The first preoperative 3D model of the individual associated with the first position is thus generated from the medical image 10 and comprises a 3D representation of the hand whose anatomical structures are classified. Preferably, the preoperative 3D model comprises a three-dimensional representation of the bony anatomical structures of the hand and optionally the surface of the skin. This preoperative 3D model can be obtained by subtracting certain anatomical structures from the three-dimensional representation according to their classification.
Dans un mode alternatif, le premier modèle 3D préopératoire 22 comprend une représentation tridimensionnelle des os de la main dans lequel les os de la main sont labélisés pour pouvoir être identifiés parmi les os dudit premier modèle 3D et optionnellement représentation virtuelle de la surface de la peau. Dans un mode de réalisation, le premier modèle 3D comprend une information de profondeur de la surface de la peau par rapport à la surface des structures anatomiques osseuses du premier modèle 3D. In an alternative mode, the first preoperative 3D model 22 comprises a three-dimensional representation of the bones of the hand in which the bones of the hand are labeled to be able to be identified among the bones of said first 3D model and optionally virtual representation of the surface of the skin. In one embodiment, the first 3D model comprises depth information of the surface of the skin relative to the surface of the anatomical bone structures of the first 3D model.
Lesdites informations de profondeur peuvent être générés à partir d’une analyse de l’image médicale utilisée pour générer le modèle 3D. Dans un exemple, la méthode de génération desdites informations de profondeur comprend la mesure ou le calcul sur l’image médicale de la distance entre la surface de la peau et la surface extérieur de l’élément anatomique (os, organe, muscle, ... ). Ladite distance calculée ou mesurée est ensuite convertie en information de profondeur. Préférentiellement, chaque information de profondeur est associée à un point de la surface de l’élément anatomique. Said depth information can be generated from an analysis of the medical image used to generate the 3D model. In one example, the method for generating said depth information comprises measuring or calculating on the medical image the distance between the surface of the skin and the exterior surface of the anatomical element (bone, organ, muscle, etc.). Said calculated or measured distance is then converted into depth information. Preferably, each piece of depth information is associated with a point on the surface of the anatomical element.
Les dimensions de chaque os et la position relative d’un os par rapport aux os adjacents peuvent être déterminées à partir de l’image médicale acquise. Préférentiellement, ces données de dimensions peuvent être enregistrées ou stockées, par exemple sur une mémoire. The dimensions of each bone and the relative position of a bone with respect to adjacent bones can be determined from the acquired medical image. Preferably, these dimensional data can be recorded or stored, for example on a memory.
Dans un mode réalisation, l’image médicale 10 est transmise au module de calcul PRO et le premier modèle 3D préopératoire est généré par le module de calcul PRO. Dans un mode de réalisation alternatif, le premier modèle 3D préopératoire et/ou la modélisation anatomique préopératoire associés à la première position sont transmis au module de calcul PRO et/ou stockés ou enregistrés sur une unité de stockage de données telle qu’une mémoire MEM (préférentiellement non-transitoire). In one embodiment, the medical image 10 is transmitted to the PRO calculation module and the first preoperative 3D model is generated by the PRO calculation module. In an alternative embodiment, the first preoperative 3D model and/or the preoperative anatomical modeling associated with the first position are transmitted to the PRO calculation module and/or stored or recorded on a data storage unit such as a MEM memory (preferably non-transient).
Données de position et d’emplacement de la main Hand position and location data
Dans un mode de réalisation, la méthode comprend en outre une étape de détermination 120 de la position et optionnellement de l’emplacement de la main de l’individu. In one embodiment, the method further comprises a step 120 of determining the position and optionally the location of the individual's hand.
La détermination comprend l’acquisition 121 d’une image telle qu’une image optique de la main de l’individu lorsque la main de l’individu est dans une deuxième position différente de la première position. L’image optique peut comprendre une image optique en 2 dimensions ou préférentiellement en 3 dimensions de la main de l’individu. L’image peut être acquise par un dispositif d’acquisition d’image déportée. Plus préférentiellement, l’image est acquise par un dispositif d’acquisition d’image intégré à un casque de réalité augmenté tel que décrit ci-après. Préférentiellement, ladite image comprend une image de la main de l’individu dans un environnement comprenant des objets qui pourront permettre d’extraire des données d’emplacement et d’orientation de la main relativement audit objet de l’environnement. The determination comprises acquiring 121 an image such as an optical image of the individual's hand when the individual's hand is in a second position different from the first position. The optical image may comprise a 2-dimensional or preferably a 3-dimensional optical image of the individual's hand. The image may be acquired by a remote image acquisition device. More preferably, the image is acquired by an image acquisition device integrated into a reality headset. augmented as described below. Preferably, said image comprises an image of the individual's hand in an environment comprising objects which will make it possible to extract data on the location and orientation of the hand relative to said object in the environment.
Dans un mode de réalisation, la détermination comprend l’acquisition d’une image tridimensionnelle de la portion de corps tel qu’un nuage de point ou une carte de profondeur. In one embodiment, the determining comprises acquiring a three-dimensional image of the body portion such as a point cloud or a depth map.
Le dispositif d’acquisition d’image comprend préférentiellement un scanner 3D. Par scanner 3D, on entend un dispositif utilisant un plusieurs lasers ou des capteurs pour mesurer la géométrie tridimensionnelle de la main. Il peut fournir une image 3D détaillée de la main, en capturant sa forme et ses contours avec précision sur le principe du temps de vol du laser lorsqu’il est réfléchi par la main. Le scanner est conçu pour balayer la main de l’individu pour enregistrer les informations de profondeurs de chaque pixel. The image acquisition device preferably includes a 3D scanner. A 3D scanner is a device that uses multiple lasers or sensors to measure the three-dimensional geometry of the hand. It can provide a detailed 3D image of the hand, capturing its shape and contours accurately based on the principle of the laser's time of flight as it reflects from the hand. The scanner is designed to scan the individual's hand to record the depth information of each pixel.
Le dispositif d’acquisition d’image peut comprendre des moyens d’acquisition d’images optiques bidimensionnelles ou tridimensionnelles. Par exemple, le dispositif d’acquisition comprend une caméra stéréoscopique, c’est-à-dire une paire de caméras stéréoscopiques. Une unité de calcul peut alors utilisée pour extraire des images 2D acquises, en utilisant la parallaxe ou la différence d’angles, des informations de profondeur. En combinant ces images, il est possible d'obtenir une image 3D de la main. Dans un autre mode de réalisation, le dispositif d’acquisition d’images optiques comprend une caméra de profondeur. Dans un mode de réalisation, le dispositif d’acquisition d’images optiques comprend un dispositif LIDAR pour la génération d’un nuage de points ou d’une carte de profondeur. The image acquisition device may comprise means for acquiring two-dimensional or three-dimensional optical images. For example, the acquisition device comprises a stereoscopic camera, i.e., a pair of stereoscopic cameras. A computing unit may then be used to extract depth information from the acquired 2D images, using parallax or angle difference. By combining these images, it is possible to obtain a 3D image of the hand. In another embodiment, the optical image acquisition device comprises a depth camera. In one embodiment, the optical image acquisition device comprises a LIDAR device for generating a point cloud or a depth map.
Par le terme « image optique », on entend par conséquent une image dans le domaine du visible, des infrarouges ou une carte de profondeur ou un nuage de points. The term "optical image" therefore means an image in the visible or infrared range or a depth map or point cloud.
Dans un mode de réalisation, l’image optique comprend un nuage de points d’au moins une portion de la main. Dans un mode de réalisation alternatif, un nuage de points représentant au moins une portion de la main est généré à partir de l’image acquise. In one embodiment, the optical image comprises a point cloud of at least a portion of the hand. In an alternative embodiment, a point cloud representing at least a portion of the hand is generated from the acquired image.
La méthode comprend alors la génération d’une donnée 11 , dite « donnée de position » ou « indicateur de position » » en fonction de la seconde position de la main sur l’image acquise. Par exemple, un indicateur de position est généré à partir de ladite image acquise de la main dans la deuxième position. Ledit indicateur de position généré est caractéristique de ladite deuxième position. Préférentiellement, il est ainsi possible de reconstruire la seconde position de la main à partir dudit indicateur généré. The method then comprises the generation of data 11, called “position data” or “position indicator” as a function of the second position of the hand on the acquired image. For example, an indicator position indicator is generated from said acquired image of the hand in the second position. Said generated position indicator is characteristic of said second position. Preferably, it is thus possible to reconstruct the second position of the hand from said generated indicator.
Par exemple, ledit indicateur généré comprend des informations de pose telles que des valeurs angulaires d’au moins une partie des articulations de la main. Dans un autre exemple, l’indicateur généré est associé à ladite seconde position de la main de l’individu. For example, said generated indicator comprises pose information such as angular values of at least a portion of the joints of the hand. In another example, the generated indicator is associated with said second position of the individual's hand.
Dans un mode de réalisation, les données de position permettent de caractériser la deuxième position et permettent de reconstruire un modèle virtuel d’une main dans ladite deuxième position. In one embodiment, the position data makes it possible to characterize the second position and makes it possible to reconstruct a virtual model of a hand in said second position.
Les données de position 11 peuvent décrire la position relative des articulations de la main et leurs coordonnées spatiales et/ou les positions relatives des différents doigts de la main et de la paume de la main. The position data 11 may describe the relative position of the joints of the hand and their spatial coordinates and/or the relative positions of the different fingers of the hand and the palm of the hand.
Dans un mode de réalisation, les données de positions comprennent en outre des données d’emplacement et d’orientation de la main et/ou de chaque doigt de la main et/ou de chaque phalange de la main. Les données d’emplacement comprennent des coordonnées relatives de la main dans l’environnement. Les données d’orientation comprennent l’orientation relative de la main de l’individu dans l’environnement. In one embodiment, the position data further comprises location and orientation data of the hand and/or each finger of the hand and/or each phalanx of the hand. The location data comprises relative coordinates of the hand in the environment. The orientation data comprises the relative orientation of the individual's hand in the environment.
Selon un mode de réalisation, des points d’intérêt 206, 208 de la main de l’utilisateur sont générés à partir de l’image acquise ou à partir du traitement du nuage de points E1 généré comme illustré sur la figure 3. According to one embodiment, points of interest 206, 208 of the user's hand are generated from the acquired image or from the processing of the point cloud E1 generated as illustrated in FIG. 3.
Lesdits points d’intérêts peuvent comprendre des centres de masse 208 de la main ou d’une portion de la main. Les centres de masses peuvent être générés aux coordonnées correspondant sensiblement au centre d’une zone prédéterminée de la main. Par exemple, un point d’intérêt peut correspondre au centre de masse de la paume de la main, d’une phalange, d’un doigt. Said points of interest may comprise centers of mass 208 of the hand or of a portion of the hand. The centers of mass may be generated at coordinates substantially corresponding to the center of a predetermined area of the hand. For example, a point of interest may correspond to the center of mass of the palm of the hand, of a phalanx, of a finger.
Les points d’intérêt peuvent comprendre des points de déflexion 206. Les points de déflexion 206 sont générés à la frontière entre deux portions adjacentes de la main. Par exemple, un point d’intérêt peut être généré entre les portions de la main correspondant à deux phalanges adjacentes du même doigt. La localisation d’un tel point d’intérêt peut correspondre alors à la localisation d’une articulation, par exemple entre deux phalanges. Les points d’intérêt peuvent comprendre l’extrémité ou le bout d’un doigt. Les différents points d’intérêt peuvent être reliés entre eux par des segments 207. The points of interest may comprise deflection points 206. The deflection points 206 are generated at the boundary between two adjacent portions of the hand. For example, a point of interest may be generated between the portions of the hand corresponding to two adjacent phalanges of the same finger. The location of such a point of interest may then correspond to the location of a joint, for example between two phalanges. The points of interest may include the tip or end of a finger. The different points of interest may be connected to each other by segments 207.
Les points d’intérêt peuvent comprendre des coordonnées d’un point ou d’une zone sur l’image acquise et une information de labellisation correspondant à une information d’identification. Par exemple, l’information d’identification permet d’identifier une articulation prédéterminée. Points of interest may include coordinates of a point or area on the acquired image and labeling information corresponding to identification information. For example, the identification information makes it possible to identify a predetermined joint.
Dans un mode de réalisation, l’étape de génération des points d’intérêt comprend la génération des coordonnées de chaque point d’intérêt sur l’image acquise ou dans le nuage de points généré de la main de l’individu dans la deuxième position. In one embodiment, the step of generating the points of interest comprises generating the coordinates of each point of interest on the acquired image or in the generated point cloud of the individual's hand in the second position.
Préférentiellement, les données de position sont obtenues à partir des coordonnées desdits points d’intérêt. La pose de la main dans la deuxième position peut ainsi être déterminée à partir des écarts angulaires entre deux segments 207 reliés au même point d’intérêt 206 ; 208. Preferably, the position data are obtained from the coordinates of said points of interest. The pose of the hand in the second position can thus be determined from the angular differences between two segments 207 connected to the same point of interest 206; 208.
Un exemple de modèle 3D associé à une seconde position E2 est représenté sur la figure 4 dans lequel les points d’intérêt 211 , 212, 213 sont générés à partir du paramètre de transformations ainsi que les segments 214 reliant lesdits points d’intérêt. An example of a 3D model associated with a second position E2 is represented in FIG. 4 in which the points of interest 211, 212, 213 are generated from the transformation parameter as well as the segments 214 connecting said points of interest.
Dans un autre mode de réalisation alternatif ou cumulatif, l’indicateur de position est généré à partir d’une fonction apprenante entrainée telle qu’un réseau de neurones entrainé. Préférentiellement, ladite fonction apprenante est entrainée à partir d’une collection d’images d’entrainement labélisées. Chaque image d’entrainement est une image optique de la main dans une position et comprend un label comprenant la donnée de position de la main associée à ladite image d’entrainement. Ladite fonction apprenante, une fois entrainée, est configurée pour recevoir en entrée une image de la main et générer en sortie un indicateur de position de ladite main sur l’image associé à ladite image en entrée. Dans une variante, un prétraitement de l’image de la main peut être réalisé, par exemple la génération des points d’intérêts. Dans un mode de réalisation, la fonction apprenante est configurée pour générer une donnée de position à partir des coordonnées des points d’intérêts et/ou de l’image acquise de la main. In another alternative or cumulative embodiment, the position indicator is generated from a trained learning function such as a trained neural network. Preferably, said learning function is trained from a collection of labeled training images. Each training image is an optical image of the hand in a position and comprises a label comprising the hand position data associated with said training image. Said learning function, once trained, is configured to receive as input an image of the hand and generate as output a position indicator of said hand on the image associated with said input image. In a variant, preprocessing of the hand image may be carried out, for example the generation of points of interest. In one embodiment, the learning function is configured to generate position data from the coordinates of the points of interest and/or the acquired image of the hand.
Comparaison entre la première position et la seconde position À partir de la donnée de position générée ou à partir de l’indicateur de position, la seconde position de la portion de corps est comparée (130) à la première position prédéterminée dans laquelle l’image médicale préopératoire de la portion de corps avait été acquise. Comparison between first position and second position From the generated position data or from the position indicator, the second position of the body portion is compared (130) to the first predetermined position in which the preoperative medical image of the body portion was acquired.
Cette étape de comparaison génère un paramètre de transformation 26. Le paramètre de transformation 26 peut par exemple comprendre une matrice de transformation permettant de transformer la position de la portion de corps dans la seconde position depuis la première position. This comparison step generates a transformation parameter 26. The transformation parameter 26 may for example comprise a transformation matrix making it possible to transform the position of the body portion into the second position from the first position.
Dans un mode de réalisation, le paramètre de transformation 26 est obtenu par opérations mathématiques de comparaison entre l’indicateur de position généré associé à la seconde position et un indicateur de position préenregistré associé à la première position et préférentiellement différent de l’indicateur de position généré. Dans un mode de réalisation alternatif, l’indicateur de position relatif à la première position est déterminé à partir d’une image optique et/ou tridimensionnelle de la portion de corps dans la première position. In one embodiment, the transformation parameter 26 is obtained by mathematical operations of comparison between the generated position indicator associated with the second position and a pre-recorded position indicator associated with the first position and preferably different from the generated position indicator. In an alternative embodiment, the position indicator relating to the first position is determined from an optical and/or three-dimensional image of the body portion in the first position.
La comparaison peut être obtenue par des opérations de régression, de soustraction ou de division. The comparison can be obtained by regression, subtraction or division operations.
Le paramètre de transformation peut être généré en fonction de règles biomécaniques préenregistrées. Par exemple, le paramètre de transformation peut comprendre une valeur angulaire de rotation de chaque articulation de la main permettant de passer une main de la première à la seconde position. Préférentiellement, le paramètre de transformation comprend une valeur angulaire de chaque articulation de la main permettant de passer de la première à la seconde position. The transformation parameter may be generated based on pre-recorded biomechanical rules. For example, the transformation parameter may include an angular value of rotation of each joint of the hand allowing a hand to move from the first to the second position. Preferably, the transformation parameter includes an angular value of each joint of the hand allowing it to move from the first to the second position.
Préférentiellement, le paramètre de transformation est un paramètre associé à la seconde position et convertissant l’indice de position associé à la première position en indice de position associé à la seconde position. Preferably, the transformation parameter is a parameter associated with the second position and converting the position index associated with the first position into a position index associated with the second position.
Dans un mode de réalisation, la génération du paramètre de transformation comprend la détection ou le calcul d’angles des différentes parties de la portion du corps autour d’articulations de ladite portion de corps (par exemple l’angle entre deux phalanges adjacentes) à partir des images optiques acquises. Préférentiellement, le paramètre de transformation est généré par comparaison des valeurs angulaires d’articulations associées à la première position préenregistrée et celles associées à la seconde position. In one embodiment, the generation of the transformation parameter comprises the detection or calculation of angles of the different parts of the body portion around joints of said body portion (for example the angle between two adjacent phalanges) from the acquired optical images. Preferably, the transformation parameter is generated by comparing the angular values of joints associated with the first pre-recorded position and those associated with the second position.
Génération d’un modèle 3D actualisé Generating an updated 3D model
La méthode comprend la génération 140 d’un second modèle 3D actualisé 14 associé à la seconde position. Le modèle 3D actualisé comprend préférentiellement un modèle 3D tel que décrit pour le modèle 3D préopératoire. Le modèle 3D actualisé 14 est cependant associé à la seconde position. The method comprises generating 140 a second updated 3D model 14 associated with the second position. The updated 3D model preferably comprises a 3D model as described for the preoperative 3D model. The updated 3D model 14 is however associated with the second position.
Dans un premier mode de réalisation illustré sur la figure 2, le second modèle 3D actualisé 14 est généré à partir des images acquises de la portion de corps dans la seconde position de la même manière que le premier modèle 3D initial est généré à partir des images acquises de la portion de corps dans la première position. In a first embodiment illustrated in FIG. 2, the second updated 3D model 14 is generated from the acquired images of the body portion in the second position in the same manner as the first initial 3D model is generated from the acquired images of the body portion in the first position.
Le modèle 3D actualisé comprend une modélisation anatomique comprenant une modélisation en trois dimensions dudit système anatomique associé à la seconde position. Par exemple, le système anatomique comprend une représentation du système squelettique de la main composé des os de la main. The updated 3D model includes an anatomical model comprising a three-dimensional model of said anatomical system associated with the second position. For example, the anatomical system includes a representation of the skeletal system of the hand composed of the bones of the hand.
La génération d’un modèle 3D actualisé comprend une reconstruction tridimensionnelle pour avantageusement générer une représentation volumétrique en trois dimensions de la main dans la seconde position. Ladite reconstruction tridimensionnelle peut être la même que celle décrite pour le premier modèle 3D initial. Generating an updated 3D model includes a three-dimensional reconstruction to advantageously generate a three-dimensional volumetric representation of the hand in the second position. Said three-dimensional reconstruction may be the same as that described for the first initial 3D model.
Dans un mode de réalisation particulièrement avantageux illustré sur la figure 6, la modélisation anatomique associée à la seconde position est générée à partir de la modélisation anatomique préopératoire préenregistrée 23 associée à la première position et à partir du paramètre de transformation 26 généré associé à la transformation de la portion de corps dans la seconde position depuis la première position. In a particularly advantageous embodiment illustrated in FIG. 6, the anatomical modeling associated with the second position is generated from the pre-recorded pre-operative anatomical modeling 23 associated with the first position and from the generated transformation parameter 26 associated with the transformation of the body portion in the second position from the first position.
Dans ce mode, le paramètre de transformation 26 est appliqué au modèle anatomique préopératoire associé à la première position pour obtenir un modèle anatomique associé à la seconde position. In this mode, transformation parameter 26 is applied to the preoperative anatomical model associated with the first position to obtain an anatomical model associated with the second position.
Dans un mode de réalisation, la valeur angulaire de chaque articulation de la première modélisation anatomique préopératoire associée à la première position est modifiée par la valeur de ladite articulation selon les données de positions associées à la seconde position pour générer la modélisation anatomique actualisée associée à la seconde position. In one embodiment, the angular value of each joint of the first preoperative anatomical modeling associated with the first position is modified by the value of said joint according to the position data associated with the second position to generate the updated anatomical modeling associated with the second position.
Préférentiellement, la forme de chaque élément anatomique est générée à partir de l’image médicale acquise précédemment associée à la première position de la portion de corps. Préférentiellement, la position et l’orientation de chaque élément anatomique les uns par rapport aux autres sont générées à partir du paramètre de transformation et/ou à partir de la comparaison entre la première position prédéterminée et la seconde position. Preferably, the shape of each anatomical element is generated from the previously acquired medical image associated with the first position of the body portion. Preferably, the position and orientation of each anatomical element relative to each other are generated from the transformation parameter and/or from the comparison between the first predetermined position and the second position.
Dans un mode de réalisation, un élément anatomique doit être compris comme un objet d’un modèle 3D définissant un volume tridimensionnel, lui-même définit par une surface, un nuage de points, un maillage de points. In one embodiment, an anatomical element must be understood as an object of a 3D model defining a three-dimensional volume, itself defined by a surface, a point cloud, a point mesh.
Un modèle 3D peut ainsi être défini par un ou plusieurs éléments anatomiques. A 3D model can thus be defined by one or more anatomical elements.
Un élément anatomique du modèle 3D peut comprendre une représentation des os, d'un organe, d’un muscle, d’un tendon. An anatomical element of the 3D model can include a representation of bones, an organ, a muscle, a tendon.
La modélisation anatomique actualisée associée à la seconde position comprend préférentiellement une représentation du squelette de la main de l’utilisateur, c’est-à-dire un ensemble d’os connectés les uns aux autres. Préférentiellement, la connexion entre deux os est symbolisée par une articulation labellisée par un identifiant. The updated anatomical modeling associated with the second position preferably includes a representation of the user's hand skeleton, that is, a set of bones connected to each other. Preferably, the connection between two bones is symbolized by a joint labeled by an identifier.
Dans un mode de réalisation, le modèle 3D actualisé associé à la seconde position est généré à partir du modèle 3D préopératoire associé à la première position. In one embodiment, the updated 3D model associated with the second position is generated from the pre-operative 3D model associated with the first position.
Préférentiellement, les éléments anatomiques du modèle 3D actualisé sont identiques aux éléments anatomiques du modèle 3D préopératoire. Preferably, the anatomical elements of the updated 3D model are identical to the anatomical elements of the preoperative 3D model.
Dans un mode de réalisation, la modélisation anatomique actualisée est générée à partir de la modélisation anatomique préopératoire sur laquelle est appliquée une transformation spatiale en translation et/ou en rotation des éléments anatomiques (par exemple des os) selon le paramètre de transformation 16 précédemment calculé et optionnellement selon un ensemble de règles biodynamiques préenregistrées. In one embodiment, the updated anatomical modeling is generated from the preoperative anatomical modeling on which a spatial transformation in translation and/or rotation of the anatomical elements (for example bones) is applied according to the transformation parameter 16 previously calculated and optionally according to a set of pre-recorded biodynamic rules.
Par exemple, les règles biodynamiques peuvent fixer des contraintes de déplacement angulaire de certaines articulations. Notamment, les règles biodynamiques définissent des axes de rotation de chaque articulation et/ou des plages de valeurs autorisées et/ou interdites de chaque articulation de la portion de corps. For example, biodynamic rules may set constraints on the angular displacement of certain joints. In particular, biodynamic rules define axes of rotation of each joint and/or ranges of authorized and/or prohibited values of each joint of the body portion.
Dans un mode de réalisation, la seconde modélisation anatomique actualisée associée à la seconde position peut comprendre des informations de profondeur. Les informations de profondeur comprennent une information de distance entre la surface d’un point de la modélisation anatomique actualisée et la peau du sujet. Préférentiellement, cette information est générée à partir des images médicales acquises. À ce titre, les images médicales acquises sont traitées de manière à déterminer la distance entre la surface d’un point d’un os déterminé du sujet et la peau du sujet. À titre d’exemple, la distance entre la surface d’un os et de la peau du sujet est mesurée sur les images médicales et associées à l’os ou au point de l’os utilisé pour ladite mesure. In one embodiment, the second updated anatomical model associated with the second position may include depth information. The depth information includes distance information between the surface of a point of the updated anatomical model and the skin of the subject. Preferably, this information is generated from the acquired medical images. As such, the acquired medical images are processed so as to determine the distance between the surface of a point of a determined bone of the subject and the skin of the subject. For example, the distance between the surface of a bone and the skin of the subject is measured on the medical images and associated with the bone or point of the bone used for said measurement.
Ces informations de profondeurs sont préférentiellement associées à des coordonnées du point de la modélisation anatomique à partir de laquelle la distance a été mesurée par rapport à un repère situé sur ledit élément anatomique. Lesdites coordonnées peuvent être calculées à partir des coordonnées en deux dimensions du point sur l’image médicale et en fonction de l’image de coupe utilisée ou de la profondeur associée à ladite image de coupe. This depth information is preferably associated with coordinates of the point of the anatomical model from which the distance was measured relative to a reference point located on said anatomical element. Said coordinates can be calculated from the two-dimensional coordinates of the point on the medical image and as a function of the section image used or the depth associated with said section image.
Préférentiellement, les distances de profondeurs entre la surface de la peau et les éléments anatomiques de la seconde modélisation anatomique actualisée associée à la seconde position sont similaires aux distances déterminées lors de la construction du premier modèle anatomique préopératoire. Preferably, the depth distances between the skin surface and the anatomical elements of the second updated anatomical model associated with the second position are similar to the distances determined during the construction of the first preoperative anatomical model.
Dans un mode de réalisation, le dispositif comprend des moyens pour acquérir ou réceptionner des images optiques et/ou tridimensionnelles de la portion de corps en continu et pour générer en continu et/ou en temps réel un second modèle 3D actualisé à partir desdites images. In one embodiment, the device comprises means for acquiring or receiving optical and/or three-dimensional images of the body portion continuously and for generating continuously and/or in real time a second 3D model updated from said images.
Dans un mode de réalisation préférentiel, la modélisation anatomique est générée par une fonction apprenante entrainée telle qu’un réseau de neurones entrainé. In a preferred embodiment, the anatomical modeling is generated by a trained learning function such as a trained neural network.
Ladite fonction apprenante est configurée pour recevoir en entrée : - un paramètre de transformation 26 associée à la seconde position et convertissant l’indice de position associé à la première position en indice de position associé à la seconde position ; associé à Said learning function is configured to receive as input: - a transformation parameter 26 associated with the second position and converting the position index associated with the first position into a position index associated with the second position; associated with
- une image médicale 10 d’une portion de corps dans une première position. - a medical image 10 of a portion of the body in a first position.
Ladite fonction apprenante est configurée pour générer en sortie une modélisation anatomique associée à la seconde position. Said learning function is configured to generate as output an anatomical model associated with the second position.
Ladite fonction apprenante a préférentiellement était entrainée à partir d’une base de données d’entrainement d’une pluralité de triplets composés chacun d’images médicales de la portion de corps dans la première position, de paramètre de transformation associé à la transformation depuis la première position vers une seconde position (différente de la première position) et d’une modélisation anatomique de ladite portion de corps dans la seconde position. Said learning function was preferably trained from a training database of a plurality of triplets each composed of medical images of the body portion in the first position, of transformation parameters associated with the transformation from the first position to a second position (different from the first position) and of an anatomical modeling of said body portion in the second position.
Génération d’une image virtuelle Generating a virtual image
Dans un mode de réalisation, la méthode comprend en outre la sélection 150, parmi l’ensemble d’éléments anatomiques composant la modélisation anatomique actualisée associée à la seconde position, d’un élément anatomique 16. In one embodiment, the method further comprises selecting 150, from the set of anatomical elements comprising the updated anatomical modeling associated with the second position, an anatomical element 16.
Ladite sélection peut être réalisée par l’intermédiaire d’une interface homme-machine INT. Said selection can be carried out via a human-machine interface INT.
Ladite interface homme-machine INT comprend en outre une ou plusieurs interfaces utilisateur. Said human-machine interface INT further comprises one or more user interfaces.
La ou les interfaces utilisateur peuvent par exemple comprendre une ou plusieurs souris d'ordinateur, un clavier, un écran tactile, une boule de commande, un microphone pour fournir un logiciel de reconnaissance vocale fonctionnant sur un processeur avec des instructions vocales, une caméra pour fournir des images de gestes capturés ou similaires à un logiciel de reconnaissance de gestes fonctionnant sur un processeur, et ainsi de suite. Il convient de comprendre que tout dispositif d'interface utilisateur existant peut être utilisé conjointement avec le système d’affichage AFF décrit par la suite. The user interface(s) may, for example, include one or more computer mice, a keyboard, a touchscreen, a trackball, a microphone for providing voice recognition software running on a processor with spoken instructions, a camera for providing images of captured gestures or the like to gesture recognition software running on a processor, and so on. It should be understood that any existing user interface device may be used in conjunction with the AFF display system described hereinafter.
Dans un mode de réalisation, un système d’affichage comprend une liste de labels, chaque label étant associé à un élément anatomique prédéterminé. Dans un mode de réalisation, la méthode comprend la génération 170 d’une image virtuelle 17 et/ou la génération d’une consigne d’affichage pour faire afficher ladite image virtuelle, notamment par un dispositif de réalité augmentée. Ladite consigne d’affichage peut ensuite être reçue par un module d’affichage tel que celui d’un dispositif informatique d’affichage de réalité augmentée telle que décrite ci-après pour afficher ladite image virtuelle. In one embodiment, a display system includes a list of labels, each label being associated with a predetermined anatomical feature. In one embodiment, the method comprises the generation 170 of a virtual image 17 and/or the generation of a display instruction to display said virtual image, in particular by an augmented reality device. Said display instruction can then be received by a display module such as that of an augmented reality display computer device as described below to display said virtual image.
Dans un mode de réalisation, l’image virtuelle 17 peut comprendre une portion de la modélisation anatomique actualisée. Par exemple, l’image virtuelle comprend au moins une portion du système des os de la main de l’individu générés par les étapes précédemment décrites. Préférentiellement, la position de la main est détectée (seconde position) par le dispositif de prise d’image et l’image virtuelle comprenant ladite portion du modèle anatomique associé à la seconde position est affichée en temps réel. In one embodiment, the virtual image 17 may comprise a portion of the updated anatomical model. For example, the virtual image comprises at least a portion of the individual's hand bone system generated by the steps previously described. Preferably, the position of the hand is detected (second position) by the image capture device and the virtual image comprising said portion of the anatomical model associated with the second position is displayed in real time.
Préférentiellement, l’image virtuelle est affichée de manière à ce que ladite portion du modèle anatomique se superpose avec la portion de corps de l’individu. Preferably, the virtual image is displayed in such a way that said portion of the anatomical model is superimposed on the portion of the individual's body.
Dans un mode de réalisation, l’image virtuelle est affichée de manière à faire correspondre la surface de la peau du modèle 3D actualisé avec la surface de peau de l’utilisateur sur l’image optique. Préférentiellement, le modèle 3D actualisé est affiché de manière à ce que la surface de peau dudit modèle 3D soit confondu avec la surface de peau détectée sur l’image optique acquise et/ou avec le nuage de points de la portion de corps acquise par le dispositif d’acquisition d’image. In one embodiment, the virtual image is displayed so as to match the skin surface of the updated 3D model with the user's skin surface on the optical image. Preferably, the updated 3D model is displayed so that the skin surface of said 3D model is confused with the skin surface detected on the acquired optical image and/or with the point cloud of the body portion acquired by the image acquisition device.
Dans un autre mode de réalisation, le système est configuré pour afficher un élément anatomique du modèle 3D à une position relative de la peau du sujet en prenant en compte les informations de profondeur dudit élément anatomique du modèle 3D. Un avantage est de pouvoir afficher un élément anatomique tel qu’un os d’une main a une localisation précise, notamment travers l*a peau du sujet qui peut être capté par le dispositif d’acquisition en temps réel. In another embodiment, the system is configured to display an anatomical element of the 3D model at a relative position of the subject's skin by taking into account the depth information of said anatomical element of the 3D model. An advantage is to be able to display an anatomical element such as a bone of a hand at a precise location, in particular through the subject's skin which can be captured by the acquisition device in real time.
L’image virtuelle affichée incluant une portion du modèle 3D est ainsi avantageusement en cohérence avec la position de la main du sujet. L’utilisateur obtient ainsi un affichage en réalité augmentée du modèle 3D. The displayed virtual image, including a portion of the 3D model, is thus advantageously consistent with the position of the subject's hand. The user thus obtains an augmented reality display of the 3D model.
Préférentiellement, la portion du modèle 3D affichée ne comprend pas la surface de peau mais les éléments anatomiques internes du sujet tels que les os du sujet. Néanmoins, grâce aux informations de profondeur (distance entre l’élément anatomique et la surface de la peau du sujet) lesdits éléments anatomiques sont affichés avec une précision de localisation particulièrement avantageuse, même en cas de mouvement de la portion de corps du sujet. Dans un mode de réalisation, l’image virtuelle 17 est générée en fonction de l’élément anatomique sélectionnée. L’image virtuelle peut ainsi comprendre uniquement l’élément anatomique sélectionné 16 et/ou les éléments anatomiques adjacents de l’élément anatomique sélectionné 16. Preferably, the portion of the 3D model displayed does not include the skin surface but the internal anatomical elements of the subject such as than the bones of the subject. However, thanks to the depth information (distance between the anatomical element and the surface of the subject's skin) said anatomical elements are displayed with a particularly advantageous localization precision, even in the event of movement of the subject's body portion. In one embodiment, the virtual image 17 is generated according to the selected anatomical element. The virtual image can thus comprise only the selected anatomical element 16 and/or the adjacent anatomical elements of the selected anatomical element 16.
Génération d’un attribut virtuel Generating a virtual attribute
Dans un mode de réalisation, la méthode comprend en outre la génération d’un attribut virtuel 15. L’attribut virtuel 15 comprend un élément à afficher reflétant une propriété de l’élément anatomique sélectionné 16. In one embodiment, the method further comprises generating a virtual attribute 15. The virtual attribute 15 comprises an element to be displayed reflecting a property of the selected anatomical element 16.
L’attribut virtuel 15 peut comprendre un axe de direction. Dans un mode de réalisation, l’axe de direction est généré en fonction de la forme et/ou de l’orientation de l’élément anatomique sélectionné 16 selon une règle ou un ensemble de règles prédéfinies et/ou associées audit élément anatomique sélectionné. The virtual attribute 15 may comprise a direction axis. In one embodiment, the direction axis is generated based on the shape and/or orientation of the selected anatomical element 16 according to a rule or set of rules predefined and/or associated with said selected anatomical element.
Dans l’exemple où le modèle anatomique comprend un système d’os de la main, l’attribut virtuel 15 peut comprendre un axe confondu avec l’axe longitudinal dudit os sélectionné. In the example where the anatomical model comprises a system of bones of the hand, the virtual attribute 15 may comprise an axis merged with the longitudinal axis of said selected bone.
Un avantage d’afficher un tel axe sur un module d’affichage de réalité augmentée est de permettre la visualisation par le chirurgien d’un axe spécifique relatif à l’élément anatomique qu’il a préalablement sélectionné. One advantage of displaying such an axis on an augmented reality display module is that it allows the surgeon to visualize a specific axis relating to the anatomical element that he has previously selected.
Dans un mode de réalisation, l’attribut virtuel comprend un indicateur anatomique préalablement généré. In one embodiment, the virtual attribute comprises a pre-generated anatomical indicator.
L’indicateur anatomique peut être affiché sous forme de chiffre à proximité ou en superposition de la portion de corps. L’indicateur anatomique peut comprendre la valeur d’une distance entre la surface de la peau et la surface d’un élément anatomique, par exemple en un point prédéterminé et/ou sélectionné. The anatomical indicator may be displayed as a number near or superimposed on the body portion. The anatomical indicator may comprise the value of a distance between the surface of the skin and the surface of an anatomical element, for example at a predetermined and/or selected point.
Dans un mode de réalisation, l’attribut virtuel 15 comprend un plan dont les coordonnées sont fonction de l’élément anatomique sélectionné. Dans un mode de réalisation, le dispositif informatique décrit ci-après affiche le plan de l’attribut virtuel comme un plan de coupe de manière à afficher une portion de la modélisation associée à la seconde position superposée à la partie du corps de l’individu en contact avec ledit plan généré. Préférentiellement, ledit plan généré est donc vu comme un plan de coupe. In one embodiment, the virtual attribute 15 comprises a plane whose coordinates are a function of the selected anatomical element. In one embodiment, the computing device described below displays the plane of the virtual attribute as a section plane so as to display a portion of the modeling associated with the second position superimposed on the part of the individual's body in contact with said generated plane. Preferably, said generated plane is therefore seen as a section plane.
Dans un mode de réalisation, l’opérateur peut sélectionner par l’interface homme-machine INT un attribut virtuel parmi une liste d’attributs virtuels tels que ceux précédemment décrits à afficher et le dispositif informatique va afficher en retour l’attribut virtuel sélectionné. In one embodiment, the operator can select via the human-machine interface INT a virtual attribute from a list of virtual attributes such as those previously described to be displayed and the computing device will in return display the selected virtual attribute.
Préférentiellement, l’image virtuelle 17 et / ou l’attribut virtuel 15 sont générée et/ou affichés en temps réel à partir des images optiques et/ou tridimensionnelles acquises et reçus par le système. Ces deux informations peuvent ainsi évoluées en temps réel en fonction des mouvements du sujet. Preferably, the virtual image 17 and/or the virtual attribute 15 are generated and/or displayed in real time from the optical and/or three-dimensional images acquired and received by the system. These two pieces of information can thus evolve in real time depending on the movements of the subject.
Visualisation du modèle anatomique en temps réel via un casque de réalité auqmentée. Visualization of the anatomical model in real time via an augmented reality headset.
La figure 5 représente schématiquement un mode de réalisation particulièrement préféré du système d’affichage AFF, dans lequel ce système est mis en œuvre sous la forme d'un dispositif informatique montable sur la tête de telle sorte que l'image virtuelle 17 puisse être générée à la vue du médecin dans le premier temps. Le dispositif comprend en outre un emplacement pour augmenter la réalité (c'est-à-dire la vue réelle) du médecin, par ex. en superposant l'image virtuelle 17 sur cette vue réelle. Figure 5 schematically represents a particularly preferred embodiment of the AFF display system, in which this system is implemented as a head-mounted computing device such that the virtual image 17 can be generated in the view of the doctor in the first instance. The device further comprises a location for augmenting the reality (i.e., the real view) of the doctor, e.g., by superimposing the virtual image 17 on this real view.
Dans le contexte de la présente invention, un dispositif informatique montable sur la tête est un dispositif qui peut être porté sur la tête de son utilisateur et fournit à l'utilisateur une fonctionnalité informatique. In the context of the present invention, a head-mountable computing device is a device that can be worn on the head of its user and provides the user with computing functionality.
Le dispositif informatique montable sur la tête peut être configuré pour effectuer des tâches informatiques spécifiques telles que spécifiées dans une application logicielle (app) qui peut être récupérée sur Internet ou sur un autre support lisible par ordinateur. The head-mounted computing device may be configured to perform specific computing tasks as specified in a software application (app) that may be retrieved from the Internet or other computer-readable medium.
Des exemples non limitatifs de tels dispositifs informatiques montables sur la tête comprennent les casques intelligents, par ex. des lunettes, des lunettes, un casque, un chapeau, une visière, un bandeau ou tout autre dispositif pouvant être supporté sur ou depuis la tête du porteur, etc. Non-limiting examples of such head-mounted computing devices include smart headsets, e.g., glasses, goggles, a helmet, a hat, a visor, a headband, or any other device capable of being supported on or from the wearer's head, etc.
Le dispositif informatique montable sur la tête peut comprendre le processeur PRO et/ou l’unité de calcul 2, par ex. dans un boîtier de composant 122. The head-mountable computing device may comprise the PRO processor and/or the computing unit 2, e.g., in a component package 122.
Le dispositif informatique montable sur la tête peut en outre comprendre un capteur d'image ou une caméra 127 en tant que détecteur de la position de la portion de corps pour capturer une image dans un champ de vision d'un porteur du dispositif informatique portable. Le capteur d'image peut être agencé de telle sorte que lorsque le dispositif informatique montable sur la tête est porté comme prévu, le capteur d'image s'aligne avec les yeux de son porteur, c'est-à-dire qu'il produit un signal de capteur orienté vers l'avant correspondant au champ de vision de son porteur. The head-mountable computing device may further include an image sensor or camera 127 as a detector. the position of the body portion to capture an image in a field of view of a wearer of the wearable computing device. The image sensor may be arranged such that when the head-mountable computing device is worn as intended, the image sensor aligns with the eyes of its wearer, i.e., produces a forward-facing sensor signal corresponding to the field of view of its wearer.
Un tel capteur d'image ou caméra peut être intégré au dispositif informatique montable sur la tête, par exemple intégré dans un objectif d'un dispositif informatique montable sur la tête à travers lequel son porteur observe son champ de vision, dans un support d'objectif ou un cadre pour un tel objectif, ou dans toute autre structure appropriée du dispositif informatique montable sur la tête dans laquelle le capteur optique s'aligne avec le champ de vision du porteur du dispositif informatique montable sur la tête. Such an image sensor or camera may be integrated into the head-mounted computing device, for example, integrated into a lens of a head-mounted computing device through which its wearer views his or her field of view, into a lens holder or frame for such a lens, or into any other suitable structure of the head-mounted computing device in which the optical sensor aligns with the field of view of the wearer of the head-mounted computing device.
Alternativement, un tel capteur d'image peut faire partie d'un dispositif informatique portable modulaire, par ex. un module de capteur d'image monté sur la tête couplée de manière communicative via une connexion filaire ou sans fil à un ou plusieurs autres modules du dispositif informatique montable sur la tête, dans lequel au moins certains des autres modules peuvent être portés sur des parties du corps autres que la tête, ou dans lequel certains des autres modules peuvent ne pas être portables, mais plutôt portables par exemple. Alternatively, such an image sensor may be part of a modular wearable computing device, e.g., a head-mounted image sensor module communicatively coupled via a wired or wireless connection to one or more other modules of the head-mounted computing device, wherein at least some of the other modules may be worn on parts of the body other than the head, or wherein some of the other modules may not be wearable, but rather portable, for example.
Le dispositif informatique montable sur la tête comprend généralement au moins un module d'affichage 125, qui peut être un module d'affichage transparent, sous le contrôle d'un contrôleur d'affichage discret (non représenté). The head-mountable computing device generally includes at least one display module 125, which may be a transparent display module, under the control of a discrete display controller (not shown).
Alternativement, le contrôleur d'affichage peut être implémenté par un processeur du dispositif informatique montable sur la tête. Alternatively, the display controller may be implemented by a processor of the head-mounted computing device.
Le au moins un module d'affichage 125 est généralement agencé de telle sorte qu'un porteur du dispositif informatique montable sur la tête, par ex. le médecin présent au premier emplacement 100 peut observer l'image virtuelle 17 de la sonde échographique 11 affichée sur au moins un module d'affichage 125. The at least one display module 125 is generally arranged such that a wearer of the head-mountable computing device, e.g., the physician present at the first location 100, can observe the virtual image 17 of the ultrasound probe 11 displayed on the at least one display module 125.
De préférence, le au moins un module d'affichage 125 est un module d'affichage transparent de telle sorte que le porteur peut observer au moins une partie d'un champ de vision à travers le module d'affichage 125, par ex. la main du sujet ou toute autre portion de corps, les outils du médecin nécessaires à la chirurgie. Preferably, the at least one display module 125 is a transparent display module such that the wearer can observe at least a portion of a field of vision through the display module 125, e.g. e.g. the subject's hand or any other body part, the doctor's tools necessary for surgery.
Dans un mode de réalisation, le dispositif informatique montable sur la tête comprend une paire de modules d'affichage 125 comprenant un premier module d'affichage qui peut être observé par l'œil droit du porteur et un second module d'affichage qui peut être observé par l'œil gauche du porteur. In one embodiment, the head-mountable computing device includes a pair of display modules 125 including a first display module that can be viewed by the wearer's right eye and a second display module that can be viewed by the wearer's left eye.
Alternativement, au moins un module d'affichage 125 peut être un module d'affichage opaque sur lequel est affichée une scène de réalité augmentée du champ de vision de son porteur, par exemple un module d'affichage 125 permettant de projeter dans le champ de vision augmenté une image virtuelle 17. À cette fin, le dispositif informatique montable sur la tête peut comprendre une caméra pour capturer le champ de vision de son porteur. Alternatively, at least one display module 125 may be an opaque display module on which an augmented reality scene of the field of vision of its wearer is displayed, for example a display module 125 making it possible to project a virtual image 17 into the augmented field of vision. To this end, the head-mountable computing device may comprise a camera for capturing the field of vision of its wearer.
Le premier module et le deuxième module d'affichage peuvent être commandés pour afficher différentes images, par ex. pour générer une image stéréoscopique comme cela est bien connu en soi dans la technique. The first display module and the second display module can be controlled to display different images, e.g. to generate a stereoscopic image as is well known in the art.
Alternativement, une image peut être générée sur l'un des premier et deuxième modules d'affichage uniquement de telle sorte que le porteur puisse observer l'image générée avec un œil et le champ de vision réel avec l'autre œil. Les premier et deuxième modules d'affichage peuvent être des modules d'affichage transparents ou partiellement transparents. Alternativement, l'un des premier et deuxième modules d'affichage peut être un module d'affichage transparent ou partiellement transparent, tandis que l'autre module d'affichage est un module d'affichage opaque, c'est-à-dire un module d'affichage qui n'est pas transparent de sorte que le porteur ne puisse pas voir à travers cet affichage. Alternatively, an image may be generated on one of the first and second display modules only such that the wearer can observe the generated image with one eye and the actual field of view with the other eye. The first and second display modules may be transparent or partially transparent display modules. Alternatively, one of the first and second display modules may be a transparent or partially transparent display module, while the other display module is an opaque display module, i.e., a display module that is not transparent such that the wearer cannot see through that display.
Le au moins un module d'affichage 125 peut être fourni sous n'importe quelle forme appropriée, telle qu'une partie de lentille transparente. The at least one display module 125 may be provided in any suitable form, such as a transparent lens portion.
Alternativement, le dispositif informatique montable sur la tête peut comprendre une paire de parties de lentille, c'est-à-dire une pour chaque œil, comme expliqué ci-dessus. La ou les parties de lentille transparentes peuvent être dimensionnées de telle sorte que pratiquement tout le champ de vision du porteur soit obtenu à travers la ou les parties de lentille transparentes. Par exemple, le au moins un module d'affichage 125 peut avoir la forme d'une lentille à monter dans le cadre du dispositif informatique montable sur la tête. Toute autre configuration connue de l'homme du métier peut être envisagée. On comprendra que le cadre 128 peut avoir n'importe quelle forme appropriée et peut être constitué de n'importe quel matériau approprié, par ex. un métal, un alliage métallique, une matière plastique ou une combinaison de ceux-ci. Alternatively, the head-mountable computing device may include a pair of lens portions, i.e., one for each eye, as explained above. The one or more transparent lens portions may be sized such that substantially the entire field of vision of the wearer is obtained through the one or more transparent lens portions. For example, the at least one display module 125 may be shaped as a lens to be mounted within the frame of the head-mountable computing device. Any other configuration known to those skilled in the art may be contemplated. It will be understood that the frame 128 may have any suitable shape and may be made of any suitable material, e.g., a metal, a metal alloy, a plastic, or a combination thereof.
Plusieurs composants du dispositif informatique montable sur la tête peuvent être montés dans le cadre 128, par exemple dans un boîtier de composants 122 faisant partie du cadre 128. Le boîtier de composant 122 peut avoir n'importe quelle forme appropriée, de préférence une forme ergonomique qui permet au dispositif montable sur la tête d'être porté par son porteur d'une manière confortable. Several components of the head-mountable computing device may be mounted within the frame 128, for example, within a component housing 122 forming part of the frame 128. The component housing 122 may have any suitable shape, preferably an ergonomic shape that allows the head-mountable device to be worn by its wearer in a comfortable manner.
Bras robotique Robotic arm
Dans un mode de réalisation, illustré sur la figure 7, le système comprend en outre un système de guidage. Le système de guidage peut comprendre, par exemple, un bras robot ROB pour guider un outil chirurgical OTL. In one embodiment, illustrated in Figure 7, the system further comprises a guidance system. The guidance system may comprise, for example, a robot arm ROB for guiding an OTL surgical tool.
L’outil chirurgical peut comprendre un outil tranchant, un dispositif d’injection d’un produit médicamenteux ou anesthésiant, un dispositif d’insertion d’un dispositif médical tel qu’une broche, plaque, ou une vis. The surgical tool may include a cutting tool, a device for injecting a medicinal or anesthetic product, a device for inserting a medical device such as a pin, plate, or screw.
Dans ce mode de réalisation, le bras robot comprend une tête conçue pour recevoir un outil chirurgical. In this embodiment, the robot arm includes a head configured to receive a surgical tool.
Préférentiellement, le système est configuré pour guider la tête de bras robot en temps réel selon une position et/ou une orientation en fonction du modèle 3D actualisé associé à la seconde position. Preferably, the system is configured to guide the robot arm head in real time according to a position and/or an orientation based on the updated 3D model associated with the second position.
Dans un premier exemple, le système est configuré pour contrôler le bras robot de manière à orienter la tête du bras robot en temps réel en fonction de l’attribut virtuel généré. Par exemple, la tête du bras robot est contrôlée en fonction de l’axe 151 de l’attribut virtuel 15, préférentiellement pour aligner l’axe longitudinal de l’outil chirurgical avec ledit axe 151 de l’attribut virtuel. Le bras robot peut ainsi être guidé, manuellement par un opérateur ou de manière automatique pour atteindre un point d’intérêt de la portion de corps du sujet selon un axe prédéterminé, même si le sujet est en mouvement. In a first example, the system is configured to control the robot arm so as to orient the head of the robot arm in real time according to the generated virtual attribute. For example, the head of the robot arm is controlled according to the axis 151 of the virtual attribute 15, preferably to align the longitudinal axis of the surgical tool with said axis 151 of the virtual attribute. The robot arm can thus be guided, manually by an operator or automatically to reach a point of interest of the body portion of the subject along a predetermined axis, even if the subject is moving.
Dans un second mode de réalisation, le système est configuré pour détecter la position et/ou l’orientation de la tête de bras robot dans son environnement tel que relativement à un point d’intérêt de la portion de corps du sujet. Le système est alors également conçu pour générer une trajectoire de guidage pour déplacer la tête de bras robot depuis sa position initiale à un point cible prédéterminé. Le point cible prédéterminé et la trajectoire de guidage peuvent être mis à jour en continu à partir du nouveau modèle anatomique 3D actualisé généré et de l’attribut virtuel généré. In a second embodiment, the system is configured to detect the position and/or orientation of the robot arm head in its environment such as relative to a point of interest of the body portion. of the subject. The system is then also designed to generate a guidance trajectory to move the robot arm head from its initial position to a predetermined target point. The predetermined target point and the guidance trajectory can be continuously updated from the newly generated updated 3D anatomical model and the generated virtual attribute.
Préférentiellement, le bras robot peut comprendre des capteurs tels que des capteurs d’image optique et/ou tridimensionnel, par exemple pour la génération du modèle tridimensionnel actualisé ou pour la détection d’obstacles sur la trajectoire de guidage. Preferably, the robot arm may comprise sensors such as optical and/or three-dimensional image sensors, for example for generating the updated three-dimensional model or for detecting obstacles on the guidance path.
Logiciel et calculateur Software and calculator
Il convient de noter, pour éviter toute ambiguïté, que bien que la méthode ait été décrite comme une série d'étapes séquentielles, il apparaîtra immédiatement à l'homme du métier qu'au moins certaines des étapes peuvent en variante être exécutées simultanément, c'est-à-dire en parallèle. It should be noted, for the avoidance of doubt, that although the method has been described as a series of sequential steps, it will be immediately apparent to those skilled in the art that at least some of the steps may alternatively be performed simultaneously, i.e., in parallel.
Des aspects de la méthode décrite peuvent être fournis sous la forme d'un produit-programme informatique comprenant un support de stockage lisible par ordinateur dans lequel sont incorporées des instructions de programme lisibles par ordinateur pour, lorsqu'il est exécuté sur le processeur du système, amènent ces processeurs à mettre en œuvre les étapes pertinentes de ladite méthode. Aspects of the disclosed method may be provided in the form of a computer program product comprising a computer-readable storage medium having embedded therein computer-readable program instructions for, when executed on the system processor, causing those processors to perform the relevant steps of said method.
Des aspects de la présente invention peuvent être mis en œuvre sous la forme d'un système médical 1 , d’un système 2 de contrôle d’un dispositif d’affichage, d'un système d’affichage 20. Aspects of the present invention may be implemented as a medical system 1, a display device control system 2, a display system 20.
Certains aspects de la présente invention peuvent prendre la forme d'un produit programme informatique incorporé dans un ou plusieurs supports lisibles par ordinateur sur lesquels est incorporé un code de programme lisible par ordinateur. Certain aspects of the present invention may take the form of a computer program product embodied in one or more computer-readable media having computer-readable program code embedded therein.
N'importe quelle combinaison d'un ou plusieurs supports lisibles par ordinateur peut être utilisée. Any combination of one or more computer-readable media may be used.
Le support lisible par ordinateur peut être un support de signaux lisible par ordinateur ou un support de stockage lisible par ordinateur. The computer-readable medium may be a computer-readable signal medium or a computer-readable storage medium.
Un support de stockage lisible par ordinateur peut être, par exemple, mais sans s'y limiter, un système, un appareil ou un dispositif électronique, magnétique, optique, électromagnétique, infrarouge ou semi- conducteur, ou toute combinaison appropriée de ce qui précède. Un tel système, appareil ou dispositif peut être accessible via toute connexion réseau appropriée ; par exemple, le système, l'appareil ou le dispositif peut être accessible sur un réseau pour récupérer le code de programme lisible par ordinateur sur le réseau. A computer-readable storage medium may be, for example, but not limited to, an electronic, magnetic, optical, electromagnetic, infrared or semiconductor system, apparatus or device, or any suitable combination of the foregoing. Such a system, device, or apparatus may be accessible via any suitable network connection; for example, the system, device, or apparatus may be accessible over a network to retrieve computer-readable program code over the network.
Un tel réseau peut être par exemple Internet, un réseau de communications mobiles ou autre. Such a network can be, for example, the Internet, a mobile communications network or other.
Des exemples plus spécifiques (une liste non exhaustive) du support de stockage lisible par ordinateur peuvent inclure les éléments suivants, un disque dur, une mémoire vive (RAM), un lecteur, mémoire seule (ROM), une mémoire morte programmable effaçable (EPROM ou mémoire Flash), une fibre optique, une mémoire morte de disque compact portable (CD- ROM), un périphérique de stockage optique, un périphérique de stockage magnétique ou toute autre combinaison appropriée de ce qui précède. More specific examples (a non-exhaustive list) of the computer-readable storage medium may include the following, a hard disk drive, random access memory (RAM), a drive, memory only (ROM), an erasable programmable read-only memory (EPROM or Flash memory), an optical fiber, a portable compact disc read-only memory (CD-ROM), an optical storage device, a magnetic storage device, or any other suitable combination of the foregoing.
Dans le contexte de la présente demande, un support de stockage lisible par ordinateur peut être n'importe quel support tangible ou non- transitoire pouvant contenir ou stocker un programme destiné à être utilisé par ou en relation avec un système, un appareil ou un dispositif d'exécution d'instructions. In the context of the present application, a computer-readable storage medium may be any tangible or non-transitory medium capable of containing or storing a program for use by or in connection with an instruction executing system, apparatus, or device.
Un support de signal lisible par ordinateur peut comprendre un signal de données propagé dans lequel est intégré un code de programme lisible par ordinateur, par exemple en bande de base ou en tant que partie d'une onde porteuse. A computer-readable signal carrier may comprise a propagated data signal having computer-readable program code embedded therein, for example in baseband or as part of a carrier wave.
Un tel signal propagé peut prendre diverses formes, y compris, sans toutefois s'y limiter, électromagnétique, optique ou toute combinaison appropriée de celles-ci. Un support de signaux lisible par ordinateur peut être tout support lisible par ordinateur qui n'est pas un support de stockage lisible par ordinateur et qui peut communiquer, propager ou transporter un programme destiné à être utilisé par ou en relation avec un système, un appareil ou un dispositif d'exécution d'instructions. Le code de programme incorporé sur un support lisible par ordinateur peut être transmis en utilisant n'importe quel support approprié, y compris, mais sans s'y limiter, le sans-fil, le fil, le câble à fibre optique, la RF, etc., ou toute combinaison appropriée de ce qui précède. Such a propagated signal may take various forms, including, but not limited to, electromagnetic, optical, or any suitable combination thereof. A computer-readable signal carrier may be any computer-readable medium that is not a computer-readable storage medium and that can communicate, propagate, or carry a program for use by or in connection with an instruction-executing system, apparatus, or device. Program code embodied on a computer-readable medium may be transmitted using any suitable medium, including, but not limited to, wireless, wire, fiber optic cable, RF, etc., or any suitable combination of the foregoing.
Dans certains cas, le processeur ou le calculateur peut communiquer avec un ou plusieurs dispositifs externes via le réseau. Le processeur ou le calculateur peut être connecté au réseau via une connexion câblée (par exemple, via un câble Ethernet) et / ou une connexion sans fil (par exemple, via un réseau WiFi). Ces dispositifs externes peuvent inclure des serveurs, des stations de travail, et / ou des bases de données. Le processeur ou le calculateur peut communiquer avec ces dispositifs pour, par exemple, décharger les tâches à forte intensité de calcul. Par exemple, le processeur ou le calculateur peut envoyer des images médicales ou une ou des images optiques via le réseau au serveur pour analyse et recevoir les résultats de l'analyse du serveur (par exemple respectivement le modèle 3D préopératoire ou le modèle 3D associé à la seconde position). En outre (ou alternativement), le processeur ou le calculateur peut communiquer avec ces dispositifs pour accéder à des informations qui ne sont pas disponibles localement et / ou mettre à jour un référentiel d'informations central. In some cases, the processor or computer can communicate with one or more external devices via the network. The The processor or the calculator may be connected to the network via a wired connection (e.g., via an Ethernet cable) and/or a wireless connection (e.g., via a WiFi network). These external devices may include servers, workstations, and/or databases. The processor or the calculator may communicate with these devices to, for example, offload computationally intensive tasks. For example, the processor or the calculator may send medical images or optical image(s) via the network to the server for analysis and receive the results of the analysis from the server (e.g., respectively, the preoperative 3D model or the 3D model associated with the second position). In addition (or alternatively), the processor or the calculator may communicate with these devices to access information that is not available locally and/or update a central information repository.
Le dispositif peut également comprendre une pluralité de processeurs, associés chacun à une ou plusieurs mémoires, et configurés pour ensemble exécuter de telles étapes. Dans un mode de réalisation, le ou les processeurs peuvent être déportés et connectés à l’afficheur par un réseau de données. The device may also include a plurality of processors, each associated with one or more memories, and configured to together execute such steps. In one embodiment, the processor(s) may be remote and connected to the display by a data network.
Le dispositif comprend en outre une mémoire ou plusieurs mémoires pour stocker ou enregistrer les consignes d’affichage et/ou les modèles 3D générés par le procédé selon l’invention et/ou pour stocker les programmes d’ordinateur permettant, lorsqu’ils sont exécutés par un ou plusieurs processeurs, mettent en œuvre le procédé selon l’invention. Dans un mode de réalisation, le dispositif comprend en outre un émetteur connectée à ladite mémoire pour transmettre lesdites consignes et/ou modèles 3D générés sur ladite mémoire vers un réseau de données. Dans un mode de réalisation, le dispositif comprend en outre un second émetteur connecté pour transmettre à un dispositif d’affichage (préférentiellement un dispositif d’affichage en réalité augmentée) ladite consigne. The device further comprises a memory or several memories for storing or recording the display instructions and/or the 3D models generated by the method according to the invention and/or for storing the computer programs allowing, when executed by one or more processors, to implement the method according to the invention. In one embodiment, the device further comprises a transmitter connected to said memory for transmitting said instructions and/or 3D models generated on said memory to a data network. In one embodiment, the device further comprises a second transmitter connected for transmitting said instruction to a display device (preferably an augmented reality display device).
Le dispositif peut comprendre en outre des moyens de communications tels que des émetteurs et récepteurs pour l’échange d’informations avec la sonde et/ou un dispositif distant. The device may further comprise communication means such as transmitters and receivers for exchanging information with the probe and/or a remote device.
L’afficheur peut comprendre des moyens pour réceptionner les différentes informations reçues par les différents moyens du dispositif pour générer l’image finale à afficher, préférentiellement en réalité augmentée. The display may include means for receiving the various information received by the various means of the device to generate the final image to be displayed, preferably in augmented reality.
Claims
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| FRFR2401355 | 2024-02-12 | ||
| FR2401355A FR3159089A1 (en) | 2024-02-12 | 2024-02-12 | SURGERY AID METHOD AND ASSOCIATED SYSTEM |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025172371A1 true WO2025172371A1 (en) | 2025-08-21 |
Family
ID=92043154
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2025/053743 Pending WO2025172371A1 (en) | 2024-02-12 | 2025-02-12 | Method for assisting with surgery and associated system |
Country Status (2)
| Country | Link |
|---|---|
| FR (1) | FR3159089A1 (en) |
| WO (1) | WO2025172371A1 (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018164909A1 (en) | 2017-03-10 | 2018-09-13 | Biomet Manufacturing, Llc | Augmented reality supported knee surgery |
| AU2020311392A1 (en) * | 2019-07-09 | 2022-02-10 | Materialise N.V. | Augmented reality assisted joint arthroplasty |
| US20220130059A1 (en) * | 2020-10-23 | 2022-04-28 | Surgical Theater, Inc. | System and method for medical image alignment |
-
2024
- 2024-02-12 FR FR2401355A patent/FR3159089A1/en active Pending
-
2025
- 2025-02-12 WO PCT/EP2025/053743 patent/WO2025172371A1/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018164909A1 (en) | 2017-03-10 | 2018-09-13 | Biomet Manufacturing, Llc | Augmented reality supported knee surgery |
| AU2020311392A1 (en) * | 2019-07-09 | 2022-02-10 | Materialise N.V. | Augmented reality assisted joint arthroplasty |
| US20220130059A1 (en) * | 2020-10-23 | 2022-04-28 | Surgical Theater, Inc. | System and method for medical image alignment |
Non-Patent Citations (1)
| Title |
|---|
| ANONYMOUS: "Reconstruction 3D � partir d'images - Wikip�dia", 15 May 2023 (2023-05-15), pages 1 - 6, XP093269228, Retrieved from the Internet <URL:https://fr.wikipedia.org/w/index.php?title=Reconstruction_3D_�_partir_d'images&oldid=204279856> * |
Also Published As
| Publication number | Publication date |
|---|---|
| FR3159089A1 (en) | 2025-08-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP0494943B1 (en) | Local intervention interactive system inside a region of a non homogeneous structure | |
| US11961193B2 (en) | Method for controlling a display, computer program and mixed reality display device | |
| US10839520B2 (en) | Eye tracking applications in computer aided diagnosis and image processing in radiology | |
| US9392258B2 (en) | Imaging system and method | |
| US12354295B2 (en) | Eye tracking latency enhancements | |
| CN109997174A (en) | Augmented Reality Spectral Inspection | |
| Niri et al. | Multi-view data augmentation to improve wound segmentation on 3d surface model by deep learning | |
| KR102433473B1 (en) | Method, apparatus and computer program for providing augmented reality based medical information of patient | |
| CN114300095A (en) | Image processing apparatus, image processing method, apparatus, device, and storage medium | |
| CN107529982A (en) | OCT image is changed | |
| US20210045719A1 (en) | Image based ultrasound probe calibration | |
| KR20160057024A (en) | Markerless 3D Object Tracking Apparatus and Method therefor | |
| Wyder et al. | Eye tracker accuracy: Quantitative evaluation of the invisible eye center location | |
| WO2025172371A1 (en) | Method for assisting with surgery and associated system | |
| US12295799B2 (en) | Intelligent surgical marker | |
| US11869216B2 (en) | Registration of an anatomical body part by detecting a finger pose | |
| US12303208B2 (en) | Method and system to augment medical scan image information on extended reality image | |
| FR3147888A1 (en) | COMPUTER-IMPLEMENTED METHOD FOR MODELING A PATIENT'S JOINT | |
| JP6795744B2 (en) | Medical support method and medical support device | |
| US20250137971A1 (en) | Ultrasound to 3d registration using a-mode signals | |
| CN120753783A (en) | Chest trunk nerve block auxiliary system | |
| WO2025149320A1 (en) | Accurate body keypoint detection using purely synthetic data for workflow support | |
| FR3145860A1 (en) | Method for generating a model of a bone assembly | |
| EP4608230A1 (en) | Real-time support system for performing at least one bone tunnel by arthroscopy | |
| WO2024052632A1 (en) | System and method for synchronised positioning of a calibration pointer in different images of the same breast |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 25704279 Country of ref document: EP Kind code of ref document: A1 |