[go: up one dir, main page]

FR3161098A1 - DEVICE AND METHOD FOR CONTACTLESS RECALIBRATION BETWEEN A ROBOT, A PATIENT AND MEDICAL IMAGING - Google Patents

DEVICE AND METHOD FOR CONTACTLESS RECALIBRATION BETWEEN A ROBOT, A PATIENT AND MEDICAL IMAGING

Info

Publication number
FR3161098A1
FR3161098A1 FR2403817A FR2403817A FR3161098A1 FR 3161098 A1 FR3161098 A1 FR 3161098A1 FR 2403817 A FR2403817 A FR 2403817A FR 2403817 A FR2403817 A FR 2403817A FR 3161098 A1 FR3161098 A1 FR 3161098A1
Authority
FR
France
Prior art keywords
interest
area
robot
patient
laser line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2403817A
Other languages
French (fr)
Inventor
Florian Coiseur
Michel LEFRANC
Laure CAUCANAS
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Surgitec Robotics
Original Assignee
Surgitec Robotics
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Surgitec Robotics filed Critical Surgitec Robotics
Priority to FR2403817A priority Critical patent/FR3161098A1/en
Priority to PCT/EP2025/060249 priority patent/WO2025215256A1/en
Publication of FR3161098A1 publication Critical patent/FR3161098A1/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • G01B11/005Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2531Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object using several gratings, projected with variable angle of incidence on the object, and one detection device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Manipulator (AREA)

Abstract

TITRE DE L’INVENTION : DISPOSITIF ET PROCÉDÉ DE RECALAGE SANS CONTACT ENTRE UN ROBOT, UN PATIENT ET UNE IMAGERIE MÉDICALE Le dispositif (10) de recalage sans contact entre un robot (17), un patient (12) et une imagerie médicale comporte :- un moyen (27) de projection d’une ligne laser (21) sur une zone d’intérêt (22) du corps du patient,- un moyen (25) de capture de coordonnées géométriques de points de la ligne laser pour former un nuage de points de la zone d’intérêt, et- un moyen (13) d’appariement d’un nuage de points de l’imagerie médicale et du nuage de points de la zone d’intérêt. Figure pour l’abrégé : Figure 1 TITLE OF THE INVENTION: DEVICE AND METHOD FOR CONTACTLESS REGISTERING BETWEEN A ROBOT, A PATIENT, AND A MEDICAL IMAGING SYSTEM The device (10) for contactless registration between a robot (17), a patient (12), and a medical imaging system comprises: - a means (27) for projecting a laser line (21) onto an area of interest (22) of the patient's body, - a means (25) for capturing geometric coordinates of points on the laser line to form a point cloud of the area of interest, and - a means (13) for matching a point cloud of the medical imaging system and the point cloud of the area of interest. Figure for abstract: Figure 1

Description

DISPOSITIF ET PROCÉDÉ DE RECALAGE SANS CONTACT ENTRE UN ROBOT, UN PATIENT ET UNE IMAGERIE MÉDICALECONTACTLESS DEVICE AND METHOD FOR REGISTERING BETWEEN A ROBOT, A PATIENT AND MEDICAL IMAGING Domaine technique de l’inventionTechnical field of the invention

La présente invention vise un dispositif et un procédé de recalage sans contact entre un robot, un patient et une imagerie médicale. Elle s’applique, en particulier au domaine de la chirurgie avec assistance robotisé et plus particulièrement au recalage sans contact et non invasif entre un bras robotisé (actif ou passif), un patient à opérer et au moins une imagerie médicale (issue d’une imagerie en résonnance magnétique, d’acronyme IRM, ou d’un scanner, par exemple) d’une partie à opérer du corps du patient.The present invention relates to a device and a method for contactless registration between a robot, a patient and a medical image. It applies, in particular, to the field of robot-assisted surgery and more specifically to the contactless and non-invasive registration between a robotic arm (active or passive), a patient to be operated on and at least one medical image (from a magnetic resonance imaging, acronym MRI, or a CT scan, for example) of a part of the patient's body to be operated on.

État de la techniqueState of the art

Les approches décrites dans cette section sont des approches qui pourraient être poursuivies, mais pas nécessairement des approches qui ont été conçues ou poursuivies précédemment. Par conséquent, sauf indication contraire, il convient de ne pas supposer que l'une ou l'autre des approches décrites dans cette section constitue un art antérieur du seul fait de son inclusion dans cette section.The approaches described in this section are approaches that could be pursued, but not necessarily approaches that have been previously conceived or pursued. Therefore, unless otherwise stated, it should not be assumed that any of the approaches described in this section constitutes prior art simply because of its inclusion in this section.

Lors d’une intervention chirurgicale utilisant un dispositif d’assistance à la visée robotisée, il est nécessaire d’effectuer un recalage géométrique entre le dispositif d’assistance robotisé, la zone d’intervention sur le corps du patient, ainsi que son imagerie médicale. Le recalage permet de mettre en relation les différents systèmes de coordonnées géométriques afin de leur permettre d’interagir. Différentes techniques de recalage existent aujourd’hui. Il existe des techniques dites « invasives » et d’autres, dites « non invasives », pour l’anatomie humaine. L’une des techniques non invasives est décrite dans le document FR 2 963 693. Elle utilise un pointeur laser afin de scanner la surface de l’anatomie par une succession d’émissions de points lumineux sur la partie du corps du patient à opérer et de repérage, en trois dimensions, de leurs coordonnées géométriques dans le référentiel du robot. Ce type de technique à l’inconvénient d’être longue, à cause du temps que met le pointeur laser à parcourir l’ensemble de la zone d’intérêt (entre 15 et 25 minutes par tentative de recalage). De plus, la précision obtenue dépend fortement de celle des manipulations effectuées par l’opérateur.During surgery using a robotic aiming system, geometric registration is necessary between the robotic aiming system, the surgical site on the patient's body, and their medical imaging. Registration establishes a relationship between the different geometric coordinate systems, enabling them to interact. Various registration techniques exist today. There are "invasive" and "non-invasive" techniques for human anatomy. One non-invasive technique is described in document FR 2 963 693. It uses a laser pointer to scan the anatomical surface by emitting a series of light points onto the area of the patient's body to be operated on and then mapping their three-dimensional geometric coordinates within the robot's reference frame. This type of technique has the disadvantage of being time-consuming, due to the time it takes the laser pointer to scan the entire area of interest (between 15 and 25 minutes per re-alignment attempt). Furthermore, the accuracy obtained is highly dependent on the precision of the operator's manipulations.

Le concept général de l’invention consiste en un recalage sans contact mettant préférentiellement en œuvre un bras robotisé portant une unité de recalage formant, sur la zone d’intérêt du corps du patient un point issu d’un pointeur laser ainsi qu’une ligne dont la largeur est ajustable dans cette zone d’intérêt. Le bras robotisé est préférentiellement utilisé par l’opérateur en mode dit coopératif, sous contrainte planaire/axiale afin de balayer, dans un seul mouvement linéaire, la zone d’intérêt à recaler avec la surface extraite de l’imagerie médicale de ladite anatomie.The general concept of the invention consists of a non-contact registration system preferably employing a robotic arm carrying a registration unit that forms, on the patient's body area of interest, a point from a laser pointer and a line whose width is adjustable within this area of interest. The robotic arm is preferably operated by the operator in a cooperative mode, under planar/axial constraint, to scan, in a single linear movement, the area of interest to be registered with the surface extracted from the medical imaging of said anatomy.

Le mode coopératif est mis en œuvre par l’intermédiaire d’au moins un capteur d’effort placé en bout de bras robotisé, ou directement dans les articulations du bras, si le bras robotisé est un bras dit « actif ».The cooperative mode is implemented via at least one force sensor placed at the end of the robotic arm, or directly in the joints of the arm, if the robotic arm is a so-called "active" arm.

Brève description des figuresBrief description of the figures

D’autres avantages, buts et caractéristiques particulières de l’invention ressortiront de la description non limitative qui suit d’au moins un mode de réalisation particulier du dispositif et du procédé objets de la présente invention, en regard des dessins annexés, dans lesquels :Other advantages, purposes and special features of the invention will become apparent from the following non-limiting description of at least one particular embodiment of the device and method of the present invention, with reference to the accompanying drawings, in which:

FIG. 1représente, schématiquement et en vue de côté, un premier mode de réalisation particulier du dispositif objet de l’invention, au cours d’une étape de positionnement du procédé objet de l’invention, FIG. 1 represents, schematically and in side view, a first particular embodiment of the device that is the subject of the invention, during a positioning step of the process that is the subject of the invention,

FIG. 2représente, schématiquement et en vue de côté, le dispositif illustré enFIG. 1, au cours d’une étape de balayage du procédé objet de l’invention, FIG. 2 represents, schematically and in side view, the device illustrated in FIG. 1 , during a scanning step of the process that is the subject of the invention,

FIG. 3est un exemple de nuage de points issu d’un scan laser en trois dimensions obtenu par la mise en œuvre d’un dispositif objet de l’invention, FIG. 3 is an example of a point cloud resulting from a three-dimensional laser scan obtained through the implementation of a device that is the subject of the invention,

FIG. 4est un exemple de nuage de points issu d’une extraction de surface d’une imagerie médicale en trois dimensions, FIG. 4 is an example of a point cloud resulting from a surface extraction of a three-dimensional medical image,

FIG. 5représente, sous forme d’un logigramme, des étapes d’un mode de réalisation particulier du procédé objet de l’invention, et FIG. 5 represents, in the form of a flowchart, the steps of a particular embodiment of the process that is the subject of the invention, and

FIG. 6représente, schématiquement et en vue de côté, un deuxième mode de réalisation particulier du dispositif objet de l’invention, au cours d’une étape de balayage du procédé objet de l’invention. FIG. 6 represents, schematically and in side view, a second particular embodiment of the device which is the subject of the invention, during a scanning step of the process which is the subject of the invention.

La présente description est donnée à titre non limitatif, chaque caractéristique d’un mode de réalisation pouvant être combinée à toute autre caractéristique de tout autre mode de réalisation de manière avantageuse.The present description is given by way of non-limiting attribution, each feature of an embodiment being able to be advantageously combined with any other feature of any other embodiment.

On note, dès à présent, que les figures ne sont pas à l’échelle.It should be noted from the outset that the figures are not to scale.

Comme on le comprend à la lecture de la présente description, divers concepts inventifs peuvent être mis en œuvre par une ou plusieurs méthodes ou dispositifs décrits ci-après, dont plusieurs exemples sont ici fournis. Les actions ou étapes réalisées dans le cadre de la réalisation du procédé ou du dispositif peuvent être ordonnées de toute manière appropriée. En conséquence, il est possible de construire des modes de réalisation dans lesquels les actions ou étapes sont exécutées dans un ordre différent de celui illustré, ce qui peut inclure l'exécution de certains actes simultanément, même s'ils sont présentés comme des actes séquentiels dans les modes de réalisation illustrés.As can be understood from this description, various inventive concepts can be implemented by one or more of the methods or devices described below, several examples of which are provided herein. The actions or steps performed in implementing the method or device can be ordered in any appropriate manner. Consequently, it is possible to construct embodiments in which the actions or steps are performed in a different order than illustrated, which may include performing certain acts simultaneously, even if they are presented as sequential acts in the illustrated embodiments.

Les articles indéfinis "un" et "une", tels qu'ils sont utilisés dans la description, doivent être compris comme signifiant "au moins un", sauf indication claire du contraire.The indefinite articles "un" and "une", as used in the description, should be understood as meaning "at least one", unless clearly stated otherwise.

L'expression "et/ou", telle qu'elle est utilisée dans le présent document, doit être comprise comme signifiant "l'un ou l'autre ou les deux" des éléments ainsi conjoints, c'est-à-dire des éléments qui sont présents de manière conjonctive dans certains cas et de manière disjonctive dans d'autres cas. Les éléments multiples énumérés avec "et/ou" doivent être interprétés de la même manière, c'est-à-dire "un ou plusieurs" des éléments ainsi conjoints. D'autres éléments peuvent éventuellement être présents, autres que les éléments spécifiquement identifiés par la clause "et/ou", qu'ils soient liés ou non à ces éléments spécifiquement identifiés. Ainsi, à titre d'exemple non limitatif, une référence à "A et/ou B", lorsqu'elle est utilisée conjointement avec un langage ouvert tel que "comprenant" peut se référer, dans un mode de réalisation, à A seulement (incluant éventuellement des éléments autres que B) ; dans un autre mode de réalisation, à B seulement (incluant éventuellement des éléments autres que A) ; dans un autre mode de réalisation encore, à A et B (incluant éventuellement d'autres éléments) ; etc.The expression "and/or", as used in this document, is to be understood as meaning "either or both" of the elements thus joined, that is, elements that are present conjunctively in some cases and disjunctively in others. Multiple elements listed with "and/or" are to be interpreted in the same way, that is, "one or more" of the elements thus joined. Other elements may possibly be present, other than those specifically identified by the "and/or" clause, whether or not they are related to those specifically identified elements. Thus, by way of non-limiting example, a reference to "A and/or B", when used in conjunction with an open language such as "comprising", may refer, in one embodiment, to A only (possibly including elements other than B); in another embodiment, to B only (possibly including elements other than A); in yet another embodiment, at A and B (possibly including other elements); etc.

Tel qu'utilisé ici dans la description, "ou" doit être compris de manière inclusive.As used here in the description, "or" should be understood inclusively.

Telle qu'elle est utilisée dans la présente description, l'expression "au moins un", en référence à une liste d'un ou de plusieurs éléments, doit être comprise comme signifiant au moins un élément choisi parmi un ou plusieurs éléments de la liste d'éléments, mais n'incluant pas nécessairement au moins un de chaque élément spécifiquement énuméré dans la liste d'éléments et n'excluant pas toute combinaison d'éléments dans la liste d'éléments. Cette définition permet également la présence facultative d'éléments autres que les éléments spécifiquement identifiés dans la liste des éléments auxquels l'expression "au moins un" fait référence, qu'ils soient liés ou non à ces éléments spécifiquement identifiés. Ainsi, à titre d'exemple non limitatif, "au moins l'un de A et B" (ou, de manière équivalente, "au moins l'un de A ou B", ou, de manière équivalente, "au moins l'un de A et/ou B") peut se référer, dans un mode de réalisation, à au moins un, incluant éventuellement plus d'un, A, sans B présent (et incluant éventuellement des éléments autres que B) ; dans un autre mode de réalisation, à au moins un, comprenant éventuellement plus d'un, B, sans A présent (et comprenant éventuellement des éléments autres que A) ; dans encore un autre mode de réalisation, à au moins un, comprenant éventuellement plus d'un, A, et au moins un, comprenant éventuellement plus d'un, B (et comprenant éventuellement d'autres éléments) ; etc.As used in this description, the expression "at least one," when referring to a list of one or more items, should be understood as meaning at least one item chosen from one or more items in the list of items, but not necessarily including at least one of each item specifically listed in the list of items and not excluding any combination of items in the list of items. This definition also allows for the optional presence of items other than those specifically identified in the list of items to which the expression "at least one" refers, whether or not they are related to those specifically identified items. Thus, by way of non-limiting example, "at least one of A and B" (or, equivalently, "at least one of A or B", or, equivalently, "at least one of A and/or B") may refer, in one embodiment, to at least one, possibly including more than one, A, without B present (and possibly including elements other than B); in another embodiment, to at least one, possibly including more than one, B, without A present (and possibly including elements other than A); in yet another embodiment, to at least one, possibly including more than one, A, and at least one, possibly including more than one, B (and possibly including other elements); etc.

Dans la description ci-dessous, toutes les expressions transitoires telles que "comprenant", "incluant", "portant", "ayant", "contenant", "impliquant", "tenant", "composé de", et autres, doivent être comprises comme étant ouvertes, c'est-à-dire comme signifiant incluant mais non limité à. Seules les expressions transitoires "consistant en" et "consistant essentiellement en" doivent être comprises comme des expressions transitoires fermées ou semi-fermées, respectivement.In the description below, all transitive expressions such as "comprising", "including", "carrying", "having", "containing", "implying", "holding", "composed of", and others, should be understood as open, that is, as meaning including but not limited to. Only the transitive expressions "consisting of" and "consisting essentially of" should be understood as closed or semi-closed transitive expressions, respectively.

Dans toute la description, les termes « supérieur » et « haut » désignent ce qui est en haut lorsque le dispositif objet de la présente invention est en configuration opérationnelle. Les termes « inférieur » et « bas » désignent ce qui est en bas lorsque le dispositif objet de la présente invention est en configuration opérationnelle. Le terme « intérieur » désigne ce qui est à l’intérieur du dispositif. Le terme « extérieur » désigne ce qui est à l’extérieur du dispositif.Throughout this description, the terms "upper" and "top" refer to what is at the top when the device of the present invention is in its operational configuration. The terms "lower" and "bottom" refer to what is at the bottom when the device of the present invention is in its operational configuration. The term "inside" refers to what is inside the device. The term "outside" refers to what is outside the device.

On observe, sur laFIG. 1, qui n’est pas à l’échelle, un dispositif 10 de recalage sans contact entre un robot 11, un patient 12 et une imagerie médicale conservée en mémoire, par exemple dans une mémoire 13 du robot 11. Le patient 12 est positionné sur une table chirurgicale 14, en vue d’une opération chirurgicale. Le robot comporte un chariot mobile 15 muni de roues 16, et supportant un bras robotisé anthropomorphe 17 comportant des articulations 18. Le bras robotisé 17 supporte, en son extrémité libre une unité 19 de recalage sans contact comportant un moyen 27 de projection d’une ligne laser 21 formée sur la zone d’intervention chirurgicale sur le patient 12, ici la tête 22 du patient 12. L’unité de recalage 19 comporte aussi un moyen de projection d’un point laser 20, aussi appelé pointeur laser, configuré pour mesurer une distance, de manière connue.We observe, on the FIG. 1 A non-contact registration device 10, which is not to scale, is used to connect a robot 11, a patient 12, and medical imaging stored in memory, for example, in a memory 13 of the robot 11. The patient 12 is positioned on a surgical table 14, in preparation for surgery. The robot includes a mobile trolley 15 equipped with wheels 16, supporting an anthropomorphic robotic arm 17 with joints 18. The robotic arm 17 supports, at its free end, a non-contact registration unit 19 comprising a means 27 for projecting a laser line 21 onto the surgical intervention area on the patient 12, here the head 22 of the patient 12. The registration unit 19 also includes a means for projecting a laser point 20, also called a laser pointer, configured to measure a distance in a known manner.

L’unité 19 est aussi munie d’un capteur de distances 25 des points de la ligne laser 21 et d’une poignée 24 avec laquelle l’opérateur 23 peut manipuler cette unité 19. Le capteur de distance 25 comporte, par exemple, un capteur d’image et un moyen de mesure de distance par triangulation, selon des techniques connues.The unit 19 is also equipped with a distance sensor 25 for the points of the laser line 21 and a handle 24 with which the operator 23 can manipulate this unit 19. The distance sensor 25 includes, for example, an image sensor and a means for measuring distance by triangulation, according to known techniques.

L’unité 19 de recalage peut être installée par l’opérateur 23 en extrémité libre du bras 17 comme un «outil». Alternativement, l’unité 19 de recalage est intégrée à cette extrémité du bras 17. L’avantage de l’intégration est d’éviter d’avoir à enlever et remettre l’unité 19 de recalage pendant une intervention chirurgicale, au cas où le recalage serait perdu en cours de cette intervention. Cette intégration évite aussi les erreurs de montage de l’opérateur 23 lors de l’installation de l’unité 19 de recalage en extrémité du bras 17, ces erreurs de montage pouvant entrainer des imprécisions de recalage.The registration unit 19 can be installed by the operator 23 at the free end of the arm 17 as a "tool." Alternatively, the registration unit 19 is integrated into this end of the arm 17. The advantage of integration is that it avoids having to remove and replace the registration unit 19 during a surgical procedure, in case the registration is lost during the procedure. This integration also prevents assembly errors by the operator 23 when installing the registration unit 19 at the end of the arm 17, as these assembly errors could lead to registration inaccuracies.

On retrouve, enFIG. 2, les mêmes éléments qu’enFIG. 1au cours d’une étape de balayage de la tête 22 du patient 12. La flèche 26 représente le sens de balayage de la tête de l’utilisateur par la ligne laser 21.We find, in FIG. 2 the same elements as in FIG. 1 during a scanning step of the patient's head 22. Arrow 26 represents the direction of scanning of the user's head by the laser line 21.

FIG. 3est un exemple de nuage 30 de points 31 issu d’un scan laser en trois dimensions obtenu par la mise en œuvre du dispositif objet de l’invention. Le nuage 30 de points 31 est issu d’une extraction de surface en trois dimensions captée par l’unité 19 par la mise en œuvre de la projection d’une ligne laser 21 et du capteur de distance 25. Chaque point 31 de ce nuage 30 est repéré selon un repère géométrique lié aux conditions de réalisation de la capture de l’image en trois dimensions et donc à la position du robot 11. FIG. 3 is an example of a point cloud 30 of points 31 obtained from a three-dimensional laser scan using the device of the invention. The point cloud 30 of points 31 is generated from a three-dimensional surface image captured by the unit 19 through the projection of a laser line 21 and the distance sensor 25. Each point 31 of this point cloud 30 is located according to a geometric coordinate system linked to the conditions under which the three-dimensional image was captured and therefore to the position of the robot 11.

FIG. 4est un exemple de nuage 40 de points 41 extrait d’une imagerie médicale. Chaque point 41 de ce nuage 40 est repéré selon un repère géométrique lié aux conditions de réalisation de l’imagerie médicale. FIG. 4 is an example of a cloud of 40 points extracted from a medical image. Each point 41 of this cloud is located according to a geometric coordinate system linked to the conditions under which the medical image was acquired.

Pour que le robot 11 puisse virtuellement positionner dans l’espace l’imagerie médicale 40 par rapport à l’espace réel du patient 12, une opération de mise en correspondance (aussi appelée « recalage ») des nuages 30 et 40 de points 31 et 41 est nécessaire. L’imagerie médicale 40 est ainsi repérée dans le repère géométrique du robot 11.In order for the robot 11 to virtually position the medical image 40 in space relative to the actual space of the patient 12, a mapping operation (also called "registration") of the point clouds 30 and 40 of points 31 and 41 is necessary. The medical image 40 is thus located in the geometric coordinate system of the robot 11.

À cet effet, la mise en œuvre du dispositif 10 suit les étapes suivantes du procédé 50 illustré enFIG. 5.To this end, the implementation of device 10 follows the following steps of process 50 illustrated in FIG. 5 .

Au cours d’une étape 51, le robot 11, et notamment le chariot 15 est mis en place en regard de la zone d’intérêt, c’est-à-dire de la zone d’intervention chirurgicale sur le corps du patient 12 (la tête en figures 1 et 2). Le chariot 15 ne bouge plus après l’étape 51, jusqu’à la fin de l’intervention chirurgicale. Préférentiellement, le chariot 15 est muni de pieds à vérins (non représentés) qui sont déployés au cours de l’étape 51 pour interdire tout mouvement du chariot 15. À la fin de l’étape 51, on démarre le robot, et notamment son bras robotisé 17.During step 51, the robot 11, and in particular the carriage 15, is positioned opposite the area of interest, i.e., the surgical intervention area on the patient's body 12 (the head in Figures 1 and 2). The carriage 15 remains stationary after step 51 until the end of the surgical procedure. Preferably, the carriage 15 is equipped with jack legs (not shown) which are deployed during step 51 to prevent any movement of the carriage 15. At the end of step 51, the robot, and in particular its robotic arm 17, is started.

Au cours d’une étape 52, le bras robotisé 17 effectue un prépositionnement automatique pour que son extrémité libre se trouve à proximité de la zone d’intérêt, dans une position où l’opérateur 23 peut facilement installer l’unité 19 de recalage si elle n’est pas intégrée au bras 17. Au cours de cette étape 52, le bras robotisé passe d’une position dite « de rangement » dans laquelle il est relié au-dessus du chariot 15 à une position déployée permettant l’installation facile de l’unité 19 de recalage en extrémité libre du bras 17. Si l’unité 19 est intégrée au bras 17, la position atteinte par le bras 17 est une position permettant à l’opérateur 23 de saisir la poignée 24 pour le déplacer, en mode coopératif, jusqu’à la zone d’intérêt à scanner.During step 52, the robotic arm 17 performs an automatic pre-positioning so that its free end is near the area of interest, in a position where the operator 23 can easily install the registration unit 19 if it is not integrated into the arm 17. During this step 52, the robotic arm moves from a so-called "storage" position in which it is connected above the carriage 15 to a deployed position allowing the easy installation of the registration unit 19 at the free end of the arm 17. If the unit 19 is integrated into the arm 17, the position reached by the arm 17 is a position allowing the operator 23 to grasp the handle 24 to move it, in cooperative mode, to the area of interest to be scanned.

Au cours d’une étape 53, au cas où l’unité de recalage 19 n’est pas intégrée au bras 17, elle est installée à l’extrémité libre du bras robotisé 17.During step 53, in the event that the recalibration unit 19 is not integrated into the arm 17, it is installed at the free end of the robotic arm 17.

Au cours d’une étape 54, l’opérateur 23 positionne grossièrement l’unité de recalage sans contact 19 parallèlement à la zone d’intérêt, en utilisant la poignée 24 de l’unité de recalage 19 et le mode coopératif du bras robotisé 17. En variante, ce positionnement grossier est réalisé automatiquement par le bras robotisé 17.During a step 54, the operator 23 roughly positions the non-contact registration unit 19 parallel to the area of interest, using the handle 24 of the registration unit 19 and the cooperative mode of the robotic arm 17. Alternatively, this rough positioning is carried out automatically by the robotic arm 17.

Le mode coopératif est mis en œuvre par l’intermédiaire d’au moins un capteur d’effort placé en bout de bras robotisé 17, ou directement dans les articulations du bras robotisé, s’il est un bras dit « actif ». Dans ce mode coopératif, le bras peut appliquer des contraintes aux mouvements de son extrémité. Par exemple, les seuls mouvements autorisés, en mode coopératif, à l’extrémité libre du bras robotisé 17 sont dans un plan grossièrement parallèle à la zone d’intérêt ou le long d’une ligne droite grossièrement parallèle à un axe de symétrie de la zone d’intérêt, par exemple le visage du patient 12. Alternativement, le plan est parallèle à la surface supérieure de la table d’opération 14 et/ou l’axe est l’axe parallèle à l’axe longitudinal de la table d’opération 14. C’est la configuration au cours de l’étape 54 qui est illustrée enFIG. 1.The cooperative mode is implemented via at least one force sensor located at the end of the robotic arm 17, or directly in the joints of the robotic arm, if it is an "active" arm. In this cooperative mode, the arm can apply constraints to the movements of its extremity. For example, the only movements permitted, in cooperative mode, at the free end of the robotic arm 17 are in a plane roughly parallel to the area of interest or along a straight line roughly parallel to an axis of symmetry of the area of interest, for example, the patient's face 12. Alternatively, the plane is parallel to the upper surface of the operating table 14 and/or the axis is parallel to the longitudinal axis of the operating table 14. This is the configuration during step 54, which is illustrated in Figure 54. FIG. 1 .

Au cours d’une étape 55, le pointeur laser fournit une distance entre l’unité de recalage 19 et la zone d’intérêt. Sur la base de cette distance mesurée initialement, de manière automatique ou manuelle, on ajuste cette distance en déplaçant l’unité de recalage 19. Cet ajustement est réalisé en tenant compte de ce qu’une distance trop faible peut poser des difficultés en termes de surface de mesure de distance couverte par l’unité de recalage 19 et en termes de stérilité du champ opératoire. Inversement, une distance trop élevée augmente l’incertitude de mesure des distances. Typiquement, la distance ajustée est de l’ordre de 40 centimètres.During step 55, the laser pointer provides a distance between the registration unit 19 and the area of interest. Based on this initially measured distance, the distance is adjusted automatically or manually by moving the registration unit 19. This adjustment is made taking into account that a distance that is too small can cause difficulties in terms of the distance measurement area covered by the registration unit 19 and in terms of the sterility of the surgical field. Conversely, a distance that is too large increases the uncertainty in distance measurements. Typically, the adjusted distance is on the order of 40 centimeters.

Au cours d’une étape 56, on ajuste l’angle de projection du faisceau de lumière laser plan qui fournit une ligne lumineuse sur la peau du patient dans la zone d’intérêt. La longueur de la ligne de faisceau laser est ajustée par l’intermédiaire d’une interface utilisateur (non représentée), par exemple un écran tactile porté par un autre chariot que le chariot 15. On dimensionne ainsi cette ligne lumineuse sur la surface scannée afin d’éviter d’éclairer des éléments externes au patient, par exemple un cadre de stéréotaxie. En variante, on met en œuvre le pointeur laser pour définir les extrémités du champ de projection à couvrir.In step 56, the projection angle of the planar laser beam, which projects a line of light onto the patient's skin in the area of interest, is adjusted. The length of the laser beam line is adjusted via a user interface (not shown), for example, a touchscreen mounted on a cart other than cart 15. This sizing of the light line on the scanned surface avoids illuminating external elements, such as a stereotactic frame. Alternatively, the laser pointer is used to define the edges of the projection field to be covered.

Au cours d’une étape 57, on allume l’unité de recalage laser et on enregistre les coordonnées, dans le repère géométrique du robot, de la position de départ du balayage de la zone d’intérêt avec la ligne lumineuse laser, par l’intermédiaire d’un bouton de commande (non représenté) sur la poignée de l’unité de recalage ou de l’interface utilisateur.During step 57, the laser registration unit is switched on and the coordinates of the starting position of the scan of the area of interest with the laser light line are recorded in the robot's geometric coordinate system, via a control button (not shown) on the handle of the registration unit or the user interface.

Au cours d’une étape 58, le bras robotisé 17 passe en mode coopératif sous contrainte axiale ou planaire parallèlement à la zone d’intérêt.During step 58, the robotic arm 17 switches to cooperative mode under axial or planar constraint parallel to the area of interest.

Au cours d’une étape 59, l’opérateur 23 déplace le bras robotisé 17 sous contrainte axiale ou planaire parallèle à la zone d’intérêt afin de réaliser le balayage de cette zone d’intérêt et la mesure de la distance à l’unité de recalage 19 de chaque point éclairé par la ligne lumineuse. C’est la configuration au début de l’étape 59 qui est illustrée enFIG. 2.During step 59, the operator 23 moves the robotic arm 17 under axial or planar constraint parallel to the area of interest in order to scan this area of interest and measure the distance to the registration unit 19 of each point illuminated by the light line. The configuration at the beginning of step 59 is illustrated in FIG. 2 .

Au cours d’une étape 60, une unité de calcul (non représentée) effectue une extraction d’un nuage de points (surface 3D similaire au nuage 30 de points 31) comme donnée de sortie du balayage laser. On note que cette donnée en trois dimensions de sortie du balayage laser peut être utilisée en chirurgie dite « ouverte », c’est-à-dire en exposant à l’air la partie osseuse de la zone concernée u corps du patient, par exemple une partie du rachis, un genou ou une hanche) sans imagerie « peropératoire » (pendant l’opération), mais avec imagerie « preop » (préopératoire).In step 60, a computing unit (not shown) extracts a point cloud (a 3D surface similar to point cloud 30) as the output data from the laser scan. It should be noted that this three-dimensional output data from the laser scan can be used in so-called "open" surgery, i.e., by exposing the bony part of the area concerned (e.g., part of the spine, a knee, or a hip) to the air, without "intraoperative" (during the operation) imaging, but with "preoperative" (pre-op) imaging.

Au cours d’une étape 61, l’unité de calcul effectue une extraction d’un nuage de points de l’imagerie médicale, similaire au nuage 40 de points 41.During step 61, the computing unit performs a point cloud extraction from the medical imaging, similar to point cloud 40 of 41.

Au cours d’une étape 62, l’unité de calcul utilise un algorithme d’appariement des nuages de points, par exemple de type ICP (acronyme de « iterative closest point » pour itération de point le plus proche) afin de calculer la matrice de passage entre le référentiel de l’espace réel de la zone d’intérêt (en coordonnées géométriques du robot 10) et le référentiel de l’imagerie médicale associée. On fait ainsi coïncider les nuages de points, dans le repère géométrique du robot, en minimisant l’erreur entre ces deux nuages. Préférentiellement, en amont de l’utilisation de cet algorithme, l’opérateur effectue une étape rapide « manuelle » de recalage grossier. Cette étape permet d’accélérer la convergence de l’algorithme automatique ICP. À cet effet, l’opérateur identifie dans les nuages de points du scan laser et de l’imagerie médicale, des zones anatomiques (ou points) équivalents, dans chaque nuage. Un premier recalage dit « grossier » est alors réalisé sur cette base. L’algorithme ICP utilise ce recalage grossier comme données d’entrée.During step 62, the computing unit uses a point cloud matching algorithm, for example, an ICP (Iterative Closest Point) algorithm, to calculate the transformation matrix between the real-space reference frame of the area of interest (in robot 10's geometric coordinates) and the associated medical imaging reference frame. This aligns the point clouds in the robot's geometric coordinate system, minimizing the error between the two clouds. Preferably, before using this algorithm, the operator performs a quick "manual" coarse registration step. This step accelerates the convergence of the automatic ICP algorithm. To this end, the operator identifies equivalent anatomical areas (or points) in the point clouds of the laser scan and the medical imaging. A first, so-called "coarse" registration is then performed based on these. The ICP algorithm uses this coarse registration as input data.

Préférentiellement, un indice de confiance est attribué à l’appariement finalement obtenu, par exemple en mesurant une distance moyenne entre points appariés, et, au cas où l’indice de confiance est trop faible (par exemple, cette distance moyenne est supérieure à une valeur limite prédéterminée), les étapes 55 à 61 sont réalisées une nouvelle fois. On décrit, ci-dessous, deux exemples d’indice de confiance :Preferably, a confidence level is assigned to the final match, for example by measuring an average distance between matched points, and, if the confidence level is too low (for example, this average distance is greater than a predetermined limit), steps 55 to 61 are repeated. Two examples of confidence levels are described below:

1. Un indice global moyen de type RMS (« root mean square error » pour erreur quadratique moyenne) sur l’ensemble du nuage. On affiche la valeur du RMS (par exemple 0,26 mm) obtenue sur l’interface utilisateur, avec un code à deux couleurs (vert acceptable, rouge non acceptable). Si l’indice est vert, l’opérateur peut continuer la procédure. Un indice rouge sur l’interface utilisateur oblige l’opérateur à refaire un scan laser surfacique.1. An overall average RMS (root mean square error) index is calculated for the entire cloud. The resulting RMS value (e.g., 0.26 mm) is displayed on the user interface using a two-color code (green acceptable, red unacceptable). If the index is green, the operator can continue the procedure. A red index on the user interface requires the operator to perform another surface laser scan.

2. Un indice par point (distance entre deux points mis en correspondance entre les deux nuages de points) qui peut être représenté sous forme de cartographie de couleur directement sur l’extraction 3D de l’imagerie médicale ou sur la surface 3D obtenue via le scan laser. Si le taux de points plus éloignés qu’une distance limite prédéterminée (par exemple un millimètre) dépasse une valeur limite (par exemple 10 %) ou si une distance entre points correspondants dépasse une autre distance limite prédéterminée (par exemple trois millimètres), un indice rouge sur l’interface utilisateur oblige l’opérateur à refaire un scan laser surfacique.2. A point index (distance between two points matched between the two point clouds) that can be represented as a color map directly on the 3D extraction of the medical image or on the 3D surface obtained via laser scanning. If the percentage of points farther apart than a predetermined limit (e.g., one millimeter) exceeds a limit value (e.g., 10%), or if a distance between corresponding points exceeds another predetermined limit (e.g., three millimeters), a red index on the user interface requires the operator to perform a new surface laser scan.

Au cours d’une étape 63, l’unité de calcul crée une zone interdite (« NoGo » zone) pour le bras robotisé 17 et son porte-instrument à partir de la surface 3D scannée et/ou de la reconstruction 3D de l’imagerie médicale recalée avec la surface 3D scannée au laser. Cette NoGo Zone prohibe les collisions entre le bras robotisé 17 et le corps du patient 12 au moins dans la zone d’intérêt (le volume complet de la tête 22 dans le cas représenté en figures 1 et 2).In step 63, the computing unit creates a no-go zone for the robotic arm 17 and its instrument holder from the scanned 3D surface and/or the 3D reconstruction of the medical image registered with the laser-scanned 3D surface. This no-go zone prohibits collisions between the robotic arm 17 and the patient's body 12, at least within the area of interest (the entire volume of the head 22 in the case shown in Figures 1 and 2).

On retrouve, dans le deuxième mode de réalisation du dispositif 70 objet de l’invention représenté enFIG. 6, un patient 12 sur une table d’opération 14, et un opérateur 23. Cependant, à la différence du premier mode de réalisation, aucun bras robotisé n’est utilisé pour suivre le mouvement une unité 71 de recalage sans contact comportant un moyen de projection d’un point laser 20 et d’une ligne laser 21 formée sur la zone d’intérêt sur le corps du patient 12, ici sa tête 22. L’unité 71 est aussi munie d’un capteur de distances 25 et d’une poignée 72 avec laquelle l’opérateur 23 peut manipuler cette unité 71. Le capteur de distance 25 comporte, par exemple, un capteur d’image et un moyen de mesure de distance par triangulation, selon des techniques connues.In the second embodiment of device 70, the object of the invention is represented in FIG. 6 a patient 12 on an operating table 14, and an operator 23. However, unlike the first embodiment, no robotic arm is used to follow the movement of a non-contact registration unit 71 comprising a means for projecting a laser point 20 and a laser line 21 formed on the area of interest on the body of the patient 12, here his head 22. The unit 71 is also equipped with a distance sensor 25 and a handle 72 with which the operator 23 can manipulate this unit 71. The distance sensor 25 comprises, for example, an image sensor and a means for measuring distance by triangulation, according to known techniques.

Une caméra de navigation 77 est portée par un bras de positionnement articulé 76, lui-même porté par un chariot 75 support de caméra. Pour repérer, dans l’espace, l’unité 71 de recalage, cette unité 71 est munie d’au moins une référence de navigation 74 est fixée sur l’unité 71. Le champ optique 79 de la caméra 77 couvre les différentes positions de la référence de positionnement 74 au cours du mouvement de l’unité 71.A navigation camera 77 is mounted on an articulated positioning arm 76, itself supported by a camera support carriage 75. To locate the registration unit 71 in space, this unit 71 is equipped with at least one navigation reference 74, which is fixed to the unit 71. The optical field 79 of the camera 77 covers the different positions of the positioning reference 74 during the movement of the unit 71.

Alternativement, pour que l’opérateur 23 n’ait pas à porter l’unité 71 de recalage à bout de bras et pour que le mouvement de l’unité de recalage 71 soit une translation parallèle à l’axe longitudinal de la table d’opération 14, un support de glissement en translation 78, est porté, de manière amovible, par la table d’opération 14. Par exemple, ce support 78 présente, en partie supérieure, deux rails horizontaux parallèles à l’axe longitudinal de la table d’opération 14 de part et d’autre de la tête 22 du patient 12, rails sur lesquels l’unité 71 glisse ou roule sur des roulettes (non représentées) en translation. Ce mouvement est imprimé par l’opérateur 23 et, éventuellement, freiné au niveau des roulettes pour que la capture de points de la surface d’intérêt soit suffisamment dense.Alternatively, to avoid operator 23 having to hold the registration unit 71 at arm's length and to ensure that the movement of the registration unit 71 is a translation parallel to the longitudinal axis of the operating table 14, a sliding support 78 is removable and mounted on the operating table 14. For example, this support 78 has, at its upper end, two horizontal rails parallel to the longitudinal axis of the operating table 14, positioned on either side of the patient's head 22. The unit 71 slides or rolls on casters (not shown) along these rails in translation. This movement is initiated by operator 23 and, if necessary, braked at the casters to ensure sufficiently dense point capture on the surface of interest.

Grâce au repérage géométrique de l’unité de recalage 71, réalisé par la caméra de navigation 77 par l’intermédiaire de chaque référence de navigation 74, les coordonnées des points de la zone d’intérêt dans l’espace de la salle d’opération peuvent être obtenues. Une fois un bras robotisé mis en place, son extrémité libre est, à son tour, repérée dans cet espace, par exemple par la mise en œuvre d’au moins une autre référence de navigation. À cet effet, il faut réaliser un recalage entre le bras robotisé et la caméra de navigation, de la manière suivante. Une référence de navigation est positionnée en extrémité libre du bras robotisé, comme un outil à porter ou en étant intégrée à cette extrémité du bras. Le bras robotisé se déplace ensuite de manière automatique sur différentes positions connues dans l’espace. Ces différentes positions sont enregistrées par la caméra et repérées dans son référentiel géométrique. On peut ensuite faire le lien entre les positions vues par la caméra et les positions des articulations (via les encodeurs des articulations) du bras robotisé. En variante, afin d’éviter le temps de montage de la référence de navigation (pouvant engendrer de mauvais montages et donc des imprécisions) et du déplacement du bras sur différentes positions, une référence de navigation peut être placée à demeure sur le chariot du bras robotisé. Connaissant par conception l’emplacement de cette référence par rapport à l’embase du bras robotisé (et donc à son référentiel), la caméra n’aura qu’à repérer cette référence afin de réaliser la mise en correspondance avec le référentiel du bras robotisé. Les coordonnées des points de la zone d’intérêt, en trois dimensions, peuvent ensuite être mises en correspondance avec les coordonnées du bras robotisé et avec l’imagerie médicale préliminairement mémorisée.Thanks to the geometric positioning of the registration unit 71, performed by the navigation camera 77 via each navigation reference 74, the coordinates of the points in the area of interest within the operating room space can be obtained. Once a robotic arm is in position, its free end is, in turn, located within this space, for example, by implementing at least one other navigation reference. To this end, registration between the robotic arm and the navigation camera must be performed as follows. A navigation reference is positioned at the free end of the robotic arm, either as a tool to be worn or by being integrated into this end of the arm. The robotic arm then moves automatically to different known positions in space. These different positions are recorded by the camera and located in its geometric reference frame. The positions seen by the camera can then be linked to the positions of the joints (via the joint encoders) of the robotic arm. Alternatively, to avoid the time required to set up the navigation reference (which can lead to incorrect setups and therefore inaccuracies) and to move the arm to different positions, a navigation reference can be permanently mounted on the robotic arm's carriage. Since the location of this reference relative to the robotic arm's base (and therefore its frame of reference) is inherently known, the camera simply needs to locate this reference to align it with the robotic arm's frame of reference. The three-dimensional coordinates of the points in the area of interest can then be matched with the coordinates of the robotic arm and with the previously stored medical images.

L’unité de recalage 71 comporte les mêmes moyens d’ajustement de l’angle de projection de la ligne laser 21 ou de la longueur de la ligne laser 21 que l’unité de recalage 19 décrite en regard des figures 1 et 2.The registration unit 71 includes the same means for adjusting the projection angle of the laser line 21 or the length of the laser line 21 as the registration unit 19 described opposite Figures 1 and 2.

Bien que, dans les modes de réalisation du dispositif objet de l’invention décrit ci-dessus, le capteur de distances 25 soit monté sur le bras robotisé 17, dans d’autres modes de réalisation, ce capteur de distances est monté sur un autre chariot que le bras robotisé. Bien entendu, le référentiel géométrique de ce capteur de distances est alors fixe et la matrice de transformation de coordonnées dans ce référentiel en coordonnées dans le référentiel du robot est alors préliminairement déterminée.Although, in the embodiments of the device described above, the distance sensor 25 is mounted on the robotic arm 17, in other embodiments, this distance sensor is mounted on a carriage other than the robotic arm. Naturally, the geometric reference frame of this distance sensor is then fixed, and the coordinate transformation matrix from this reference frame to coordinates in the robot's reference frame is then predetermined.

Présentation de l’inventionPresentation of the invention

La présente invention vise à remédier à tout ou partie des inconvénients de l’état de l’art.The present invention aims to remedy all or part of the drawbacks of the state of the art.

À cet effet, selon un premier aspect, la présente invention vise un dispositif de recalage sans contact entre un robot, un patient et une imagerie médicale, qui comporte :
- un moyen de projection d’une ligne laser sur une zone d’intérêt du patient,
- un moyen de capture de coordonnées géométriques de points de la ligne laser pour former un nuage de points de la zone d’intérêt, et
- un moyen d’appariement d’un nuage de points de l’imagerie médicale et du nuage de points de la zone d’intérêt.
To this end, according to a first aspect, the present invention relates to a contactless registration device between a robot, a patient and medical imaging, which comprises:
- a means of projecting a laser line onto an area of interest on the patient,
- a means of capturing geometric coordinates of points on the laser line to form a point cloud of the area of interest, and
- a means of matching a point cloud from medical imaging and the point cloud of the area of interest.

Ainsi, le moyen de projection forme, sur la zone d’intérêt du corps du patient, au moins une ligne permettant la capture simultanée de coordonnées géométriques en trois dimensions de points de la zone d’intérêt. Un seul mouvement linéaire du moyen de projection permet ainsi de capter les coordonnées géométriques en trois dimensions de l’ensemble de la zone d’intérêt à recaler avec la surface extraite de l’imagerie médicale de ladite anatomie.Thus, the projection device forms, on the area of interest of the patient's body, at least one line allowing the simultaneous capture of three-dimensional geometric coordinates of points within that area. A single linear movement of the projection device thus captures the three-dimensional geometric coordinates of the entire area of interest, which must then be aligned with the surface extracted from the medical imaging of said anatomy.

La mise en œuvre de la présente invention permet un recalage géométrique entre le robot, la zone d’intérêt sur le corps du patient et l’imagerie médicale. Ce recalage est effectué sans contact avec le corps du patient, donc de manière non invasive. La mise en œuvre de l’invention réduit considérablement la durée nécessaire pour réaliser une acquisition de nuage de points de la surface anatomique d’intérêt. Typiquement, on passe de 15 à 20 minutes, dans l’art antérieur utilisant un recalage à pointeur laser, à moins de cinq minutes. Ce gain de temps permet une réduction de la durée d’occupation de la salle d’opération et de la durée d’anesthésie et ses conséquences néfastes pour le patient, surtout si le recalage doit être renouvelé en cours d’intervention chirurgicale, au cas où le recalage est perdu, par exemple si le robot a bougé. L’invention diminue aussi la dépendance de la précision du recalage à l’opérateur et elle améliore l’expérience utilisateur de l’opérateur.The implementation of the present invention enables geometric registration between the robot, the area of interest on the patient's body, and the medical imaging. This registration is performed without contact with the patient's body, and is therefore non-invasive. The implementation of the invention significantly reduces the time required to acquire a point cloud of the anatomical surface of interest. Typically, this time is reduced from 15 to 20 minutes in the prior art using laser pointer registration to less than five minutes. This time saving reduces the operating room time and the duration of anesthesia, and its potentially harmful consequences for the patient, especially if the registration needs to be repeated during surgery if it is lost, for example, if the robot has moved. The invention also reduces the operator's dependence on registration accuracy and improves the operator's user experience.

Dans des modes de réalisation, le moyen de projection de la ligne laser comporte, de plus, un moyen d’ajustement de l’angle de projection de la ligne laser et/ou de la longueur de la ligne laser.In some embodiments, the laser line projection means further includes a means for adjusting the projection angle of the laser line and/or the length of the laser line.

On dimensionne ainsi la ligne laser sur la surface scannée afin d’éviter d’éclairer des éléments externes au patient, par exemple un cadre de stéréotaxie. On évite ainsi des artefacts de capture de coordonnées géométriques de points de la ligne laser sur la zone d’intérêt.The laser line is sized accordingly on the scanned surface to avoid illuminating elements external to the patient, such as a stereotactic frame. This prevents artifacts from capturing the geometric coordinates of points on the laser line within the area of interest.

Dans des modes de réalisation, le dispositif objet de l’invention comporte, de plus, un pointeur laser de mesure de distance entre l’unité de capture de coordonnées géométriques et la zone d’intérêt.In some embodiments, the device of the invention further comprises a laser pointer for measuring the distance between the geometric coordinate capture unit and the area of interest.

Cet ajustement est réalisé en tenant compte de ce qu’une distance trop faible peut poser des difficultés en termes de surface de mesure de distance couverte par le moyen de capture et en termes de stérilité du champ opératoire. Inversement, une distance trop élevée augmente l’incertitude de mesure des distances.This adjustment is made taking into account that a distance that is too short can pose difficulties in terms of the area covered by the capture device for distance measurement and in terms of the sterility of the operating field. Conversely, a distance that is too long increases the uncertainty in distance measurements.

Dans des modes de réalisation, le dispositif objet de l’invention comporte, de plus, le robot muni d’un bras comportant au moins un capteur d’effort, le robot étant configuré pour fonctionner en mode coopératif.In some embodiments, the device of the invention further comprises the robot equipped with an arm having at least one force sensor, the robot being configured to operate in cooperative mode.

Les mouvements de l’opérateur mettant en œuvre le dispositif objet de l’invention sont ainsi mesurés par les capteurs d’efforts, ce qui permet au robot de connaître les coordonnées géométriques de l’unité de capture dans son propre référentiel géométrique. La géométrie de l‘unité de capture est connue, par conception, par rapport au bras robotisé. L’unité de capture est montée en bout de bras ou directement incorporée au bras. Les encodeurs des articulations du bras robotisé permettent d’obtenir les coordonnées du bout de bras dans le référentiel du robot. Connaissant la géométrie de l’unité de capture, on en déduit les coordonnées de l’unité de capture par rapport aux coordonnées du bout de bras.The movements of the operator using the device that is the subject of the invention are measured by force sensors, allowing the robot to determine the geometric coordinates of the capture unit in its own geometric reference frame. The geometry of the capture unit is known, by design, relative to the robotic arm. The capture unit is mounted at the end of the arm or directly integrated into the arm. The encoders of the robotic arm's joints provide the coordinates of the arm end in the robot's reference frame. Knowing the geometry of the capture unit, its coordinates relative to the coordinates of the arm end can be deduced.

Dans des modes de réalisation, le robot est configuré pour fonctionner en mode coopératif contraignant le déplacement du moyen de capture dans un plan ou le long d’un axe.In some embodiments, the robot is configured to operate in cooperative mode, constraining the movement of the capture means in a plane or along an axis.

L’opérateur mettant en œuvre le dispositif objet de l’invention est ainsi aidé par le bras robotisé à suivre un déplacement facilitant l’acquisition 3D de la surface d’intérêt.The operator implementing the device that is the subject of the invention is thus helped by the robotic arm to follow a movement facilitating the 3D acquisition of the surface of interest.

Dans des modes de réalisation, le robot est un robot d’assistance à la visée.In some embodiments, the robot is a aiming assistance robot.

Ainsi le référentiel du robot recalé, à la fois, vis-à-vis de la zone d’intérêt et vis-à-vis de l’imagerie médicale permet au bras robotisé de positionner de manière très précise (à moins d’un millimètre près) et stable dans l’espace réel, un guide d’instrument chirurgical permettant au chirurgien de viser, via l’insertion de l’instrument chirurgical dans le guide porté par le robot, une zone anatomique dans l’espace réel à partir d’une zone cible et d’une zone d’entrée qu’il aura préalablement identifiées dans les imageries médicales du patient.Thus, the robot's reference frame, calibrated both with respect to the area of interest and with respect to the medical imaging, allows the robotic arm to position a surgical instrument guide very precisely (to within one millimeter) and stably in real space, enabling the surgeon to target, via the insertion of the surgical instrument into the guide carried by the robot, an anatomical area in real space from a target area and an entry area that he will have previously identified in the patient's medical imaging.

Dans des modes de réalisation, le dispositif objet de l’invention comporte, de plus, une caméra de navigation, et une unité de recalage munie d’une référence fixe par rapport à l’unité de recalage.In some embodiments, the device of the invention further comprises a navigation camera, and a calibration unit equipped with a fixed reference relative to the calibration unit.

Cette caméra de navigation peut ainsi déterminer les coordonnées géométriques du moyen de capture, dans son référentiel géométrique, et donc de la zone d’intérêt toujours dans ce référentiel.This navigation camera can thus determine the geometric coordinates of the capture means, in its geometric reference frame, and therefore of the area of interest also in this reference frame.

Selon un deuxième aspect, la présente invention vise un procédé de recalage sans contact entre un robot, un patient et une imagerie médicale, qui comporte :
- une étape de projection d’une ligne laser sur une zone d’intérêt du corps du patient,
- une étape de capture de coordonnées géométriques de points de la ligne laser pour former un nuage de points de la zone d’intérêt, et
- une étape d’appariement d’un nuage de points de l’imagerie médicale et du nuage de points de la zone d’intérêt.
According to a second aspect, the present invention relates to a contactless registration method between a robot, a patient, and medical imaging, which comprises:
- a step involving the projection of a laser line onto an area of interest on the patient's body,
- a step of capturing geometric coordinates of points on the laser line to form a point cloud of the area of interest, and
- a step of matching a point cloud from the medical imaging and the point cloud of the area of interest.

Les avantages, buts et caractéristiques particulières de ce procédé étant similaires à ceux du dispositif objet de l’invention, ils ne sont pas rappelés ici.The advantages, purposes and particular characteristics of this process being similar to those of the device which is the subject of the invention, they are not recalled here.

Dans des modes de réalisation, le procédé objet de l’invention comporte, de plus, une étape de création d’une zone géométrique interdite pour le bras robotisé à partir du nuage de points de la zone d’intérêt et/ou de l’imagerie médicale recalée avec le nuage de points de la zone d’intérêt.In embodiments, the method of the invention further comprises a step of creating a geometrically forbidden zone for the robotic arm from the point cloud of the area of interest and/or from medical imaging registered with the point cloud of the area of interest.

On assure ainsi une meilleure sécurité du patient, grâce à la création d’une « NoGo » zone autour du corps du patient.This ensures better patient safety, thanks to the creation of a "NoGo" zone around the patient's body.

Claims (12)

Dispositif (10, 70) de recalage sans contact entre un robot (17), un patient (12) et une imagerie médicale, caractérisé en ce qu’il comporte :
- un moyen (27) de projection d’une ligne laser (21) sur une zone d’intérêt (22) du corps du patient,
- un moyen (25) de capture de coordonnées géométriques de points de la ligne laser pour former un nuage (40) de points (41) de la zone d’intérêt, et
- un moyen (13) d’appariement d’un nuage (30) de points (31) de l’imagerie médicale et du nuage de points de la zone d’intérêt.
A contactless registration device (10, 70) between a robot (17), a patient (12) and a medical imaging system, characterized in that it comprises:
- a means (27) for projecting a laser line (21) onto an area of interest (22) on the patient's body,
- a means (25) for capturing geometric coordinates of points on the laser line to form a point cloud (40) of points (41) of the area of interest, and
- a means (13) of matching a cloud (30) of points (31) of the medical imaging and the point cloud of the area of interest.
Dispositif (10, 70) selon la revendication 1, dans lequel le moyen (27) de projection de la ligne laser (21) comporte, de plus, un moyen d’ajustement de l’angle de projection de la ligne laser et/ou de la longueur de la ligne laser.Device (10, 70) according to claim 1, wherein the means (27) for projecting the laser line (21) further comprises a means for adjusting the projection angle of the laser line and/or the length of the laser line. Dispositif (10, 70) selon l’une des revendications 1 ou 2, qui comporte, de plus, un pointeur laser de mesure de distance entre l’unité de capture de coordonnées géométriques et la zone d’intérêt.Device (10, 70) according to claim 1 or 2, further comprising a laser pointer for measuring the distance between the geometric coordinate capture unit and the area of interest. Dispositif (10) selon l’une des revendications 1 à 3, qui comporte, de plus, le robot (11) muni d’un bras (17) comportant au moins un capteur d’effort, le robot étant configuré pour fonctionner en mode coopératifDevice (10) according to any one of claims 1 to 3, further comprising the robot (11) equipped with an arm (17) having at least one force sensor, the robot being configured to operate in cooperative mode Dispositif (10) selon la revendication 4, dans lequel le robot (17) est configuré pour fonctionner en mode coopératif contraignant le déplacement du moyen de capture (25) dans un plan ou le long d’un axe.Device (10) according to claim 4, wherein the robot (17) is configured to operate in cooperative mode constraining the movement of the capture means (25) in a plane or along an axis. Dispositif (10) selon l’une des revendications 4 ou 5, dans lequel le robot (17) est un robot d’assistance à la visée.Device (10) according to any one of claims 4 or 5, wherein the robot (17) is a aiming assistance robot. Dispositif (10, 70) selon l’une des revendications 1 à 6, qui comporte, de plus, une caméra de navigation (77), et une unité de recalage (19, 71) munie d’une référence (74) fixe par rapport à l’unité de recalage.Device (10, 70) according to any one of claims 1 to 6, further comprising a navigation camera (77), and a recalibration unit (19, 71) provided with a reference (74) fixed relative to the recalibration unit. Procédé (50) de recalage sans contact entre un robot (17), un patient (12) et une imagerie médicale, caractérisé en ce qu’il comporte :
- une étape (59) de projection d’une ligne laser (21) sur une zone d’intérêt (22) du corps du patient (12),
- une étape (59, 60) de capture de coordonnées géométriques de points de la ligne laser pour former un nuage (40) de points (41) de la zone d’intérêt, et
- une étape (62) d’appariement d’un nuage (30) de points (31) de l’imagerie médicale et du nuage de points de la zone d’intérêt.
Method (50) for contactless registration between a robot (17), a patient (12) and a medical imaging system, characterized in that it comprises:
- a step (59) of projecting a laser line (21) onto an area of interest (22) on the patient's body (12),
- a step (59, 60) of capturing geometric coordinates of points on the laser line to form a point cloud (40) of points (41) of the area of interest, and
- a step (62) of matching a cloud (30) of points (31) of the medical imaging and the point cloud of the area of interest.
Procédé (50) selon la revendication 8, qui comporte, de plus, une étape (56) d’ajustement de l’angle de projection de la ligne laser (21) et/ou de la longueur de la ligne laser.Method (50) according to claim 8, which further comprises a step (56) of adjusting the projection angle of the laser line (21) and/or the length of the laser line. Procédé (50) selon l’une des revendications 8 ou 9, qui comporte, de plus, une étape (55) d’ajustement de la distance entre un moyen (27) de projection de la ligne laser (21) et la zone d’intérêt (22).Method (50) according to any one of claims 8 or 9, further comprising a step (55) of adjusting the distance between a means (27) for projecting the laser line (21) and the area of interest (22). Procédé (50) selon l’une des revendications 8 à 10, dans lequel, au cours de l’étape (59, 60) de capture, le robot (17) fonctionne en mode coopératif contraignant le déplacement d’un moyen de capture (25) dans un plan ou le long d’un axe.Method (50) according to any one of claims 8 to 10, wherein, during the capture step (59, 60), the robot (17) operates in cooperative mode constraining the movement of a capture means (25) in a plane or along an axis. Procédé (50) selon l’une des revendications 8 à 11, qui comporte, de plus, une étape (63) de création d’une zone géométrique interdite pour le bras robotisé (17) à partir du nuage (30) de points (31) de la zone d’intérêt (22) et/ou de l’imagerie médicale (40) recalée avec le nuage de points de la zone d’intérêt.Method (50) according to any one of claims 8 to 11, which further comprises a step (63) of creating a geometric forbidden zone for the robotic arm (17) from the point cloud (30) (31) of the area of interest (22) and/or from the medical imaging (40) registered with the point cloud of the area of interest.
FR2403817A 2024-04-12 2024-04-12 DEVICE AND METHOD FOR CONTACTLESS RECALIBRATION BETWEEN A ROBOT, A PATIENT AND MEDICAL IMAGING Pending FR3161098A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2403817A FR3161098A1 (en) 2024-04-12 2024-04-12 DEVICE AND METHOD FOR CONTACTLESS RECALIBRATION BETWEEN A ROBOT, A PATIENT AND MEDICAL IMAGING
PCT/EP2025/060249 WO2025215256A1 (en) 2024-04-12 2025-04-14 Device and method for contactless registration between a robot and a patient and medical imaging

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2403817A FR3161098A1 (en) 2024-04-12 2024-04-12 DEVICE AND METHOD FOR CONTACTLESS RECALIBRATION BETWEEN A ROBOT, A PATIENT AND MEDICAL IMAGING
FR2403817 2024-04-12

Publications (1)

Publication Number Publication Date
FR3161098A1 true FR3161098A1 (en) 2025-10-17

Family

ID=91923972

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2403817A Pending FR3161098A1 (en) 2024-04-12 2024-04-12 DEVICE AND METHOD FOR CONTACTLESS RECALIBRATION BETWEEN A ROBOT, A PATIENT AND MEDICAL IMAGING

Country Status (2)

Country Link
FR (1) FR3161098A1 (en)
WO (1) WO2025215256A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2963693A1 (en) 2010-08-04 2012-02-10 Medtech PROCESS FOR AUTOMATED ACQUISITION AND ASSISTED ANATOMICAL SURFACES
CN114098985A (en) * 2021-11-29 2022-03-01 北京柏惠维康科技有限公司 Method, device, equipment and medium for spatial matching of patient and medical image of patient
CN116245920A (en) * 2023-01-05 2023-06-09 北京柏惠维康科技股份有限公司 Point cloud registration method, device, equipment and medium for patient face
CN117396152A (en) * 2021-03-31 2024-01-12 月球外科公司 Co-operating surgical system for use with surgical instruments for performing laparoscopic surgery

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2801185A1 (en) * 1999-11-18 2001-05-25 Francois Fassi Allouche SECURE VIDEO ENDOSCOPE WITH INTEGRATED LASER PROFILOMETER FOR COMPUTER-ASSISTED SURGERY
US10812778B1 (en) * 2015-11-09 2020-10-20 Cognex Corporation System and method for calibrating one or more 3D sensors mounted on a moving manipulator
US20220409314A1 (en) * 2016-06-20 2022-12-29 Avra Medical Robotics, Inc. Medical robotic systems, operation methods and applications of same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2963693A1 (en) 2010-08-04 2012-02-10 Medtech PROCESS FOR AUTOMATED ACQUISITION AND ASSISTED ANATOMICAL SURFACES
CN117396152A (en) * 2021-03-31 2024-01-12 月球外科公司 Co-operating surgical system for use with surgical instruments for performing laparoscopic surgery
CN114098985A (en) * 2021-11-29 2022-03-01 北京柏惠维康科技有限公司 Method, device, equipment and medium for spatial matching of patient and medical image of patient
CN116245920A (en) * 2023-01-05 2023-06-09 北京柏惠维康科技股份有限公司 Point cloud registration method, device, equipment and medium for patient face

Also Published As

Publication number Publication date
WO2025215256A1 (en) 2025-10-16

Similar Documents

Publication Publication Date Title
EP2601607B1 (en) Method for the automated and assisted acquisition of anatomical surfaces
US20190192262A1 (en) System, device and method for dental intraoral scanning
US7705291B2 (en) Apparatus and method for wound diagnosis
FR3048872A1 (en) AUTOMATED TRACING METHOD AND DEVICE FOR A SURGICAL ROBOT
US20150097931A1 (en) Calibration of 3d scanning device
FR2932677A1 (en) SYSTEM FOR ASSISTING THE IMPLANTATION OF A HIP PROSTHESIS ON AN INDIVIDUAL.
WO2012002406A1 (en) Optical coherence tomography and method thereof
EP3427665B1 (en) Method and system for online calibration of a medical x-ray device
JP6646041B2 (en) Method for acquiring optical coherence tomographic image data of retinal tissue of a human subject's eye
WO2002036031A1 (en) System for determining the position of a knee prosthesis
FR2779339A1 (en) MATCHING METHOD AND APPARATUS FOR ROBOTIC SURGERY, AND MATCHING DEVICE COMPRISING APPLICATION
EP2157931A2 (en) Multi-application robotised platform for neurosurgery and resetting method
US20150097968A1 (en) Integrated calibration cradle
EP4190231B1 (en) Method for tomographic imaging of oral cavity using the same
EP3648704A1 (en) Tracked dental measurement device
US12402988B2 (en) Multimodal intraoral scanning
FR3161098A1 (en) DEVICE AND METHOD FOR CONTACTLESS RECALIBRATION BETWEEN A ROBOT, A PATIENT AND MEDICAL IMAGING
WO2020115249A1 (en) Medical device for eye surgery
FR3094889A1 (en) Device and method for controlling the breathing of a patient for a medical robot
FR2801185A1 (en) SECURE VIDEO ENDOSCOPE WITH INTEGRATED LASER PROFILOMETER FOR COMPUTER-ASSISTED SURGERY
Rajput et al. High accuracy 3D data acquisition using co-registered OCT and kinect
EP4438004A1 (en) Method for obtaining crown region shape using intraoral scanner having tomographic imaging function
FR3069428B1 (en) SYSTEM FOR ASSISTING REPOSITIONING OF AT LEAST ONE DERMATOLOGICAL TRACKING AREA, METHOD AND COMPUTER PROGRAM THEREOF
Zhang MEMS-VCSEL swept-source optical coherence tomography for multi-MHz endoscopic structural and angiographic imaging
Ngo et al. Image-guided removal of interproximal lesions with a CO2 laser

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20251017