Procédé d'assistance et de guidage de navigation d'un outil dans des structures anatomiques.
A - DOMAINE DE L'INVENTION
Le domaine de l'invention est celui de la planification et de l'assistance par ordinateur aux interventions. L'invention s'applique dans le cadre d'une intervention à accès minimal (chirurgie non-ouverte) ou en complément d'une chirurgie conventionnelle (ouverte).
Plus précisément, l'invention concerne un procédé d'assistance et de guidage de navigation d'un outil dans des structures anatomiques. Le diagnostic et la thérapie à accès minimal est un des domaines de recherche les plus actifs dans lequel l'imagerie virtuelle et les microtechniques trouveront une place majeure. Ces nouvelles pratiques concernent l'ensemble de la chirurgie (chirurgie générale, vasculaire, urologie, orthopédie, neurologie, gynécologie, etc). Elles présentent l'avantage d'une récupération post-opératoire rapide et d'une réduction des temps d'hospitalisation et de convalescence. Toutefois l'accessibilité réduite dans la zone d'intervention, la limitation des degrés de liberté pour la manipulation et le contrôle des instruments, ainsi que le champ de vision local et restreint, rendent l'acte de plus en plus délicat et difficile à réaliser.
A titre d'exemple, l'imagerie 2D à Rayons X constitue actuellement la principale source d'imagerie peropératoire pour la localisation lors de procédures interventionnelles à accès minimal. Le guidage de procédures interventionnelles par l'image se traduit encore le plus souvent par une reconstruction 3D mentale exécutée par le praticien au cours de l'intervention. L'accroissement de la dextérité du praticien exigée par ces nouvelles techniques interventionnelles atteint sa limite et ne suffit pas à elle seule à répondre aux critères de sécurisation, de fiabilisation et de traçabilité du geste imposés par le contexte institutionnel.
La planification, l'assistance et le guidage de l'acte interventionnel par ordinateur s'impose comme une solution d'avenir. Plusieurs approches sont possibles en fonction de l'attribution et de la répartition des niveaux décisionnels entre l'homme et la machine. Elles concernent ainsi les interventions assistées et guidées par l'image, les
gestes robotisés asservis pouvant aller jusqu'à des actions robotisées autonomes pour les gestes simples. Dans tous les cas, des problèmes communs de localisation et de conduite de navigation se posent, us peuvent être avantageusement résolus par la définition d'un environnement virtuel dans lequel s'effectue le planning préopératoire et sa confrontation pendant l'intervention à l'environnement réel dans lequel le geste est effectué.
Dans le cas de la chirurgie classique (ou chirurgie ouverte), de certaines procédures de chirurgies à accès minimale, ou encore de procédures de traitement particulières (radiothérapie), une partie de l'outil interventionnel reste hors du patient et donc visible de l'extérieur. L'emploi de dispositifs tels que des localisateurs 3D optiques ou électromagnétiques permet de localiser l'outil au cours de l'intervention par rapport à des données image préopératoires 3D. Il est toutefois nécessaire d'avoir recours à des phases de calibrage et d'étalonnage et surtout de mettre en correspondance les référentiels 3D préopératoire et peropératoire. Cette mise en correspondance ou recalage est réalisée le plus souvent sur des repères rigides qui peuvent être anatomiques (repères osseux) ou bien artificiels (marqueurs, cadre stéréotaxique, outils rigides implantés dans les structures osseuses). Dans ce cas, les repères anatomiques ou les marqueurs artificiels sont observables dans l'acquisition préopératoire 3D. Ils sont observés lors de l'intervention par au moins deux images prises sous deux incidences différentes, ou bien par un système de localisation 3D, afin de mettre en correspondance les référentiels 3D préopératoire et peropératoire.
L'utilisation d'un dispositif de contention (casque stéréotaxique, masque thermoformé, matelas moulé, système d'immobilisation des jambes et des pieds) est un moyen possible pour fournir une certaine reproductibilité de la position du patient entre deux installations (acquisition préopératoire, acquisition et traitement peropératoire).
D'une manière générale, il est difficile d'assurer une reproductibilité satisfaisante de l'installation du patient et donc de la localisation, à moins d'utiliser des systèmes invasifs (casques stéréotaxiques par exemple), ces systèmes invasifs n'étant de surcroît efficaces que pour le repositionnement de structures rigides ou de structures liées rigidement à celles dans lesquelles ils sont implantés. Des systèmes de numérisation de
la surface externe du patient (capteur de forme), qui est aussi visible au cours de l'intervention, peuvent venir aider au recalage et ainsi éviter l'utilisation de dispositifs de contention invasifs ou non. L'intérêt réside dans le confort apporté au patient, mais leur utilisation dans le champ opératoire peut s'avérer délicate et coûteuse (stérilisation), tout en ne satisfaisant pas aux contraintes de liens rigides entre les structures anatomiques. De plus, ces différentes solutions imposent souvent une mise en place ou une utilisation unique en début de procédure, voire avant l'acquisition préopératoire, et donc un recalage unique qui est difficilement ré-ajustable au cours de l'intervention en raison des contraintes ou de la lourdeur des protocoles qu'elles imposent. Lorsqu'il s'agit de structures anatomiques de nature arborescente et tubulaire telles que les voies vasculaires, urinaires, digestives, ou bronchiques, les procédures interventionnelles sont de plus en plus réalisées par des techniques de type « accès minimal », c'est-à-dire par introduction de l'outil par ponction percutanée ou par les voies naturelles. Les structures anatomiques concernées ne présentent pas généralement un lien rigide avec des structures osseuses. Elles peuvent dans certains cas se déformer entre deux installations du patient, voire être en mouvement pour une installation donnée. Le recalage des référentiels préopératoire et peropératoire nécessite le développement de nouvelles solutions pour proposer au praticien un système d'assistance et de guidage de l'intervention par ordinateur qui permettra de fiabiliser et de sécuriser l'intervention. Par exemple, dans le domaine des interventions vasculaires
(chirurgie endovasculaire, radiologie interventionnelle), il n'existe pas à l'heure actuelle de système de geste assisté par ordinateur permettant de planifier de manière réaliste une procédure endovasculaire et aucun système ne permet, à la connaissance des inventeurs, de suivre ou de guider précisément les outils en relation avec l'acte planifié. Outre les particularités liées aux structures anatomiques considérées, les interventions à accès minimal nécessitent des procédures de recalage à accès minimal. Il s'agit de localiser des outils flexibles ou bien rigides qui sont totalement insérés dans les structures anatomiques. Si la localisation relative de tels outils pourrait être réalisée par des dispositifs électromagnétiques ou radiofréquences (avec introduction intra- corporelle de micro-capteurs ou -émetteurs), ceux-ci sont encore à l'état de projet ou très
récents (au stade de l'évaluation) et ne résolvent pas les problèmes de localisation absolue. En effet, la localisation relative permet d'estimer la position et l'orientation de l'outil dans un référentiel d'acquisition 3D peropératoire, mais il reste nécessaire de mettre en correspondance ce référentiel avec le référentiel 3D préopératoire par une procédure de recalage. D'autre part, il paraît difficile de se passer de l'imagerie peropératoire 2D (à rayons X, par résonance magnétique nucléaire, par ultrason, ...) qui constitue la référence visuelle en cas d'incertitude et qui permet d'effectuer le contrôle immédiat du résultat de la procédure mterventionnelle. Pour ces deux raisons, qui s'imposent dans la grande majorité des interventions, l'acquisition 2D reste l'élément principale de décision pour le praticien.
B - ETAT DE LA TECHNIQUE Certaines techniques de localisation faisant appel à l'acquisition d'images 2D peropératoires sont issues de problèmes posés à l'origine en termes de reconstruction 3D. Il est alors nécessaire de faire l'acquisition d'au moins deux images prises sous des incidences différentes, typiquement 90° entre les deux angles de prise de vue. La localisation est alors réalisée par triangulation ce qui impose la reproduction ou la conservation des mêmes angles de prise de vue pendant toute l'intervention. Il est possible d'avoir recours à des systèmes d'imagerie bi-plans plus coûteux et difficilement conciliables avec un environnement interventionnel standard. Ces systèmes utilisés par exemple en cardiologie le sont de moins en moins actuellement en raison de l'évolution des techniques d'acquisition préopéartoires ou peropératoires (scanner multi-barettes, morphomètre 3D, angiographie rotationnelle). D'une manière générale, une phase de recalage permettant d'estimer la transformation géométrique entre les deux référentiels préopératoire et peropératoire doit être envisagée préalablement à toute localisation. Parmi les travaux connus exploitant des images peropératoires 2D à Rayons X dans un processus de recalage 3D - 2D pour la localisation, très peu font l'hypothèse d'une seule incidence d'acquisition. A la connaissance des inventeurs, les approches actuellement mises à la disposition du public sont celles rappelées brièvement ci-après.
On connaît à travers le document « FELDMAR et al., 3D-2D projective registration of free-form curves and surfaces, Rapport INRIA 2434, 1994. (et Computer
Vision and Image Understanding, vol. 65, no. 3, 01/03/1997) », une méthodologie de recalage perspective 3D-2D de courbes et de surfaces gauches. Il s'agit de déterminer la transformation projective (composition d'une transformation rigide et d'une transformation perspective) qui amène un objet 3D sur une image 2D de cet objet. Une première estimée de la transformation est déterminée en utilisant des lignes et des plans bitangents. Une distance entre l'objet 3D (qui peut être constitué de courbes 3D) et l'image 2D est alors définie en considérant les tangentes. Cette distance est minimisée en utilisant une extension de l'algorithme ICP. Des applications possibles sont citées dans le domaine de la radiologie mterventionnelle. Les résultats reportés concernent les structures vasculaires cérébrales dont un volume préopératoire 3D est acquis par un morphomètre (angiographie rotationnelle) et l'image peropératoire 2D est une angiographie. Aucun descriptif ni résultat n'est donné concernant un procédé de localisation éventuel. En effet, la constitution du jeu de données préopératoires 3D que sont par exemple les lignes centrales 3D de l'arbre vasculaire cérébral, très dense topologiquement, à partir d'une méthode de segmentation classique a pour conséquence sur la localisation une non unicité de la solution et pose un problème difficile à résoudre. Dans des publications plus récentes, les auteurs considèrent d'ailleurs une acquisition peropératoire sous deux incidences afin d'améliorer la précision du recalage par leur technique, ce qui permettrait aussi de lever les ambiguïtés pour la localisation. D'autre part, la considération de structures arborescentes simples et peu denses topologiquement risque de rendre difficile la détermination d'une première estimée par lignes et plans bitangents.
Le document « PENNEY G. P., Registration of Tomographic Images to X-ray Projections for Use in Image Guided Interventions, Thèse du King's Collège, London, Décembre 1999 » décrit une méthode de recalage entre une image 3D préopératoire
TDM et une image 2D à rayons X de type fluoroscopie. Le recalage, basé sur les données d'intensité, est réalisé par un procédé exploitant des mesures de similarité (corrélation locale et différence de gradient) entre l'image 2D peropératoire et une vue en niveaux de gris simulée en considérant les structures osseuses. Différentes mesures de similarités sont comparées en considérant un fantôme de structures anatomiques
osseuses (rachis lombaire) et des images cliniques de stenting aortique. Les travaux se sont concentrés sur les problèmes de recalage, les problèmes de localisation sont cités dans les perspectives. Sur la base de l'approche présentée, il est envisagé de faire appel à deux vues pour la localisation. Le document de brevet n° FR 9910906 (GE MEDICAL SYSTEMS SA) décrit un procédé de recalage automatique d'images d'angiographie bi et tridimensionnelles, par comparaison de l'image d'angiographie numérique soustraite bidimensionnelle avec des données relatives à une image tridimensionnelle reconstruite à partir de séquences d'angiographie rotationnelle. Selon ce procédé, on estime un champ de distorsions dans l'image, on estime une matrice de projection conique et on effectue une approximation d'une transformation rigide dans l'espace égale à la différence entre un recalage initial basé sur le champ de distorsions et sur la matrice de projection conique et un recalage parfait. Ce procédé basé sur la corrélation d'images de niveaux de gris et sur les flots optiques ne considère pas la segmentation et la caractérisation des structures vasculaires. II ne s'applique qu'à des acquisitions préopératoires 3D réalisées par angiographie rotationnelle et ne traite pas du problème de localisation dans le volume 3D préopératoire. C - OBJECTIFS DE L'INVENTION
L'invention a notamment pour objectif de pallier ces différents inconvénients de l'état de la technique.
L'un des objectifs est de proposer et de mettre en oeuvre des techniques de planification et de guidage de procédures interventionnelles dans des structures anatomiques (angioplastie transluminale, brachythérapie endovasculaire, ...). Même si l'approche de l'invention intègre les grandes composantes du planning interventionnel (caractérisation des données patient, simulation de l'intervention), l'enjeu sur le plan clinique réside dans l'exploitation des données image peropératoires pour l'assistance et le guidage de l'intervention. Il s'agit d'apporter des solutions effectives (essentiellement informatiques) aux problèmes de traçabilité de l'intervention, de fiabilisation et de sécurisation des gestes opératoires, rendus de plus en plus complexes dans les interventions chirurgicales modernes. La démarche, fondée sur l'exploitation
quantitative de données multimodales issues de l'imagerie, vise à privilégier la réalisation des gestes accomplis par le spécialiste dans sa pratique quotidienne, à l'opposée d'une démarche orientée robotique qui remplacerait tout ou partie de ces gestes. Toutefois, les résultats obtenus par la présente invention, même si ce n'est pas l'objectif poursuivi initialement, peuvent avoir des retombées dans le domaine de la robotique médicale.
Plus précisément, l'un des objectifs de la présente invention est de fournir un procédé d'assistance et de guidage de navigation d'un outil dans des structures anatomiques arborescentes de type tubulaire, ce procédé pouvant être mis en œuvre avec une acquisition d'images 2D peropératoires effectuée sous une seule incidence. En d'autres termes, l'objectif est de fournir un tel procédé qui ne nécessite aucun calcul de triangulation, ni aucune reconstruction 3D, pour la localisation de l'outil.
L'invention a également pour objectif de fournir un tel procédé permettant de faciliter la planification de l'intervention par le praticien, ainsi que l'intervention elle- même.
Un autre objectif de l'invention est de fournir un tel procédé qui facilite le réglage par le praticien du système d'acquisition d'images 2D peropératoires.
Un objectif complémentaire de l'invention est de fournir un tel procédé ne nécessitant pas l'utilisations de marqueurs artificiels. D - RÉSUMÉ DES CARACTÉRISTIQUES ESSENTIELLES DE L'INVENTION
Ces différents objectifs, ainsi que d'autres qui apparaîtront par la suite, sont atteints selon l'invention à l'aide d'un procédé d'assistance et de guidage de navigation d'un outil dans des structures anatomiques. Ce procédé comprend : - une phase de planification, comprenant les étapes suivantes : * acquisition d'une image 3D préopératoire, associée à un référentiel 3D préopératoire et dans laquelle apparaissent des premières structures anatomiques arborescentes ; * segmentation desdites premières structures anatomiques arborescentes apparaissant sur l'image 3D préopératoire, de façon à obtenir un modèle descriptif définissant les branches des premières structures anatomiques
arborescentes au moyen de premières primitives 3D ainsi que les relations entre lesdites branches ; une phase d'intervention, comprenant les étapes suivantes :
* acquisition, sous au moins une incidence, d'une séquence temporelle d'images 2D peropératoires associées à un référentiel 2D peropératoire, au moins une desdites images 2D peropératoires, dite au moins une image 2D peropératoire de référence, faisant apparaître lesdites premières structures anatomiques arborescentes ;
* segmentation des premières structures anatomiques arborescentes apparaissant sur ladite au moins une image 2D peropératoire de référence, de façon à obtenir des premières primitives 2D ;
* recalage entre le référentiel 3D préopératoire et le référentiel 2D peropératoire, consistant à déterminer au moins certains des paramètres d'une transformation géométrique de type prédéterminé entre le référentiel 3D préopératoire et le référentiel 2D peropératoire, par minimisation d'au moins un critère de distance entre, d'une part, la projection dans ladite au moins une image 2D peropératoire de référence d'au moins certaines des premières primitives 3D dites premières primitives 3D de recalage et, d'autre part, au moins certaines des premières primitives 2D dites premières primitives 2D de recalage ; * localisation et suivi dudit outil dans ladite image 3D préopératoire, consistant, pour au moins certaines des images 2D peropératoires, en : >- une détection dans l'image 2D peropératoire d'au moins un marqueur présent sur l'outil, >- une fourniture à un praticien d'informations de localisation ponctuelle dudit au moins un marqueur dans l'image 3D préopératoire, indiquant dans l'image 3D préopératoire le point de l'une des premières primitives 3D, dites premières primitives 3D activées, le plus proche de ou situé à l'intersection avec une droite de rétro-projection qui d'une part passe par le point de l'image 2D peropératoire où ledit au moins un marqueur a été
détecté et d'autre part est obtenue avec ladite transformation géométrique de type prédéterminé.
La présente invention se situe donc dans le cadre général de la planification et de l'assistance par ordinateur aux interventions, avec pour fondement méthodologique les concepts de la réalité virtuelle restreinte à sa composante imagerie (notamment, mais non exclusivement, basée sur la navigation exploratoire virtuelle).
L'approche de localisation proposée est basée sur l'exploitation des données image, mais le problème n'est pas posé en terme de reconstruction 3D (à partir de plusieurs images 2D prises sous des incidences différentes). La structure 3D est supposée connue, par l'obtention d'un modèle descriptif des structures anatomiques.
Ceci permet d'avoir recours à une seule incidence de prise d'images. Si l'on considère que la phase de planification (planning, et éventuellement simulation) donne suffisamment d'informations sur la géométrie des structures anatomiques 3D concernées, ainsi que sur l'image 2D peropératoire (dans le cas où une simulation virtuelle de l'acquisition 2D est effectuée), l'acquisition de l'image réelle peropératoire
2D sous une seule incidence, sans que ce ne soit un facteur limitatif, permet de résoudre le recalage et la localisation sans imposer de contraintes lourdes à l'acquisition 2D peropératoire réalisée classiquement.
Les primitives activées utilisées lors de l'étape de localisation résultent, par exemple dans le cas d'un arbre dense : soit d'un choix d'un sous-ensemble de primitives (lignes centrales) en phase de planning (avant l'intervention), soit de la mise en oeuvre d'un processus d'activation/désactivation de branches basé sur la localisation contextuelle (voir description ci-après) au cours du déplacement de l'outil (pendant l'intervention) pour éviter les ambiguïtés
(superposition des structures dans l'image 2D).
On notera que les mêmes (premières) structures anatomiques sont ici utilisées pour le recalage et la localisation, même si les primitives (celles de recalage et celles activées pour la localisation) peuvent différer.
On notera également que la technique de localisation selon l'invention (fournissant une information de localisation absolue) peut être combinée avec une technique de localisation classique (fournissant une information de localisation relative).
Avantageusement, ladite étape localisation et suivi dudit outil dans ladite image 3D préopératoire, consiste en outre, pour au moins certaines des images 2D peropératoires, en une fourniture au praticien d'informations de localisation contextuelle, indiquant dans l'image 3D préopératoire, à partir dudit modèle descriptif des premières structures anatomiques arborescentes et desdites informations de localisation ponctuelle, la branche dans laquelle se trouve ledit au moins un marqueur détecté.
Ainsi, on effectue une double localisation de l'outil (par localisation d'au moins un marqueur présent sur cet outil), à savoir une localisation ponctuelle et une localisation contextuelle. Les informations correspondant à cette double localisation sont fournies au praticien. Dans un mode de réalisation particulier de l'invention, ledit procédé comprend :
- une phase de planification, comprenant les étapes suivantes :
* acquisition d'une image 3D préopératoire, associée à un référentiel 3D préopératoire et dans laquelle apparaissent des premières structures anatomiques arborescentes et des secondes structures anatomiques, adjacentes à et sensiblement fixes par rapport aux premières structures anatomiques arborescentes ;
* segmentation desdites premières structures anatomiques arborescentes apparaissant sur l'image 3D préopératoire, de façon à obtenir un modèle descriptif définissant les branches des premières structures anatomiques arborescentes au moyen de premières primitives 3D ainsi que les relations entre lesdites branches ;
* segmentation desdites secondes structures anatomiques apparaissant sur l'image 3D préopératoire, de façon à obtenir des secondes primitives 3D ;
- une phase d'intervention, comprenant les étapes suivantes :
* acquisition, sous au moins une incidence, d'une séquence temporelle d'images 2D peropératoires associées à un référentiel 2D peropératoire, au moins une desdites images 2D peropératoires, dite au moins une image 2D peropératoire de référence, faisant apparaître lesdites premières et secondes structures anatomiques arborescentes ;
* segmentation des premières structures anatomiques arborescentes apparaissant sur ladite au moins une image 2D peropératoire de référence, de façon à obtenir des premières primitives 2D ;
* recalage entre le référentiel 3D préopératoire et le référentiel 2D peropératoire, consistant à déterminer au moins certains des paramètres d'une transformation géométrique de type prédéterminé entre le référentiel 3D préopératoire et le référentiel 2D peropératoire, par minimisation d'au moins un critère de distance entre, d'une part, la projection dans ladite au moins une image 2D peropératoire de référence d'au moins certaines des premières primitives 3D dites premières primitives 3D de recalage et, d'autre part, au moins certaines des premières primitives 2D dites premières primitives 2D de recalage ;
* localisation et suivi dudit outil dans ladite image 3D préopératoire, consistant, pour au moins certaines des images 2D peropératoires, en :
>- une détection dans l'image 2D peropératoire d'au moins un marqueur présent sur 1 ' outil , - une fourniture à un praticien d'informations de localisation ponctuelle dudit au moins un marqueur dans l'image 3D préopératoire, indiquant dans l'image 3D préopératoire le point de l'une des secondes primitives 3D, dites secondes primitives 3D activées, le plus proche de ou situé à l'intersection avec une droite de rétro-projection qui d'une part passe par le point de l'image 2D peropératoire où ledit au moins un marqueur a été détecté et d'autre part est obtenue avec ladite transformation géométrique de type prédéterminé.
De cette façon, le recalage est effectué avec les premières structures anatomiques arborescentes, tandis que la localisation de l'outil est effectuée en relation avec les
secondes structures anatomiques. Il est clair que les premières et secondes structures anataomiques peuvent être situées sur un même organe ou sur deux organes distincts. Si la nature de ces dernières diffère de celle des premières structures anatomiques (par exemple si elles ne sont ni arborescentes ni tabulaires), les secondes primitives 3D activées peuvent être d'un type (par exemple des surfaces) différent de celui (par exemple des lignes centrales) des premières primitives activées.
Préférentiellement, les premières structures anatomiques arborescentes sont de type tabulaire.
On rappelle qu'une distinction est faite entre les primitives de recalage et les primitives qui doivent être activées pour la localisation. Concernant les premières, l'une des difficultés en recalage 3D/2D, aussi rencontrée en reconstruction 3D à partir de plusieurs vues, se situe au niveau de la correspondance entre les données 3D et 2D. Un point 2D résultant de la projection de plusieurs points 3D sur l'image (pour une même structure anatomique ou en raison de la superposition de différentes structures anatomiques), il en résulte une perte d'information dans l'image 2D qui se traduit par une ambiguïté forte sur la correspondance 3D/2D et donc une mauvaise estimation de la transformation recherchée. Le fait d'exploiter des structures de type tabulaire pour le recalage, et plus précisément des primitives 3D et 2D de recalage qui représentent les lignes centrales de ces structures, permet de lever cette ambiguïté. En effet, une des propriétés remarquables de ce type de structure est que, dans l'idéal et selon une incidence correctement choisie, à un point de la ligne centrale 2D ne correspond qu'un point de la ligne centrale 3D. De par la géométrie des structures considérées la correspondance 3D/2D est mieux définie pour un ensemble non négligeable de points, en l'occurrence les points décrivant les lignes centrales. Ces points apportent d'autant plus de contraintes pour l'estimation de la transformation géométrique (levée des ambiguïtés) qu'ils appartiennent à des structures arborescentes.
Dans un mode de réalisation préférentiel de l'invention, ladite étape de segmentation des premières structures anatomiques arborescentes apparaissant sur l'image 3D préopératoire est basée sur un processus de navigation exploratoire virtuelle au sein de l'image 3D préopératoire, au cours duquel un processus d'analyse de scène
associé à un capteur virtuel permet de construire automatiquement ledit modèle descriptif des premières structures anatomiques arborescentes.
Le processus de navigation exploratoire virtuelle est préférentiellement (mais ce n'est pas impératif) celui décrit dans les articles suivants : [1] HAIGRON P., LE BERRE G., COATRIEUX J.L., 3-D navigation in medicine,
IEEE Engineering in Medicine and Biology, 1996, 15(2) : 70-78. [2] BELLEMARE M.E., HAIGRON P., COATRIEUX J.L., Toward an active three dimensional navigation System in médical imaging, Lecture Notes in Computer Science, Springer Verlag, 1997, 1205 : 337-346. [3] BELLEMARE M.E., HAIGRON P., LUCAS A., COATRIEUX J.L., Depth map based scène analysis for active navigation, SPIE Médical Imaging, Physiology and fonction from multidimensional images, San Diego, Feb. 1999, 3660 : 202-213. [4] ACOSTA O., HAIGRON P., LUCAS A., BELLEMARE M.E., Application of Virtual Endoscopy to the patient-specific planning of endovascular surgical procédures, SPIE Médical Imaging 2001, Physiology and fonction from multidimensional images,
San Diego, Feb.2001, 4321 : 58-69.
[5] ACOSTA O., MOISAN C, HAIGRON P., LUCAS A., Evaluation of Virtual Exploratory Navigation for the Characterization of Stenosis in the Planning of Endovascular Interventions, SPIE Médical Imaging 2002, Physiology and fonction from multidimensional images, San Diego, Feb.2002.
Ces articles décrivent un procédé de navigation exploratoire virtuelle dans des structures anatomiques de nature arborescente et tabulaire à partir d'images volumiques préopératoires (images 3D préopératoires) acquises en conditions cliniques standard et sans prétraitement (TDM, IRM). Dans ce procédé, un capteur virtuel détermine automatiquement un modèle descriptif de la scène inconnue et permet de déterminer la ligne centrale, la surface des structures anatomiques et de caractériser la lésion. Ainsi, les images volumiques préopératoires acquises en routine (scanner X ou IRM) permettent une exploration virtuelle à l'intérieur des structures anatomiques sans la moindre intervention.
Le nouveau concept d'endoscopie virtuelle développé par le LTSI (Laboratoire de Traitement du Signal et de l'Image de l'Université de Rennes 1), et exprimé en terme de navigation exploratoire virtuelle, constitue le fondement d'un mode de réalisation préférentiel de l'invention. Au-delà d'une simple visualisation interactive, l'enjeu est ici de produire des images fiables et réalistes et d'élaborer des protocoles cliniques efficaces exploitant au mieux les données. A la différence des systèmes conventionnels qui requièrent un prétraitement de l'image afin de créer un modèle de surface simplifié d'une structure particulière, l'hypothèse forte de l'approche de ce mode de réalisation préférentiel de l'invention (basé sur la navigation exploratoire virtuelle) consiste à ne pas réaliser de pré-segmentation ou de modélisation préalable des structures anatomiques. Au cours de la navigation exploratoire virtuelle, le capteur virtuel construit automatiquement un modèle descriptif (qualitatif et quantitatif) robuste de la scène inconnue à partir de données spécifiques au patient. Ce modèle descriptif peut être utilisé dans une phase de planning pour déterminer précisément les paramètres de l'outil et, comme expliqué en détail par la suite, dans une phase de recalage pour mettre en correspondance les données pré et peropératoires.
La navigation exploratoire virtuelle combine le calcul de l'image de la scène observée ainsi que son analyse au cours du déplacement, afin de définir automatiquement la trajectoire de l'endoscope virtuel. Sans prétraitement du volume discret, la détection de surface, le calcul de l'image, l'analyse de scène et l'estimation de trajectoire sont réalisés au cours de l'exploration virtuelle pour chaque position du capteur.
La morphologie des structures observées est supposée indépendante du facteur temps. L'information volumique, telle que la valeur des voxels, et l'information produite par un processus de lancer de rayons (lors de la formation de l'image endoscopique virtuelle), telle que l'ensemble des points de surface 3D et la carte de profondeur, constituent une information dense.
L'analyse de scène, qui exploite cette information, est utilisée pour guider automatiquement l'endoscope virtuel à l'intérieur du volume préopératoire, et analyser les propriétés topologiques et mesurer les caractéristiques géométriques des structures
anatomiques observées. L'analyse de scène s'appuie sur la construction progressive d'une description structurelle globale. Elle est réalisée localement à partir de l'information de profondeur de la scène. Elle repose en particulier sur un échantillonnage adaptatif du volume observé par une séquence de plans (suivant l'axe de visée du capteur), qui sert de support à une représentation structurée des points de surface pour l'estimation des espaces libres et la détection de collision.
Le modèle descriptif des données patient obtenu au cours de la navigation exploratoire virtuelle du volume image préopératoire constitue un outil robuste et opérateur-indépendant pour la caractérisation des structures anatomiques. Il permet en particulier la quantification et l'analyse des lésions vasculaires, ainsi que la planification d'interventions endo vasculaires, en particulier dans les zones sténosées. La navigation exploratoire virtuelle, et plus particulièrement la caractérisation anatomique qui en découle, a été validée sur fantôme, modèle animale et sur patient. Couplé à un outil (ballon, source d'irradiation), avec une anticipation du déplacement et l'analyse préalable des caractéristiques du vaisseau et de ses lésions, la navigation exploratoire virtaelle constitue le support d'un geste assisté par ordinateur.
Dans un mode de réalisation particulier de l'invention, ledit capteur virtuel est basé sur le lancer de rayons et fait intervenir : une projection perspective, préférentiellement complétée par un modèle de distorsions géométriques ; une détection sous voxel de surface de type interpolation trilinéaire et seuillage le long des rayons ; une transformation rigide entre le référentiel lié au capteur virtuel et le référentiel lié à l'image 3D préopératoire ; - un calcul de la valeur des pixels par un modèle d'illumination, préférentiellement le modèle d'illumination de Phong.
De façon avantageuse, ledit processus de navigation exploratoire virtuelle comprend une étape de filtrage de l'image 3D préopératoire, permettant de définir une image 3D préopératoire filtrée selon un algorithme tel que, pour chaque point de l'image du capteur virtuel, on effectue un lancer de rayon et :
les voxels qui sont traversés par le rayon et qui appartiennent à la lumière interne de l'une des branches des premières structures anatomiques arborescentes conservent leurs valeurs initiales, et les voxels qui sont traversés par le rayon et qui n'appartiennent pas à la lumière interne de l'une des branches des premières structures anatomiques arborescentes prennent une valeur prédéterminée, préférentiellement nulle.
Ainsi, l'image 3D préopératoire filtrée fait apparaître encore plus clairement les structures anatomiques, et les traitements effectués sur cette image 3D préopératoire filtrée sont optimisés. Dans le cas où l'incidence d'acquisition des images 2D peropératoires par un système d'acquisition 2D peropératoire est définie par un jeu de paramètres de réglage dudit système d'acquisition 2D peropératoire, ladite phase de planification comprend avantageusement en outre les étapes suivantes : simulation de l'acquisition, sous au moins une incidence de test, d'images 2D peropératoires, à l'aide, d'une part, d'un modèle géométrique réaliste du système d'acquisition 2D peropératoire et, d'autre part, dudit modèle descriptif des premières structures anatomiques arborescentes ; détermination, à partir des images 2D peropératoires simulées, d'une incidence optimale parmi ladite au moins une incidence de test, ladite incidence optimale étant définie par de premières valeurs dudit jeu de paramètres de réglage.
La phase d'intervention comprend en outre l'étape suivante : réglage du système d'acquisition 2D peropératoire en fonction desdites premières valeurs du jeu de paramètres de réglage.
Outre les éléments d'information qu'elle apporte pour la réalisation de la procédure de recalage et de localisation (voir discussion détaillée ci-après de ces autres caractéristiques de l'invention), la simulation de l'acquisition virtuelle permet une planification et ainsi une amélioration de l'image 2D réalisée lors de l'intervention. Les paramètres déterminés en simulation indiquent au praticien comment positionner l'appareil d'acquisition 2D peropératoire et régler l'incidence optimale pour l'observation de la structure anatomique considérée et de la lésion.
Cette approche permet ainsi de localiser l'outil à l'intérieur des structures anatomiques, et dans le cas particulier d'une acquisition par rayons X, de limiter les doses de rayons X et la quantité de produit de contraste absorbées par le patient lors de l'acquisition peropératoire par une diminution du nombre d'acquisitions de mise au point rendue possible grâce à la simulation.
De façon avantageuse, dans ladite étape de recalage, on part de valeurs initiales des paramètres de la transformation géométrique de type prédéterminé qui sont fonction desdites premières valeurs du jeu de paramètres de réglage du système d'acquisition 2D peropératoire. Ainsi, l'algorithme effectué au cours de l'étape de recalage (minimisation d'au moins un critère de distance) converge plus rapidement vers les paramètres recherchés, puisque ces derniers sont proches des valeurs initiales choisies.
Selon une caractéristique avantageuse, ladite étape de réglage du système d'acquisition 2D peropératoire, en fonction desdites premières valeurs du jeu de paramètres de réglage, est suivie des étapes suivantes : restitution au praticien, sur ladite au moins une image 2D peropératoire de référence faisant apparaître lesdites premières structures anatomiques arborescentes, de la projection desdites premières primitives 3D de recalage selon lesdites valeurs initiales des paramètres de la transformation géométrique de type prédéterminé ; affinage par le praticien du réglage du système d'acquisition 2D peropératoire, par tentative de superposition, sur ladite au moins une image 2D peropératoire de référence, desdites premières structures anatomiques premières avec ladite projection des premières primitives 3D de recalage. De cette façon, le praticien peut affiner le réglage du système d'acquisition 2D peropératoire et l'algorithme effectué au cours de l'étape de recalage converge encore plus rapidement. Ceci revient à faire effectaer manuellement par le praticien le début de l'étape de recalage.
Avantageusement, ladite phase de planification comprend en outre les étapes suivantes :
simulation de l'acquisition, sous au moins une incidence de test, d'images 2D peropératoires, à l'aide, d'une part, d'un modèle géométrique réaliste du système d'acquisition 2D peropératoire et, d'autre part, dudit modèle descriptif des premières structures anatomiques arborescentes ; - sélection, notamment à partir des images 2D peropératoires simulées, de données à restituer lors d'une étape de conduite de navigation comprise dans la phase d'intervention.
H est clair cependant qu'il peut exister d'autres éléments sur la base desquels la décision de sélection est prise (notamment des éléments liés aux données 3D préopératoires et aux données résultant de la navigation exploratoire virtaelle).
Selon une caractéristique avantageuse, ladite phase de planification comprend en outre les étapes suivantes : simulation de l'acquisition, sous au moins une incidence de test, d'images 2D peropératoires, à l'aide, d'une part, d'un modèle géométrique réaliste du système d'acquisition 2D peropératoire et, d'autre part, dudit modèle descriptif des premières structures anatomiques arborescentes ; choix, à partir des images 2D peropératoires simulées, desdites premières primitives 3D de recalage qui sont utilisées lors de ladite étape de recalage. De façon avantageuse, ladite phase de planification comprend en outre les étapes suivantes : simulation de l'acquisition, sous au moins une incidence de test, d'images 2D peropératoires, à l'aide, d'une part, d'un modèle géométrique réaliste du système d'acquisition 2D peropératoire et, d'autre part, dudit modèle descriptif des premières structures anatomiques arborescentes ; - choix, à partir des images 2D peropératoires simulées, desdites premières ou secondes primitives 3D activées qui sont utilisées lors de ladite étape de fourniture au praticien d'informations de localisation ponctuelle dudit au moins un marqueur dans l'image 3D préopératoire.
Dans un mode de réalisation avantageux de l'invention, ladite transformation géométrique de type prédéterminé entre le référentiel 3D préopératoire et le référentiel 2D peropératoire est une combinaison de : au moins une transformation rigide (τsp) entre le référentiel 3D préopératoire et un référentiel 3D rapporté à la source du système d'acquisition 2D peropératoire, ladite au moins une transformation rigide étant définie par des paramètres extrinsèques de rotation et de translation ; au moins une projection perspective (- ) entre le référentiel 3D rapporté à la source du système d'acquisition 2D peropératoire et un repère associé aux images 2D peropératoires, ladite au moins une projection perspective étant définie par des paramètres intrinsèques de projection..
Avantageusement, ladite étape de recalage consiste à déterminer d'une part lesdits paramètres extrinsèques de rotation et de translation, définissant ladite au moins une transformation rigide, et d'autre part lesdits paramètres intrinsèques de projection, définissant ladite au moins une projection perspective.
Selon une première variante avantageuse, ladite étape de recalage consiste à déterminer lesdits paramètres extrinsèques de rotation et de translation, définissant ladite au moins une transformation rigide. Lesdits paramètres intrinsèques de projection, définissant ladite au moins une projection perspective, sont prédéterminés et supposés connus.
Selon une seconde variante avantageuse, l'étape de recalage consiste à déterminer lesdits paramètres extrinsèques de rotation et de translation, définissant ladite au moins une transformation rigide. Ledit procédé comprend en outre une étape de calibrage, pouvant inclure une estimation des distorsions géométriques, et permettant de déterminer lesdits paramètres intrinsèques de projection, définissant ladite au moins une projection perspective.
Dans un premier mode de réalisation particulier de l'invention, ladite phase de planification comprend en outre une étape de sélection de données 3D préopératoires.
Ladite phase d'intervention comprend en outre une étape de conduite de navigation, permettant de restituer au cours de l'intervention les données 3D préopératoires
sélectionnées au cours de ladite étape de sélection comprise dans la phase de planification.
De façon préférentielle, ladite étape de sélection de données 3D préopératoires consiste à déterminer une trajectoire virtuelle de l'outil et à sélectionner des données 3D préopératoires associées à ladite trajectoire virtuelle. Ladite étape de conduite de navigation consiste à restituer les données 3D préopératoires sélectionnées, en fonction d'informations relatives à la localisation de l'outil le long de ladite trajectoire virtaelle.
Avantageusement, les informations relatives à la localisation de l'outil le long de ladite trajectoire virtaelle sont fournies de façon interactive par le praticien, au cours de l'intervention.
Selon une variante avantageuse, les informations relatives à la localisation de l'outil le long de ladite trajectoire virtaelle sont fournies automatiquement, en utilisant les résultats de l'étape de localisation et de suivi dudit outil.
Dans un second mode de réalisation particulier de l'invention, ladite phase d'intervention comprend en outre une étape de conduite de navigation, comprenant elle- même les étapes suivantes : estimation d'une trajectoire réelle de l'outil, en utilisant les résultats de l'étape de localisation et de suivi dudit outil ; obtention de données 3D préopératoires associées à ladite trajectoire estimée ; - restitution, au cours de l'intervention et en fonction d'informations relatives à la localisation de l'outil le long de la trajectoire estimée, des données 3D préopératoires obtenues.
Avantageusement, ladite étape de sélection ou d'obtention de données 3D préopératoires s'appuie sur le résultat de l'exécution du processus de navigation exploratoire virtaelle, processus sur lequel est basée ladite étape de segmentation des premières structures anatomiques arborescentes apparaissant sur l'image 3D préopératoire.
De façon avantageuse, les données 3D préopératoires restituées au cours de l'étape de conduite de navigation appartiennent au groupe comprenant :
des images permettant de restituer et interpréter la localisation de l'outil dans l'environnement 3D préopératoire, c'est-à-dire notamment par rapport aux premières ou secondes structures anatomiques ; des images permettant de mieux apprécier localement des caractéristiques des premières ou secondes structures anatomiques et/ou d'une lésion, au for et à mesure de la progression de l'outil ; des alarmes visuelles et/ou sonores.
Dans un mode de réalisation avantageux de l'invention, le procédé selon l'invention comprend en outre une étape de suivi et d'enregistrement d'au moins une information relative à l'exécution dudit procédé.
Avantageusement, ladite au moins une information relative à l'exécution dudit procédé appartient au groupe comprenant : des trajectoires simulées de l'outil ; des images virtuelles associées à des trajectoires simulées de l'outil ; - des paramètres de l'acquisition 2D peropératoire virtuelle ; des paramètres de l'acquisition 2D peropératoire réelle ; des instructions du praticien pendant l'intervention ; des gestes du praticien pendant 1 ' intervention .
Dans un mode de réalisation particulier de l'invention, lesdites premières primitives 3D et 2D et lesdites secondes primitives 3D comprennent au moins un des éléments appartenant au groupe comprenant : des lignes centrales des premières ou secondes structures anatomiques ; des maillages d'au moins une surface interne ou externe des premières ou secondes structures anatomiques. Avantageusement, ladite étape de fourniture au praticien d'informations de localisation dudit au moins un marqueur dans l'image 3D préopératoire comprend une étape d'utilisation des informations de localisation contextuelle pour levée une ambiguïté dans l'obtention des informations de localisation ponctuelle.
De façon avantageuse, ladite étape de fourniture au praticien d'informations de localisation dudit au moins un marqueur dans l'image 3D préopératoire comprend un
processus d'activation/desactivation de premières ou secondes primitives 3D en fonction de la trajectoire suivie par ledit outil et/ou d'informations fournies par le praticien.
Ce processus d'activation/desactivation est l'une des façons d'obtenir les primitives 3D activées discutées ci-dessus. Il est par exemple répété de façon cyclique. E - LISTE DES FIGURES
D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description suivante d'un mode de réalisation préférentiel de l'invention, donné à titre d'exemple indicatif et non limitatif, et des dessins annexés, dans lesquels : la figure 1 présente un organigramme simplifié d'un mode de réalisation particulier du procédé d'assistance et de guidage selon l'invention ; la figure 2 illustre un exemple d'ensemble de référentiels et de repères utilisés dans la définition, dans le cadre du procédé selon l'invention, d'une transformation géométrique de type projection/rétro-projection entre le référentiel 3D préopératoire et le référentiel 2D peropératoire ; - la figure 3 présente un exemple d'image 2D peropératoire virtaelle (c'est-à-dire simulée) ; la figure 4A présente un exemple d'image 2D peropératoire réelle ; la figure 4B présente un exemple d'image 2D segmentée, contenant un ensemble de primitives 2D obtenues par segmentation des structures anatomiques apparaissant sur l'exemple d'image 2D peropératoire réelle de la figure 4A ; la figure 5 présente un exemple de carte de distance, générée sur l'image 2D segmentée de la figure 4B, et permettant de mesurer la distance entre les primitives 2D et les projections des primitives 3D ; la figure 6 présente un exemple d'image 2D peropératoire, faisant apparaître les structures anatomiques et sur laquelle est restituée la projection des primitives
3D de recalage selon des valeurs initiales des paramètres de la transformation géométrique de type projection/rétro-projection ; la figure 7 présente une vue schématique d'une image 2D peropératoire et d'une image 3D préopératoire correspondante, permettant d'illustrer un exemple de
double localisation ponctuelle et contextuelle d'un outil, selon le procédé de l'invention ; la figure 8 présente un exemple de contenu de deux écrans d'affichage au cours d'une opération : un premier écran affichant une vue réelle d'une image 2D peropératoire, dont une vue schématique est représentée dans la partie haute de la figure 7 ; un second écran affichant un ensemble d'informations restituées au cours de l'opération. F - DESCRIPTION D'UN MODE DE RÉALISATION PARTICULIER DE L'INVENTION F-a) Résumé d'un mode de réalisation particulier de l'invention
La présente invention a donc pour objet un procédé d'assistance et de guidage de navigation dans des structares anatomiques arborescentes de type tabulaire. Le procédé selon l'invention peut s'appliquer au système circulatoire ou à différents canaux physiologiques tels que les voies vasculaires, urinaires, digestives ... Dans le cadre des procédures interventionnelles à accès minimal, le procédé de conduite de navigation de l'invention permet de suivre et de localiser précisément des outils (cathéter, sonde, source de brachy thérapie, ballon, stent, effecteurs, capteurs, ...), en relation avec l'acte planifié dans un environnement virtuel constitué à partir d'une image préopératoire 3D et d'en restituer les informations (données segmentées et/ou modélisées) dans l'environnement interventionnel réel par des techniques de type réalité augmentée.
Il s'appuie sur une acquisition 3D préopératoire (TDM, IRM, ...) et l'acquisition sous au moins une incidence d'une image 2D peropératoire faisant apparaître localement les structures anatomiques d'intérêt (image à rayons X avec injection d'un produit de contraste, image d'angiographie par soustraction, ...) sous la forme d'un réseau arborescent peu dense topologiquement.
Dans le mode de réalisation particulier présenté en détail ci-après, le nouveau procédé mis au point exploite les données préopératoires résultant de la caractérisation des structures anatomiques (modèle descriptif des structures anatomiques), réalisée préférentiellement par navigation exploratoire virtaelle, pour :
simuler virtuellement l'acquisition d'une image 2D dans un environnement virtuel par une modélisation mathématique précise du système d'acquisition peropératoire ; choisir les structares anatomiques pertinentes et le(s) meilleurs) point(s) de vue pour la mise en correspondance des données préopératoires 3D et peropératoires
2D ; régler le système d'acquisition pendant l'intervention, d'après la superposition des données du planning sur l'image réelle ; réaliser le recalage entre les structures anatomiques 3D préopératoires (segmentées par navigation exploratoire virtaelle) et l'image 2D préopératoire, à partir du modèle du système d'acquisition et d'une carte de distances 2D (par exemple de type « Chamfer matching ») ; localiser l'outil pendant l'intervention par rétro-projection sur les données issues de la navigation exploratoire virtaelle ; - assister et guider la navigation réelle par des données issues du planning ou de l'environnement virtaelle contenant les données 3D préopératoires ; enregistrer les phases de planification et d'intervention pour le suivi postopératoire et la traçabilité de la procédure thérapeutique. On présente maintenant, en relation avec l'organigramme simplifié de la figure 1, un mode de réalisation particulier du procédé d'assistance et de guidage selon l'invention. Dans ce mode de réalisation particulier, on peut distinguer les six composantes principales suivantes (qui sont ensuite décrites successivement en détail) : i. Planning spécifique patient par navigation exploratoire virtuelle. Les données structurées sous la forme d'un volume image discret (image 3D) représentant les structares anatomiques acquises en phase préopératoire (par TDM, IRM, etc) sont caractérisées par un processus de navigation exploratoire virtaelle (a). Etant donné un point de départ et un point cible, un processus d'analyse de scène associé à un capteur virtuel de type optique permet de construire un modèle descriptif de la scène inconnue (image 3D non pré-segmentée) et des structures anatomiques d'intérêt, sous la forme d'un arbre binaire avec étiquetage des branches. Le capteur
virtuel peut ainsi déterminer automatiquement sa trajectoire dans l'image volumique préopératoire et l'analyser. A partir de la caractérisation de la structure anatomique et de la lésion (ligne centrale 3D, surface interne de la paroi, caractérisation de la paroi, vue endoscopique virtuelle ...), une estimation des paramètres de l'intervention est réalisée au moyen d'une simulation spécifique patient de la procédure mterventionnelle (planification de trajectoire, dilatation, irradiation, ...). ii. Simulation de l'acquisition 2D peropératoire. En phase de planification du geste, une simulation virtuelle de l'acquisition 2D peropératoire est réalisée à l'aide d'un modèle géométrique réaliste (incluant le phénomène de distorsion) du système d'acquisition considéré (système d'imagerie 2D par Rayons X) et des données issues de la navigation exploratoire virtuelle. Cette phase permet de déterminer virtuellement et interactivement la meilleure incidence pour l'intervention (point de vue optimal pour l'observation de la lésion et pour la procédure de recalage décrite en iii.) et de sélectionner les données à restituer lors de l'intervention. Le choix des primitives 3D pour le recalage est aussi réalisé interactivement (b). Une simulation virtaelle du recalage (iii.) permet de valider le choix des primitives 3D de recalage et d'estimer les paramètres de l'acquisition peropératoire (f). iii. Recalage 3D/2D. Cette étape, qui est une phase d'initialisation à la localisation, concerne la mise en correspondance des référentiels 3D préopératoire (par exemple le référentiel lié à une acquisition TDM) et 2D peropératoire (par exemple le référentiel lié à une acquisition angiographique). Après une estimation du modèle de distorsion dans l'image, une transformation géométrique, incluant une ou plusieurs transformation(s) rigide(s) 3D et une transformation perspective, est identifiée à partir, d'une part, des primitives 3D segmentées lors de la planification
(i.) et retenues dans la simulation de l'acquisition 2D peropératoire (ii.) et, d'autre part, des primitives 2D de recalage extraites à partir de l'image 2D à Rayons X acquise sous une seule incidence (un masque sans moyen de contraste étant acquis consécutivement à l'acquisition des structures anatomiques injectés). A partir des paramètres initiaux de positionnement de l'appareil d'acquisition 2D peropératoire
obtenus dans l'étape (ii.) - ces paramètres étant aussi à la base du réglage de l'appareil d'acquisition peropératoire par superposition des données du planning sur l'image 2D peropératoire (b,c,d) - un processus d'optimisation permet d'estimer les modèles de transformation entre le référentiel 3D préopératoire et le référentiel 2D peropératoire, en minimisant (au moins) un critère de distance entre la projection des primitives 3D et les primitives 2D, à partir d'une carte de distance calculée dans le plan image peropératoire (e-f). Une variante de la procédure précitée (qui est basée uniquement sur l'exploitation des structares anatomiques observées dans les images 3D préopératoire et 2D peropératoire) est d'utiliser une mire comportant des points radio-opaques de coordonnées connues. L'acquisition 2D peropératoire est alors réalisée en présence de la mire. Une phase de calibrage permet d'estimer une partie des modèles de transformation. La transformation rigide (3 rotations, 3 translations) entre le référentiel 3D préopératoire et le référentiel 3D associé à l'acquisition peropératoire est alors estimée par la méthode exploitant les structures anatomiques comme décrit précédemment. iv. Localisation et suivi de l'outil. Après la phase d'initialisation à la localisation (recalage 3D/2D, étape iii.) (g), les marqueurs radio-opaques présents sur l'outil sont détectés en temps réel dans les images peropératoires 2D (après évacuation naturelle du produit de contraste dans le système circulatoire) acquises sous la même incidence que celle adoptée lors du recalage (h). Une retro-projection est effectuée afin d'associer à chaque point image détecté, et correspondant à un marqueur radio-opaque sur l'outil, une droite de rétro-projection. L'intersection de chacune de ces droites avec la ligne centrale du vaisseau, ou le calcul du point de la ligne centrale le plus proche de chaque droite de rétro-projection, permet de localiser le point radio-opaque ainsi que l'outil (position, orientation) dans le volume 3D préopératoire (i). Ce processus réalisé pour chacune des images 2D peropératoires acquises, numérisées et traitées à la cadence de plusieurs images par secondes (typiquement 10 à 15) permet de suivre l'évolution de l'outil en temps réel dans le volume préopératoire.
v. Conduite de navigation. Il s'agit dans cette étape de restituer les éléments pertinents du planning au cours de l'intervention. La restitution des données 3D préopératoires sélectionnées dans la phase de simulation peut se faire par différents moyens tels que des lunettes HMD (« Head Monted Display ») ou un système multi-écrans sur lesquels apparaissent les images réelles classiquement réalisées lors d'une intervention enrichies des données issues du planning (j). La forme la plus simple est de sélectionner une trajectoire virtuelle, ainsi que les images associées (endoscopie virtaelle, coupes reformatées, images mixtes avec codage de couleur indiquant la nature des différents tissus composant la lésion ...), et de les afficher au cours de l'intervention. Dans ce cas, la localisation est approximée et définie interactivement par l'utilisateur au cours de l'intervention. La forme la plus élaborée de cette conduite de navigation par réalité augmentée consiste à utiliser les résultats de l'étape (iv) pour sélectionner l'image virtuelle issue de la navigation exploratoire virtaelle dans une séquence pré-enregistrée dans la phase de simulation (ii). Selon encore une autre variante, on détermine la trajectoire et on calcule les images virtuelles associées dans le volume préopératoire en fonction de la trajectoire réellement suivie par l'outil. Outre la restitution visuelle des données (k), des alarmes sonores peuvent aussi être utilisées pour indiquer une cible ou un écart trop important par rapport à la localisation ou la trajectoire idéale définie en simulation. vi. Suivi et emegistrement numérique de la procédure. La trajectoire idéale simulée, les images virtuelles associées, les paramètres de l'acquisition virtaelle et réelle, les instructions et les gestes du praticien, plus particulièrement durant les phases décisives de l'intervention, etc., sont enregistrées (1) afin de constituer une boîte noire de l'intervention, de servir de base à des études de suivi postopératoire de l'intervention et de l'évolution de la lésion, et de constituer un ensemble de cas de référence pour de futures interventions. F-h) Description détaillée d'un mode de réalisation particulier de l'invention
La description des différentes composantes principales -i- à -vi- précitées, ainsi que du fonctionnement du procédé selon la présente invention, est reprise de manière
détaillée dans la suite. Les problèmes de recalage (§iii), de localisation (§iv) et de conduite de navigation (§v) sont décrits en prenant comme illustration un domaine d'application particulier : l'assistance et le guidage de la navigation dans des structures vasculaires. -i- Planning spécifique patient par navigation exploratoire virtuelle
Cette étape concerne principalement la caractérisation des données anatomiques 3D issues de l'imagerie pré-opératoire (TDM, IRM). Elle est fondée sur le concept de navigation exploratoire virtuelle dans un volume image acquis en conditions cliniques. A la différence des systèmes conventionnels, qui requièrent une pré- segmentation du volume afin de créer un modèle de surface simplifié d'une structure particulière, l'hypothèse forte de la présente approche consiste à ne pas réaliser de prétraitement ou de modélisation préalable des structares anatomiques. Le système proposé est capable de surmonter les difficultés inhérentes au domaine d'application et liées aux structures de formes libres de très petite taille, à la différence de résolution entre la scène observée (volume image préopératoire) et l'image 2D du capteur virtaelle, à la détection robuste des surfaces anatomiques, à la présence de bifurcations (conduisant à de multiples trajectoires candidates) et au guidage de la navigation par l'image. Dans l'exemple discuté ci-après à titre illustratif et non limitatif, on suppose que ce système se limite à un seul mode de perception, la vision, et à un seul type d'interaction physique, la détection de collision. La morphologie des structures observées est supposée indépendante du facteur temps.
Un capteur virtuel de type optique est modélisé afin d'explorer un volume image non pré-segmenté. Le modèle de ce capteur, basé sur le lancer de rayons, fait intervenir :
(a) une projection perspective, qui associe à tout point du plan image virtuelle un rayon passant par le centre optique dans le volume discret où la distance focale permet de déterminer le champ de vision, complétée par un modèle de distorsions géométriques ;
(b) une détection sous voxel de surface de type interpolation trilinéaire et seuillage le long des rayons ;
(c) une transformation rigide (rotation, translation) entre le référentiel lié au capteur virtuel et le référentiel lié au volume image discret ;
(d) un calcul de la valeur des pixels par le modèle d'illumination de Phong.
Deux modes de fonctionnements sont distingués. Dans un mode interactif, l'utilisateur définit les paramètres du capteur (position, orientation, focale) et par là même un certain nombre de points de passage de la trajectoire. La trajectoire interpolée peut ensuite être reproduite en temps réel différé. Dans un autre mode dit actif, l'utilisateur définit un point de départ et un point d'arrivée, le capteur virtuel explore alors automatiquement dans les structares anatomiques. La navigation active combine ainsi le calcul de l'image virtuelle de la scène observée, ainsi que son analyse au cours du déplacement, afin de définir automatiquement la trajectoire de l'endoscope virtuel. Sans pré-traitement du volume discret, la détection de surface, le calcul de l'image, l'analyse de scène et l'estimation de trajectoire sont réalisés au cours de l'exploration virtaelle pour chaque position du capteur. L'information volumique, telle que la valeur des voxels, et l'information produite par le lancer de rayon (lors de la formation de l'image endoscopique virtaelle), telle que l'ensemble des points de surface 3D et la carte de profondeur, constituent une information dense. L'analyse de scène, qui exploite cette information (voir article référencé [3] plus haut), est utilisée pour guider automatiquement l'endoscope virtuel à l'intérieur du volume, analyser les propriétés topologiques et mesurer les caractéristiques géométriques des structares anatomiques observées. L'analyse de scène s'appuie sur la construction progressive d'une description structurelle globale, sous forme d'un arbre binaire dans lequel les nœuds représentent des points de séparation entre les segments vasculaires et les feuilles caractérisent des maxima de profondeurs. Cette analyse est réalisée localement à partir de l'information de profondeur de la scène.
Elle repose en particulier sur un échantillonnage adaptatif du volume observé par une séquence de plans (suivant l'axe de visée du capteur), qui sert de support à une représentation structurée des points de surface pour l'estimation des espaces libres et la détection de collision.
Une détermination automatique du maillage surfacique de la surface interne du vaisseau est réalisée à partir des points de surface détectés au cours de la navigation. Le lancer de rayons permet de maîtriser la répartition des points de surface. Un maillage polygonal est construit en considérant un certain nombre de points de surface répartis de manière structurée pour une image I, (position P; du capteur virtuel) et associés aux points de surface correspondants pour une image Ii+ι (position Pi+ι du capteur virtuel).
D'autre part, la paroi est caractérisée au cours de la navigation par analyse locale de la valeur des voxels (densité dans le cas d'une imagerie TDM) dans un plan orthogonal à la trajectoire suivie. Au-delà de la lumière interne de la structure anatomique considérée, des régions de valeurs homogènes sont formées afin de mettre en évidence, par un codage en échelle de couleur, les différentes classes de valeurs des voxels et de caractériser la nature de la paroi et de la lésion (hyperplasie myointimale, plaque d'athérome, ...). Une image mixte intégrant une vue endoscopique virtaelle de la lumière interne et une caractérisation de la densité hors de cette lumière interne peut ainsi être produite pour chaque position le long de la ligne centrale de la structure anatomique considérée.
Le capteur virtuel construit ainsi automatiquement un modèle de description (qualitative et quantitative) de la scène inconnue. Ce modèle descriptif des données patient pré-opératoires obtenu au cours de l'exploration virtuelle du volume image constitue un outil robuste et opérateur-indépendant pour la caractérisation des structures anatomiques (topologie, géométrie, qualité pariétale). ii. Modélisation et Simulation Virtuelle de l'acquisition peropératoire ii.a. Données préopératoires 3D
Les structures segmentées 3D sont quant à elles issues du système de navigation exploratoire virtuelle décrit précédemment. Elles se composent des lignes centrales
(trajectoire suivie par le capteur virtuel) ainsi que du maillage de la surface interne des structares anatomiques. De plus, la délimitation du produit de contraste (injecté lors de l'acquisition préopératoire) par la surface détectée par navigation exploratoire virtaelle permet d'identifier les voxels appartenant à la lumière interne du vaisseau. On définit
alors un nouveau volume image préopératoire Volp, à partir du volume image initial Vol; selon l'algorithme suivant :
Initialisation :
Position du capteur virtuelle = position initiale
Pas de déplacement du capteur virtuel = 0,1 (exprimé en voxel)
Tant que position ≠ position finale
{
Pour chaque point de l'image du capteur virtuel
{ associer un rayon, position le long du rayon = début du rayon Pour chaque point du rayon
{
Si point courant de valeur Vol; (i j Je) E lumière interne, alors VoL/i jjk) = Vol; (i j,k), Sinon Vo /i j,k) = 0, } } Position = Position + déplacement
} ii.b. Transformations géométriques
La transformation entre le référentiel 3D préopératoire et le référentiel 2D peropératoire fait intervenir principalement deux classes de transformations : une ou des transformations rigides 3D et une transformation perspective.
D'une manière générale, si l'on considère un référentiel 9ta(C, X, Y, Z) on définit à l'aide de la matrice 3x3 RXα (respectivement Rγ(î, RZy) une rotation d'angle α (respectivement β, γ) autour de l'axe CX (respectivement CY, CZ), et par Tx (respectivement TY, Tz) une translation suivant l'axe CX (respectivement CY, CZ). Si l'on considère un deuxième référentiel [ftb(C\ X', Y', Z'), une transformation rigide 3D τba est alors définie par une relation faisant intervenir un ensemble de 6 paramètres E(TX,
Tγ, Tz, oc, β, γ) où Tx, TY, Tz sont les 3 paramètres de translation et α, β, γ les 3 angles d'Euler
+ T, avec R
aβ = Rχ
a -R
Υβ -R
Z et T
soit encore ba
^ → ^ <* (D
où la transformation rigide entre les référentiels 3t
a et -H
b est exprimée par la matrice de transformation M
ba dans un système de coordonnées homogènes.
De la même façon, il est possible d'exprimer dans un système de coordonnées homogènes la projection perspective d'un point exprimé dans un référentiel 3D d\b(C X', Y', Z') en un point exprimé dans un repère image 2D Oîc(c, i, j) dans lequel i et j désignent les coordonnées image discrétisées (pour un pixel de taille t;, tj). En considérant que le plan image est parallèle au plan (C, X', Y') et sitaé à une distance f le long de l'axe CZ' du centre de projection C et que l'intersection de l'axe CZ' avec le plan image a pour coordonnées (i0, jc), la projection perspective peut s'exprimer, au facteur d'échelle k près, par la relation matricielle suivante :
3t„ '8t„ et F
t ≈ fft
t, F
j ≈ f/t
j
Lorsque l'on considère la transformation entre le référentiel 3D 9îa(C, X, Y, Z) et le référentiel 2D -Hc(c, i, j) - on parle alors de transformation perspective - la relation matricielle exprimée dans un système de coordonnées homogènes s'écrit de la façon suivante :
Sft„ →St,. K-M ba (2)
où P est la matrice de transformation perspective définie à un facteur d'échelle près qui peut être normalisé à 1. Cette transformation fait intervenir un ensemble de 10 paramètres qui se décompose en un ensemble de 6 paramètres extrinsèques E(T
X, T
γ, T
z, α, β, γ) et un ensemble de 4 paramètres intrinsèques I(F
i5 F
j9 i
c, jj. La modélisation géométrique du système d'acquisition peropératoire nécessite la distinction et la spécification d'un certain nombre de référentiels intermédiaires, même si les transformations impliquées peuvent ne plus apparaître explicitement dans la stratégie de recalage finale en raison des compositions effectuées à des fins de simplification. Afin de définir au mieux les différentes transformations géométriques et d'avoir accès aux paramètres réellement ajustables par le praticien, les référentiels retenus sont les suivants (figure 2):
• (Rp(P, x p , yp, zp) : Référentiel 3D préopératoire associé au volume image préopératoire. Il est fixé lors de l'acquisition et/ou peut être modifié en début et en cours de traitement. C'est dans ce référentiel que devra être effectuée la localisation. Ce référentiel est aussi le référentiel de base pour la constitution de l'environnement virtuel de simulation et de planification de l'intervention.
• ^ R, xr, yr, zr) : Référentiel 3D de l'environnement réel lié à l'installation effective du patient pendant l'intervention. Le terme utilisé classiquement est plutôt monde réel. Nous employons ici le terme environnement réel par analogie à l'environnement virtuel qui concerne la planification préopératoire, ces deux environnements devant être mis en correspondance lors de la localisation et par conséquent lors de la conduite de navigation et du guidage par réalité augmentée.
• #tA(A, xa, ya, za) : Référentiel 3D réel lié au système d'acquisition peropératoire 2D. Il est centré sur l'isocentre A du système d'acquisition. C'est en agissant sur la transformation rigide 3D entre ce référentiel et le référentiel 9lR(R, xr, yr, zr) que le praticien effectue le réglage des paramètres de rotation et de translation du système d'acquisition.
• 8ts(S, xs, ys, zs) : Référentiel 3D rapporté à la source d'émission des rayons X. S correspond au centre de la projection perspective (équivalent à un centre
optique). L'axe (S, zs) est confondu avec l'axe principal de la projection perspective (équivalent à l'axe optique).
• ïd0(0, , y) : Repère image 2D peropéraoire. Le point O correspond à l'intersection de l'axe principal avec le plan image. Les axes Ox et Oy sont respectivement parallèles aux axes Axa et Aya ainsi qu'aux axes Sxs et Sys.
• fftι I, u, v) : Repère associé à l'image 2D peropératoire discrétisée. Il permet de repérer les positions de pixels de l'image 2D peropératoire par des coordonnées entières suivant une convention matricielle.
L'objectif étant de localiser dans le volume préopératoire l'outil délimité par des points radio-opaques (par exemple un ballonnet délimité par deux points radio-opaques, une endoprothèse, ou tout autre outil) sur l'image peropératoire 2D, il s'agit de définir le modèle de la transformation géométrique entre les référentiels 3D préopératoires et 2D peropératoires par projection, et inversement par rétroprojection. Cette transformation résulte physiquement des différentes transformations décrites dans la suite. 1) Xgp, une transformation rigide 3D entre le référentiel 3D préopératoire SftP associé à l'environnement virtuel et le référentiel 3D peropératoire 0tR associé à l'environnement réel. Elle peut s'exprimer suivant l'équation (1) par une matrice de transformation MRP définissant une translation et une rotation 3D de paramètres (T^, nnées homogènes :
Cette transformation amène les points du volume préopératoire à leurs correspondants dans l'espace peropératoire. Elle traduit en particulier le « bougé » dû aux différences d'installation du patient entre les acquisitions préopératoire et peropératoire. Dans la cas où un référentiel particulier est imposé au niveau de l'espace peropératoire, par une mire de calibrage non solidaire du système d'acquisition et disposée dans l'espace opératoire par exemple, la transformation intègre aussi la différence de choix des référentiels par rapport aux structures anatomiques. Ces structures sont supposées, par hypothèse, ne subir que très peu de déformations entre les
acquisitions pré- et peropératoires, si bien que celles-ci sont négligées et que la transformation recherchée est rigide. Pour certaines localisations ou structures anatomiques (les artères carotides exemple), cette hypothèse reste valable si la région anatomique considérée (dans l'exemple le cou) ne subit pas de déformations entre l'acquisition préopératoire et l'acquisition peropératoire. Cette condition peut être respectée en utilisant un dispositif de contention simple et non invasif, le plan d'installation du patient tenant déjà en partie ce rôle, pour reproduire l'installation du patient (au sens des déformations) entre les deux phases d'acquisition. 2) tSR , une transformation rigide 3D entre le référentiel 3D de l'environnement réel -ftR et le référentiel 3D rapporté à la source du système d'acquisition ÎSts. Elle peut s'exprimer suivant l'équation (1) par une matrice de transformation MSR définissant une translation et une rotation 3D de paramètres (Txsr, Tysr, Tœr, θxsr, θysr, θpsr) dans un système de coordonnées homogènes :
Cette transformation peut être intégrée dans le modèle de transformation perspective décrit ci- après. Elle concerne alors les paramètres extrinsèques du système d'acquisition (position, orientation dans l'environnement réel). Elle permet de mettre en évidence une décomposition supplémentaire, c'est-à-dire une combinaison de deux transformations qui concernent respectivement le passage du référentiel 0tR au référentiel 3D du système d'acquisition 8tA (transformation r^) et le passage de ce référentiel 8tA au référentiel rapporté à la source 9t s (transformation τSA). On a alors suivant la convention adoptée :
3Î* → %ï
£ (6)
et donc M
SR = M
SA • M
M (1)
Les ensembles de paramètres considérés sont alors respectivement (T^, Tyar, Tw, θ xar, θyar, θpar) et (Txsa, Tysa, Tzsa, θ xsa, θysa, θpsa) pour les transformations t^ et tSA. Le fait d'introduire explicitement la transformation x dans l'environnement de simulation virtuelle permet de faire apparaître les paramètres effectivement réglables par le praticien dans l'environnement interventionnel réel. Ceci assure une cohérences des paramètres ajustables dans les environnements réels et virtuels, même si la transformation τm n'est pas précisément connue dans l'environnement réel puisqu'elle fait partie des inconnues du problème. Elle peut être estimée dans une phase de calibrage préliminaire ou bien, après combinaison avec les autres transformations, être intégrée dans l'espace de recherche des paramètres (cf. stratégies de recalage), la transformation tj-p étant dans tous les cas inconnue.
3) τm, une transformation de type transformation perspective, qui amène les points exprimés dans le référentiel peropératoire 9tR en leurs correspondants sur l'image 2D. Le modèle d'un capteur d'image 2D tel qu'un système d'acquisition à Rayons X pour l'intervention (scopie ou encore « C-arm ») peut en effet être approximé par une transformation perspective complétée éventuellement par un modèle de distorsions géométriques. Il est aussi possible d'utiliser une représentation mathématique de type modèle multi-plans qui ne fait pas l'approximation d'un centre unique de projection, une correspondance entre ces deux modèle pouvant être établie. Selon la relation (2), la transformation perspective inclut la projection perspective et la transformation τSR de la façon suivante :
**• k - avec K ≈ dll
v (8)
Sta →St, avec P = K -M SR (9)
où P est la matrice de transformation perspective définie à un facteur d'échelle k près qui peut être normalisé à 1. Cette transformation fait intervenir un ensemble de 10 paramètres qui se décompose en un ensemble de 6 paramètres extrinsèques E(T
xsr, T
ysr,
Ta,,-' θs.> θysr> Θpsr) et un ensemble de 4 paramètres intrinsèques I(FU, Fv, u0, v0) avec (u0, v0) les coordonnées image du point d'intersection O entre l'axe (SO) et le plan image,
(lu, lv) la taille du pixel, et dJpO la distance source - détecteur (équivalente à la distance focale).
Dans le cas où le système d'acquisition présente des distorsions géométriques, il est nécessaire d'introduire dés termes correctifs sur les coordonnées images u, v afin de modéliser ce phénomène. En considérant des phénomènes de distorsion radiale et tangentielle, les coordonnées effectivement observées dans le plan image numérique, c'est-à-dire les coordonnées avec distorsions ud, vd, s'expriment en fonction des coordonnées idéales sans distorsion u, v par les expressions suivantes : ud=u + Au, vd≈v + Δv,
Au=dru+dtu+dau, Av≈d„+dtv+dav, d m =uc-(k -r2 +k2-r +h, τ6 +•••), d„ =vc •( , -r2 +k2 -X + k3 -X +•••), dtu≈ + 2-w2) + 2-*2 -uc -vc, d^-tz -(r2 + 2-v ) + 2-tι -uc-vc, (10) da d„, ≈ fl„ où W„ ≈ U -U v„ = v - vΛ et r2=«2+v2 La transformation perspective exprimée par le produit matriciel (9) est en fait une linéarisation du modèle, la transformation qui fait intervenir explicitement les paramètres physiques pouvant toujours être exprimée à partir des équations matricielles (3) - (9) dans la phase d'estimation des paramètres réels du système d'acquisition. Cette linéarisation du modèle au moyen de la matrice de transformation perspective en particulier, permet une inversion directe de ce modèle, et autorise ainsi une rétroprojection peu coûteuse en temps de calcul. ii.c. Image peropératoire virtuelle
Dans la définition donnée par les relations (3) - (10), et connaissant les valeurs des différents paramètres, le passage d'un point exprimé dans le référentiel 3D préopératoire dïF à un point projeté dans le référentiel 2D peropératoire Sïlj se fait directement par application respective des différentes transformations. Dans la phase de
simulation, les différents paramètres prennent soit des valeurs typiques rencontrées sur le systèmes d'acquisition réel, soit des valeurs fixées interactivement par l'utilisateur. Il est alors possible de projeter des lignes centrales 3D ou des points de surfaces pour simuler l'ensemble des transformations et créer ainsi une image 2D peropératoire virtuelle. La transformation s'exprime alors par la transformation suivante :
9tp — 3t
7 u
d ≈ u + A
u, v
d ≈ v + Δ
v avec V ≈ K - MVA - M
l AR
R- - M
l RP (H)
Le fait de décomposer la transformation V et de privilégier dans la définition du modèle une transformation de type projection plutôt que rétro-projection permet à l'utilisateur de renseigner les paramètres interactivement et intuitivement, de la manière dont il le ferait sur le système réel. Il est à noter toutefois que ce modèle peut être inversé tant dans sa définition que par résolution numérique. Les paramètres de distorsions géométriques sont fixés à des valeurs typiques (valeurs moyennes communément rencontrées sur le système d'acquisition considéré). En raison de la faible différence d'installation du patient entre l'acquisition préopératoire et l'acquisition peropératoire (la table supportant le patient agissant pour certains degrés de liberté comme un dispositif de contention) les paramètres (T^, T^, Tzrp, θ ^ θ^, θZφ) de la transformation T^ sont posés à zéro par défaut. Les paramètres (TŒ! Tyar, Tzar, θ xar, θyar, θzar) de la transformation t^ entre les référentiels 9tR et 9tA sont définis interactivement par l'utilisateur. Dans cette phase de simulation, les transformations tSA et tjg, entre les référentiels 9ts et 0tA, et Stj et 9ts respectivement, sont complètement définies à partir des distances source - isocentre ( S ) et source - plan image ( p>I ), ainsi que des paramètres intrinsèques du système d'acquisition qui sont approximativement connus pour un dispositif donné.
Pour plus de réalisme, le calcul de l'image peropératoire virtuelle ne se limite pas à la projection de courbes ou de surfaces matérialisées par des points 3D, mais consiste à projeter sur le plan image le volume préopératoire Volp suivant la transformation exprimée par l'équation (11).
Deux modes de projection peuvent être réalisés, un mode radio qui consiste à affecter à chaque pixel de l'image virtuelle la somme des valeurs de voxel le long de la droite de projection associée, ou un mode MIP qui consiste à affecter à chaque pixel de l'image virtuelle la valeur maximale rencontrée le long de la droite de projection associée. Il ne s'agit donc pas ici d'une simple projection d'un point 3D sur un plan 2D.
La démarche consistant à déterminer dans un premier temps la droite de projection associée au point image considéré, il est nécessaire d'inverser le modèle de projection pour effectuer la rétro-projection. Dans le cas général, c'est-à-dire lorsque les distorsions géométriques ne sont pas négligées, une droite de projection dans l'espace 3D préopératoire doit être associée à tout point image de coordonnées ud, vd. Plusieurs solutions peuvent être adoptées. La formulation (10) qui exprime les coordonnées image avec distorsion en fonction des coordonnées image sans distorsion est similaire à celle d'un modèle (bi-) polynomial dont les coefficients seraient fonction de la combinaison des paramètres de distorsion exprimés précédemment. Les propriétés d'inversion des séries permettent alors d'exprimer les coordonnées sans distorsion à partir des coordonnées avec distorsions. Le modèle des distorsions géométriques (10) étant connu, ou supposé connu dans cette étape, une autre solution consiste à définir une table de correspondance (LUT) de la taille de l'image qui exprime les coordonnées sans distorsion à partir des coordonnées avec distorsions : u = LUTu(ud,vd ) v ≈ LUTv(ud,vd ) avec 0 ≤ ud < N, 0 ≤ vd < M, pour une image de taille N x M
Le calcul des valeurs de chaque point des tables LUTU et LUTV peut être réalisé, à partir d'un nombre limité de paires de points associés {(ud, vd) ; (u, v)} données par
(10) ou directement à partir des données d'une mire et de l'image associée, au moyen de fonctions d'interpolation de type polynomiales, B-splines ou plaques minces ... Quelle que soit la solution adoptée, il est possible d'exprimer de manière classique les coordonnées sans distorsion à partir des coordonnées avec distorsion sous la forme suivante : u ≈ C01 {ud,vd) v ≈ CORv(ud,vd) (12) où COR désigne soit une table de correspondance (LUT), une fonction d'interpolation ou un modèle de correction des distorsions.
A partir de la relation matricielle (11) et en notant πiy (i = 1 à 3, j = 1 à 4) les composantes de la matrice V, l'équation de la droite de projection associée au point image sans distorsion u, v, et par conséquent au point image avec distorsions correspondant de coordonnées ud, vd, s'exprime de la façon suivante : (mn - m31 -u}x + (ml2 - m32 -u}y + (ml3 - m33 -u}z + l4 = m3Λ - (m21 - m -v}x+ (m22 - m32 -v}y + (m23 - m33 - v} z + m2 = m34 • v
L'expression (13) définit dans le référentiel 3D préopératoire la droite de projection passant par le centre de projection S et le point image considéré. Le volume image Volp(i j ) contenant les structures anatomiques segmentées dans le référentiel 3D préopératoire est connu d'après l'algorithme décrit ci-dessus en ii.a. Les coordonnées i jc correspondent à une discrétisation des coordonnées x, y, z dans le référentiel 3D préopératoire. La sommation des valeurs de voxel interpolées ou la détection de la valeur maximale du voxel interpolée le long de la droite de projection associée à chaque pixel de coordonnées ud, vd, permet alors de générer simplement l'image 2D virtaelle peropératoire (figure 3) . ii.d. Contrôle interactif des paramètres
Les paramètres du modèle sont réglés interactivement par l'utilisateur. Pour cela, il dispose d'une interface graphique qui lui permet d'agir sur le système d'acquisition, ainsi que sur les caractéristiques anatomiques à retenir pour effectuer le recalage. L'interface constitue la partie interactive de l'environnement virtuel à partir duquel l'utilisateur peut simuler, entre autre, la partie acquisition de l'intervention. En réglant virtuellement les paramètres d'acquisition, de la même manière qu'il le fait dans la réalité, l'utilisateur peut choisir le meilleur réglage, pour générer l'image peropératoire 2D et faire apparaître la lésion sous la meilleure incidence.
L'image 2D virtaelle ainsi que les paramètres d'acquisitions associés étant déterminés, il peut alors sélectionner dans les données préopératoires 3D segmentées les structares anatomiques qui lui semblent pertinentes (choix des primitives de recalage), afin de tester la procédure de recalage décrite dans la suite. Dans le cas où le résultat du recalage n'est pas satisfaisant (mauvaise précision par exemple), il peut reconsidérer les choix effectués et relancer la procédure plusieurs fois afin de sélectionner la meilleure configuration. Pour une incidence et un ensemble de caractéristiques anatomiques
données, il est possible de lancer un ensemble de tests de recalage à partir de conditions initiales sur les paramètres recherchés lors de l'intervention (par exemple T^, T^., T^, θ j^p, θyrp, θ^) qui s'écartent, dans une plage réglable par l'utilisateur, des valeurs fixées par défaut lors de la simulation de l'image virtuelle. Ceci permet d'anticiper des problèmes de recalage éventaels qui pourraient se produire si le réglage effectif de l'appareil d'acquisition peropératoire 2D (dans l'environnement interventionnel réel) s'avérait trop éloigné de ce qui était prévu lors de la simulation virtuelle.
Cette simulation réalisée au moyen de l'environnement virtuel permet au praticien de sélectionner les paramètres optimaux pour l'acquisition et le recalage qu'il cherchera à reproduire lors de l'intervention réelle. iii. Recalage du référentiel pré-opératoire 3D et du référentiel per-opératoire
2D
La mise en correspondance des données du planning et de l'imagerie mterventionnelle se traduit essentiellement par le recalage : - de données préopératoires 3D extraites d'un volume image discrétisé (TDM par exemple) et de données peropératoires 2D extraites d'une image projective par Rayons X acquise sous une seule incidence.
La méthode proposée est basée sur : (a) la modélisation fine du système d'acquisition décrite précédemment ;
(b) l'exploitation des structares anatomiques segmentées afin de créer des primitives 3D et 2D (extraction des lignes centrales 3D et 2D) et une carte de distances dans le plan image ;
(c) l'estimation précise des paramètres de la transformation 3D/2D par un algorithme d'optimisation qui cherche à minimiser la distance entre la projection de la structure anatomique 3D segmentée (donnée par navigation exploratoire virtuelle dans le volume image préopératoire) et la ligne centrale extraite de l'image 2D acquise pendant l'intervention. ϋi.a. Données peropératoires 2D
La segmentation est un problème de traitement d'images à part entière qui ne constitue pas ici le cœur de la méthode proposée, même si le résultat de la segmentation conditionne pour partie celui du recalage.
Ainsi, la phase de segmentation de l'image peropératoire 2D ne fait pas appel à des techniques sophistiquées, mais seulement aux fonctions de base de traitement d'images. Dans le cas des structures vasculaires par exemple, celles-ci permettent de dégager des structares segmentées de qualité satisfaisante sur des données réelles d'angiographie. Les données à segmenter sont des images standard d'artères, dans lesquelles du produit de contraste a été injecté afin qu'elles apparaissent à l'angiographie peropératoire (image 2D peropératoire de référence). On dispose également de la même vue des artères cette fois non injectées. Ce masque permet d'obtenir par soustraction une image des structares vasculaires injectées assez peu bruitée (figure 4A sur laquelle des fonctions de segmentation sont appliquées.
Sur cette image de soustraction, l'application d'une fonction de seuillage donne une structure binarisée dont sont extraites, après squelettisation, les lignes (primitives
2D) considérées comme les lignes centrales des artères projetées (figure 4B^ . L'extraction des contours des artères segmentées peut aussi être réalisée. Cependant, le choix des primitives de recalage s'est porté sur les lignes centrales des vaisseaux qui semblent à première vue moins porteuses d'erreurs de segmentation. De plus, ce choix semble assez naturel quand il s'agit de structures de type tabulaire, l'hypothèse sous- jacente étant que la projection des lignes centrales 3D des structures anatomiques coïncide avec les lignes centrales 2D extraites des images peropératoires. iii.b. Distance
Une carte de distance 2D est utilisée afin de mesurer, sans recherche explicite de correspondances points à points, la distance entre les lignes 2D segmentées et les lignes
3D projetées selon la transformation courante. Cette carte de distances est générée sur l'image 2D segmentée en utilisant un opérateur de type Chamfer. C'est un opérateur proche d'un filtre, qui s'applique sur l'image en la parcourant dans un sens puis dans le sens inverse et qui crée une image dont la valeur des pixels est d'autant plus grande que la distance de ce pixel aux lignes segmentées est grande.
Les lignes centrales 3D (primitives 3D de recalage) étant discrétisées, elles sont décrites par un ensemble fini de points. La projection de chacun des points de cet ensemble sur la carte de distance (figure 5) donne une valeur de distance qui traduit l'erreur entre les lignes 2D et le projeté du point 3D. Pour estimer l'erreur de l'ensemble des points 3D, on calcule une fonction de distance d'ensemble qu'on a choisi égale à la somme des carrés des distances de chaque point. Soit W l'ensemble des points w
} 3D décrivant les lignes centrales, τ la transformation géométrique estimée qui projette les points w
; sur la carte de distance 2D en q
}
et dist(q
;) la valeur donnée par la carte de distance en ce point, la fonction de distance E des lignes centrales 3D projetées à la ligne centrale 2D s'écrit formellement :
L'algorithme utilisé est un algorithme de type énumératif. A partir d'un jeu de paramètres initiaux, il recherche de façon quasi-exhaustive le minimum local. Dans un soucis de simplification, le comportement de l'algorithme est décrit en considérant un jeu de deux paramètres. Partant de la position initiale D (pw,p2z>) , on fixe le paramètre ρ2 et on cherche sur l'axe du paramètre pi dans un voisinage de A la meilleure transformation. On obtient ainsi le point (PWPID) - Ensuite on fixe pj à pm , et on trouve le point minimum dans la direction p2, soit (pw<,p2D>). Le fait de faire varier les paramètres en fixant les autres réduit le temps de calcul et fait que la complexité de l'algorithme est linéaire vis-à-vis du nombre de paramètres. L'opération est répétée jusqu'à trouver le minimum local M. Pour trouver le minimum global de la fonction, on procède par saut aléatoire sur l'espace des transformations et la méthode décrite précédemment est appliquée à partir de la position aléatoire trouvée. Le processus est itéré un nombre de fois jugé suffisant pour atteindre le minimum global. Toutefois, d'autres types d'algorithmes d'optimisation pourraient être utilisés, tels Powell, Newton Raphson ... , sans sortir du cadre de l'invention. iii.d. Stratégie de recalage
Le procédé proposé s'applique à la localisation et à la conduite de navigation dans le cas de structares anatomiques arborescentes et de type tabulaire. Comme déjà
mentionné ci-dessus, il peut concerner les voies circulatoires ou différents canaux physiologiques dès lors que des images préopératoire 3D et peropératoire 2D sont disponibles. Concernant ces dernières, il est toutefois nécessaire de distinguer clairement les structures anatomiques d'intérêt sur les images. De plus, l'hypothèse est faite que les structures anatomiques d'intérêt, ou les parties de ces structures, utilisées pour le recalage se déforment peu entre l'instant d'acquisition préopératoire et l'instant d'acquisition peropératoire. Le domaine d'application pris comme exemple dans la suite concerne la conduite de navigation dans des structares vasculaires.
Différentes stratégies peuvent être dégagées à partir de la géométrie du problème décrite dans la partie ii), celles-ci se distinguant non seulement sur le plan de l'espace de recherche des paramètres adopté, mais aussi sur le plan du protocole de recalage à suivre. Dans tous les cas, une estimation initiale de la transformation est donnée par la simulation. Les paramètres initiaux de rotation et de translation sont utilisés à titre indicatif par le praticien, pour effectaer un premier réglage du système d'acquisition au début de l'intervention. Après injection d'un produit de contraste dans les vaisseaux, il réalise de manière classique - au moyen d'un appareil de scopie avec un bras en C par exemple et sans modification du protocole habituel - une séquence temporelle d'images sous l'incidence sélectionnée, qui lui permet de visualiser les structures anatomiques d'intérêt sur l'écran de contrôle. Une des sorties vidéo de l'appareil de scopie étant connectée à une carte d'acquisition (incluant éventuellement des fonctions de numérisation et de traitement d'image) insérée dans un ordinateur de type PC, la séquence d'image sur laquelle est superposée la projection (60) des lignes centrales 3D des vaisseaux pré-calculée en simulation, selon la transformation %& et le modèle de distorsion typique ou mesuré de l'appareil considéré, est restituée en temps réel sur un deuxième écran de contrôle (figure 6). Le praticien peut ainsi affiner le réglage de l'incidence pendant cette première acquisition, en cherchant à faire coïncider approximativement l'image des vaisseaux injectés avec les lignes centrales 3D projetées. La prise en compte du jeu de paramètres issu de la simulation virtuelle permet d'optimiser la phase de réglage de l'appareil, tant au niveau du temps d'acquisition, et donc de l'irradiation subie par le patient, qu'au niveau de l'incidence sélectionnée. Elle
permet aussi de disposer de conditions initiales sur les paramètres recherchés dans le processus de recalage proches de la solution finale, pour améliorer la convergence de l'algorithme d'optimisation (iii.c). L'incidence d'acquisition étant fixée, deux modes de réalisation de la procédure de recalage qui s'appuient fortement sur la modélisation fine du système d'acquisition (décrite en ii.) sont possibles.
Dans un premier mode de réalisation, il s'agit d'estimer les dix paramètres de la transformation " ,, c'est à dire les paramètres intrinsèques du système d'acquisition (transformation t^) et les paramètres extrinsèques de la transformation rigide τSP qui est la combinaison des transformations τSR et t ^,. Les distorsions géométriques correspondant à l'incidence sélectionnée peuvent être estimées plus précisément dans une phase préliminaire classique grâce à une grille radio-opaque plane placée à proximité et parallèlement au plan du capteur d'image. Ainsi, la transformation recherchée se compose de six paramètres de rotation et de translation (Txsp, Tysp, T≈p, θxsp, θysp, θ^p) alignant le repère préopératoire 3D sur le repère 3D du système d'acquisition et des quatre paramètres intrinsèques du système d'acquisition (u0, v0, Fu, Fv). Le recalage est ensuite effectué sur cet espace de recherche à partir des seules structures anatomiques suivant le plan méthodologique développé dans la partie précédente.
Dans un second mode de réalisation, le modèle intrinsèque du système d'acquisition τIS est déterminé par une procédure de calibrage qui peut inclure aussi l'estimation des distorsions géométriques. Plusieurs approches ont été reportées dans la littérature. Il est nécessaire d'utiliser une mire de calibrage faisant apparaître des points radio-opaques couvrant un espace utile 3D. Celle-ci peut être disposée dans le champ opératoire et prendre une forme géométrique s'adaptant à l'anatomie du patient. Une solution moins contraignante pour la procédure mterventionnelle consiste à fixer devant le détecteur d'image deux plans solidaires munis de points radio-opaques, strictement parallèles et distants entre eux d'environ 10 cm. Une méthode de calibrage multi-plans peut alors être appliquée, le modèle de projection perspective se déduisant simplement à partir du modèle multi-plans. Une fois les paramètres intrinsèques déterminés, la transformation recherchée se limite à la transformation τSP. Le recalage sur les caractéristiques anatomiques segmentées consiste alors à calculer les six paramètres
(Txsp, Tysp, Top, θxsp, θysp, θωp). On procède suivant la même méthodologie que celle décrite précédemment mais l'espace de recherche des paramètres est moins important. iv. Rétroprojection et localisation
Lorsque la phase de recalage, et la mise en correspondance des structures segmentées 3D et 2D qui en résulte, est achevée, les paramètres de la transformation τ'
(estimée de la transformation géométrique 3D/2D) sont déterminés.
Comme illustré sur la figure 7, le correspondant 72 sur l'image 2D peropératoire 73 de tout point 71 de l'espace 3D préopératoire 74 est donc connu. Inversement, la droite de projection (ou de retro-projection) issue du centre de projection et passant par un point 2D quelconque 72 est déterminée simplement en calculant les coordonnées du centre de projection et du vecteur directeur de la droite dans l'espace 3D préopératoire. Théoriquement, la droite de projection 70 est insuffisante pour localiser un outil ponctuel dans un volume. Cependant, à la différence des problèmes de reconstruction 3D, les données volumiques et en particulier l'arbre vasculaire segmenté par navigation exploratoire virtuelle sont connues. Comme, par ailleurs, les outils endovasculaires sont guidés dans la lumière du vaisseau par un cathéter, leur localisation dans le volume préopératoire est réalisée par rétroprojection dans le volume segmenté constitué de l'arbre vasculaire et par le calcul du point 71 de l'arbre vasculaire (lignes centrales des vaisseaux) le plus proche de la droite de projection. Plus précisément, les différentes branches de l'arbre vasculaire 3D discret issues de la navigation exploratoire virtuelle sont interpolées de façon à être décrites par un ensemble W de points 3D wt. Après recalage des lignes centrales 3D et des lignes centrales 2D, une estimation τ' de la transformation est trouvée, (dx étant la droite de projection selon τ' passant par qt (point 2D devant être localisé) le calcul du point de l'ensemble W le plus proche de (dt) donne le résultat de la localisation après recalage.
Ainsi, si Wj est ce point, alors qt est retroprojeté en wi wj = hoc(qt , τ') ).
La détection des points de l'image peropératoire 2D 73 devant être localisés dans l'espace préopératoire 3D 74 est réalisée par des algorithmes classiques de traitement d'image. Elle est effectuée sur la carte d'acquisition standard incluant des fonctions de traitement d'image. En effet l'outil (ballonnet, source d'irradiation, ...) étant matérialisé par des points radio-opaques le délimitant et le produit de contraste étant naturellement
évacué des structures vasculaires à ce stade du processus, la détection des points à localiser dans l'image ne pose pas de difficultés particulières. Outre la localisation indépendante de certains points de l'outil dans l'espace préopératoire 3D, la considération de plusieurs points permet aussi de déterminer son orientation par rapport aux structures anatomiques environnantes.
La figure 8 présente un exemple de contenu de deux écrans d'affichage 80, 81 au cours d'une opération. Sur le premier écran 80, le praticien visualise une vue réelle d'une image 2D peropératoire 82, dont une vue schématique est représentée dans la partie haute de la figure 7. Sur le second écran 81, il visualise un ensemble d'informations restituées pendant l'intervention (voir description ci-après) ,
Ainsi dans l'exemple sur la figure 8, une séquence temporelle d'images 2D peropératoires 82 est acquise (sous la même incidence que l'image 2D peropératoire de référence) après évacuation du produit de contraste et introduction d'un cathéter 84 sur lequel est placé l'outil. Le terme outil est utilisé au sens large, celui-ci pouvant désigner un ballon, une endoprothèse, une source d'irradiation ... L'image peropératoire 2D à rayons X 82 fait alors apparaître l'outil (dans l'exemple un ballon non encore dilaté) matérialisé par deux points radio-opaques 85, 83. La région d'intérêt 86 agrandie permet de mieux distinguer les deux points radio-opaques 85, 83. Comme illustré sur la figure 7, qui est une vue schématique simplifiée de l'exemple réel de la figure 8, ces points sont détectés puis localisés ponctuellement sur les primitives activées 76 dans le référentiel 3D pré-opératoire. Dans cet exemple, les primitives activées 76 sont trois branches de l'arbre vasculaire.
La branche 75 associée à l'un des points est mise en évidence par la localisation contextuelle. En effet, outre la localisation ponctuelle décrite ci-dessus, il est possible, à partir de la description structurelle de l'arborescence (modèle descriptif), d'effectuer une localisation contextuelle. Cette dernière permet d'indiquer dans quelle branche de la structure arborescente se situe le point localisé et le parcours suivi par l'outil. A partir de cette localisation contextuelle, un processus d'activation / désactivation permet d'activer au cours de l'évolution de l'outil un nombre limité de branches possibles pour les localisations futures et de lever ainsi les ambiguïtés dans le cas de structures
arborescentes denses pour lesquelles plusieurs candidats seraient possibles (superposition des structures anatomiques dans l'image 2D). v. Conduite de Navigation
H s'agit dans cette étape de restituer les éléments pertinents du planning au cours de l'intervention. La restitution des données 3D préopératoires sélectionnées dans la phases de simulation peut se faire par différents moyens tels que des lunettes HMD, ou un système multi-écrans, sur lesquels apparaissent les images réelles classiquement réalisées lors d'une intervention enrichies des données issues du planning.
La forme la plus simple est de sélectionner une trajectoire virtaelle, ainsi que la séquence d'images associées, et de l'afficher au cours de l'intervention. Dans ce cas, la localisation est approximée et définie interactivement par l'utilisateur au cours de l'intervention. La forme la plus élaborée de cette conduite de navigation par réalité augmentée consiste à utiliser les résultats de l'étape (iv) pour sélectionner l'image virtuelle issue de la navigation exploratoire virtaelle dans une séquence pré-enregistrée dans la phase de simulation (ii), ou bien de. déterminer la trajectoire et de calculer les images virtuelles associées dans le volume préopératoire en fonction de la trajectoire réellement suivie par l'outil.
Les informations du planning restituées pendant l'intervention pour aider à la prise de décision du praticien peuvent être de différentes nature. Un premier type d'images permet de restituer et d'interpréter la localisation de l'outil dans l'environnement 3D préopératoire, c'est-à-dire par rapport aux autres structares anatomiques. Cette localisation contextuelle est basée par exemple sur des coupes ou des images MIP calculées dans trois plans orthogonaux au volume préopératoire avec la superposition d'une représentation synthétique de l'outil au cours de la navigation réelle. Le praticien peut aussi avoir recours à des images permettant de mieux apprécier localement les caractéristiques des structures anatomiques et de la lésion au fur et à mesure de la progression de l'outil. Ce sont par exemple des images d'endoscopie virtuelle, des coupes reformatées, des images mixtes combinant un codage de couleur de la nature des différents tissus composant la lésion et une vue endoscopique virtuelle de la lumière du vaisseau ... Un premier choix de ces différentes informations peut être
réalisé dans la phase de simulation. Si plusieurs représentations sont nécessaires pour mieux apprécier la lésion, la commutation entre ces différentes représentations est réalisée interactivement par l'utilisateur pendant l'intervention.
Dans l'exemple illustré sur la figure 8, les informations restituées sur le second écran 81, pendant l'intervention, comprennent : trois plans de coupe orthogonaux 87, 90 et 91 du volume 3D préopératoire 74, fixés par les coordonnées du point localisé 88, la superposition de la position de l'outil et de son orientation 89 (obtenue en considérant la localisation du deuxième marqueur radio-opaque) sur ces plans ; - une vue endoscopique virtuelle 93 pour la localisation et l'orientation considérées ; une vue mixte 92 faisant apparaître une représentation de type endoscopie virtaelle à l'intérieur de la lumière du vaisseau et une représentation de la densité des tissus codée en couleur dans un plan de coupe reformaté pour l'extérieur de la lumière du vaisseau.
Outre la restitution visuelle des données, des alarmes sonores peuvent aussi être utilisées pour indiquer une cible ou un écart trop important par rapport à la localisation ou la trajectoire idéale définie en simulation. vi. Suivi et enregistrement numérique de la procédure La trajectoire idéale simulée, les images virtuelles associées, les paramètres de l'acquisition virtaelle et réelle, les instructions et les gestes du praticien pendant l'intervention et plus particulièrement durant les phases décisives de l'intervention sont enregistrés afin de constituer une boite noire de l'intervention, de servir de base à des études de suivi postopératoire de l'intervention et de l'évolution de la lésion, et de constituer un ensemble de cas de référence pour de futures interventions.
F-c) Autre mode de réalisation particulier de l'invention
Dans le mode de réalisation décrit ci-dessus en relation avec les figures 1 à 7, les mêmes structures anatomiques sont utilisées pour le recalage et la localisation.
Dans une variante de réalisation de l'invention, le recalage est effectué avec des premières structares anatomiques arborescentes (comme décrit en détail ci-dessus), mais
la localisation de l'outil est effectuée en relation avec des secondes structares anatomiques (pouvant être non- arborescente). On suppose dans ce cas que les secondes structures anatomiques sont adjacentes à et sensiblement fixes par rapport aux premières structures anatomiques arborescentes. On suppose également que des (secondes) primitives 3D peuvent être obtenues par segmentation des secondes structures anatomiques.
Il est clair que les deux modes de réalisation précités de l'invention peuvent être combinés. Dans ce cas, le recalage est effectué avec les premières structures anatomiques arborescentes, et la localisation d'un ou plusieurs outils est effectuée en relation avec les premières structares anatomiques arborescentes et/ou avec les secondes structures anatomiques.