ES2959430T3 - Corrección de la deformación - Google Patents
Corrección de la deformación Download PDFInfo
- Publication number
- ES2959430T3 ES2959430T3 ES19166253T ES19166253T ES2959430T3 ES 2959430 T3 ES2959430 T3 ES 2959430T3 ES 19166253 T ES19166253 T ES 19166253T ES 19166253 T ES19166253 T ES 19166253T ES 2959430 T3 ES2959430 T3 ES 2959430T3
- Authority
- ES
- Spain
- Prior art keywords
- feature
- image data
- image
- determining
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00681—Aspects not otherwise provided for
- A61B2017/00694—Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B17/56—Surgical instruments or methods for treatment of bones or joints; Devices specially adapted therefor
- A61B2017/564—Methods for bone or joint treatment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10064—Fluorescence image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
- G06T2207/10121—Fluoroscopy
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
- G06T2207/30012—Spine; Backbone
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Robotics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Superconductors And Manufacturing Methods Therefor (AREA)
- Magnetic Heads (AREA)
- Soft Magnetic Materials (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
Se describe un método para adaptar conjuntos de datos de imágenes 3D para que puedan registrarse y combinarse con imágenes 2D del mismo sujeto, en el que se ha producido deformación o movimiento de partes del sujeto entre la obtención de la imagen 3D y la imagen 2D. Los registros 2D-3D de las imágenes con respecto a múltiples características visibles en ambas imágenes se usan para proporcionar correspondencias de puntos entre las imágenes con el fin de proporcionar una función de interpolación que se puede usar para determinar la posición de una característica visible en la primera imagen pero no la segunda imagen y así marcar la ubicación de la característica en la segunda imagen. También se describe un aparato para llevar a cabo este método. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Corrección de la deformación
Campo de la Invención
[0001]La presente invención proporciona un método para monitorizar la posición de los tejidos en un cuerpo y corregir las deformaciones de estos tejidos durante una operación causadas por cambios en la postura de un cuerpo y/o por instrumentos de intervención.
Antecedentes de la Invención
[0002]Los procedimientos quirúrgicos mínimamente invasivos guiados por fluoroscopia de rayos X, como la ablación cardíaca, la neuroembolización, la angioplastia de la arteria coronaria y la colocación de stents, se utilizan ampliamente, ya que son ventajosos en comparación con los procedimientos quirúrgicos invasivos, en particular para los pacientes que no son aptos para la cirugía abierta.
[0003]Tales procedimientos permiten una reducción sustancial del riesgo de infección y tiempos de recuperación más cortos porque la fluoroscopia intervencionista requiere, comparativamente, sólo una incisión muy pequeña.
[0004]Durante las intervenciones endovasculares guiadas por fluoroscopia, se utilizan rayos X de baja dosis (conocidos como cribado fluoroscópico) para proporcionar orientación tras insertar catéteres, alambres guía u otros instrumentos de intervención en el vaso sanguíneo del paciente mediante la supervisión de su movimiento en tiempo real en un conjunto de pantallas de visualización en la sala de intervención. Sin embargo, sólo los dispositivos intervencionistas y los tejidos densos, como el hueso, se visualizan adecuadamente mediante la exploración fluoroscópica. La anatomía de los tejidos blandos, como la vasculatura, no se visualiza adecuadamente.
[0005]Antes de muchos tipos de operaciones, el paciente suele someterse a una CT (tomografía computarizada) de la zona del cuerpo donde se realizará la cirugía. El resultado es una imagen tridimensional de la zona del cuerpo escaneada. Durante la cirugía se obtienen imágenes fluoroscópicas 2D en tiempo real de la misma zona, utilizando, por ejemplo, un equipo de fluoroscopia tipo brazo en C. Sin embargo, estas imágenes de fluoroscopia 2D pueden ser insuficientes para permitir al cirujano determinar la posición precisa dentro del cuerpo de los instrumentos quirúrgicos o los implantes quirúrgicos, especialmente durante los procedimientos de CMI basados en catéteres. Por ejemplo, durante la reparación de aneurismas aórticos con endoprótesis, es esencial la colocación precisa de la endoprótesis.
[0006]Para abordar los inconvenientes de las imágenes 2D, es conocido aumentar la imagen 2D en tiempo real con la imagen 3D preobtenida, obtenida, por ejemplo de una CT. Entonces surge el problema de garantizar un registro preciso de la imagen 3D con la imagen 2D, es decir, garantizar que la imagen 2D esté alineada con las partes correctas de la imagen 3D. Como ya es conocido en la técnica, la posición y la orientación del CT se definen normalmente mediante seis parámetros de cuerpo rígido, que son tres traslaciones X,YyZ,y tres rotaciones ©x,Qyy ©z. Pueden dividirse en parámetros que definen movimientos paralelos al plano de la imagen de fluoroscopia (parámetros en el plano ©x,YyZ)y parámetros que definen movimientos cuyo componente es normal al plano de fluoroscopia (parámetros fuera del plano©yy©zy X).
[0007]Además, la pose y el posicionamiento de un sujeto cambiarán entre la obtención del conjunto de datos de la imagen 3d y la imagen 2D. Necesariamente, la posición de los tejidos, y en particular de los tejidos blandos, se moverá o deformará debido al cambio de pose y/o posicionamiento del sujeto. Por consiguiente, una transformación espacial precisa y rígida es inadecuada para alinear las características visibles en el conjunto de datos de la imagen tridimensional con las características de la imagen bidimensional.
[0008]El problema de registro consiste entonces en cómo manipular estos parámetros para que la imagen 3D se alinee con la imagen 2D y luego adaptar la imagen 3D alineada para que refleje con precisión la posición de las características que son parcialmente visibles o invisibles en la imagen 2D. Es decir, el cirujano que visualiza las imágenes 2D y 3D combinadas puede tener cierta confianza en el registro logrado y en las características que se muestran como coincidentes.
[0009]Se conocen varias técnicas de registro. En concreto, en Penney et al "An Image-Guided Surgery System to Aid Endovascular Treatment of Complex Aortic Aneurysms: Description and Initial Clinical Experience", IPCAI 2011, LNCS 6689, pp.13-24 los presentes inventores describen una técnica de registro basada en la intensidad que requiere la elección de una posición de partida basándose en la inspección visual y la identificación de una vértebra en la imagen de fluoroscopia. Los presentes inventores también describen un método y un aparato para el registro 2D-3D de un conjunto de datos de imagen 3D (una CT) con una imagen de fluoroscopia de rayos X en la solicitud de patente internacional núm. WO 2013/132235.
[0010]En Penney et al. "Deforming a Preoperative Volume to Represent the Intraoperative Scene" (Computer Aided Surgery 7:63-73, 2002) Penneyet al.discuten un método para deformar una imagen de CT preoperatoria para representar la escena intraoperatoria mostrada por una imagen de fluoroscopia intervencionista. El método es una combinación de un algoritmo de registro de imágenes 2D-3D y un algoritmo de deformación que permite incorporar cuerpos rígidos a una deformación no lineal basada en funciones de base radial.
Objeto de la Invención
[0011]Existe la necesidad de un método mejorado para adaptar imágenes médicas preoperatorias de modo que puedan registrarse y combinarse con precisión con imágenes médicas intraoperatorias a fin de mejorar la precisión de la colocación de dispositivos quirúrgicos. Este es especialmente el caso de los procedimientos de cirugía mínimamente invasiva. También es necesario abordar el problema de que una traslación espacial rígida puede no permitir cambios de postura u otras deformaciones durante la cirugía.
Resumen de la Invención
[0012]Las realizaciones de la invención pretenden proporcionar soluciones alternativas y/o abordar uno o más de los problemas descritos anteriormente.
[0013]La invención se expone en el juego de reivindicaciones adjunto.
[0014]Por consiguiente, la invención proporciona un método para determinar el cambio en la posición relativa de una característica de un sujeto registrada en un conjunto de datos de imágenes tridimensionales resultante del movimiento del sujeto, que comprende las etapas de:
(a) proporcionar un primer conjunto de datos de imágenes 3D del sujeto;
(b) obtener uno o más segundos conjuntos de datos de imágenes 2D del sujeto, en los que el sujeto se ha movido en el tiempo transcurrido entre la creación del primer y segundo conjunto de datos de imágenes;
(c) definir al menos una primera característica y una segunda característica que se detectan en los conjuntos de datos de imágenes primero y segundo;
(d) realizar un primer registro 2D-3D entre los conjuntos de datos de imágenes primero y segundo y determinar así el movimiento de la primera característica entre los dos conjuntos de datos de imágenes;
(e) realizar un segundo registro 2D-3D entre los conjuntos de datos de imágenes primero y segundo y determinar así el movimiento de la segunda característica entre los dos conjuntos de datos de imágenes;
(f) determinar una primera transformación que describa el movimiento relativo de la primera característica con respecto a la segunda característica causado por el movimiento del sujeto;
(g) definir la posición de al menos una tercera característica en el primer conjunto de datos de imagen, en el que la tercera característica es una cuadrícula de puntos que forman un primer plano, y determinar la posición de esta tercera característica en relación con la primera característica;
(h) definir la posición de al menos una cuarta característica en el primer conjunto de datos de imagen, en el que la cuarta característica es una cuadrícula de puntos que forman un segundo plano, y determinar la posición de esta cuarta característica en relación con la segunda característica;
(i) suponiendo que la posición de la segunda característica es fija y aplicando la primera transformación a la tercera característica de la primera imagen para obtener un primer conjunto de correspondencias espaciales de puntos entre las características tercera y cuarta y la tercera característica transformada y la cuarta característica; caracterizado por
(j) determinar una función de interpolación sobre la base del primer conjunto de correspondencias espaciales de puntos, en el que el método de determinación de la función de interpolación comprende las etapas adicionales de i) definir un punto en el primer conjunto de datos de imágenes;
ii) asignar el punto del primer conjunto de datos de imágenes al punto correspondiente del segundo conjunto de datos de imágenes realizando un registro 2D-3D entre los conjuntos de datos;
iii) desplazar el punto del segundo conjunto de datos de imágenes a una nueva ubicación y desplazar en consecuencia el punto correspondiente del primer conjunto de datos de imágenes;
iv) definir un segundo conjunto de correspondencias espaciales de puntos entre las ubicaciones de los puntos originales y nuevos en los conjuntos de datos de imágenes primero y segundo;
v) determinar la función de interpolación sobre la base combinada del primer y segundo conjuntos de correspondencias espaciales de puntos;
(k) definir al menos una quinta característica detectada en el primer conjunto de datos de imágenes y aplicar la función de interpolación a su posición.
[0015]La invención también proporciona un sistema quirúrgico guiado por imagen, que comprende: un sistema de imágenes 2D dispuesto en uso para obtener uno o más segundos conjuntos de datos de imágenes 2D que se registrarán con un primer conjunto de datos de imágenes 3D, en el que el objeto se mueve entre la obtención del conjunto de datos de imágenes 3D y la imagen 2D; y un procesador, dispuesto en uso para:
(a) definir al menos una primera característica y una segunda característica que se detectan tanto en el primer conjunto de datos de imágenes como en el segundo;
(b) realizar un primer registro 2D-3D entre la primera característica mostrada en la segunda imagen y la primera característica mostrada en la primera imagen y determinar así el movimiento de la primera característica entre los dos conjuntos de datos de imágenes;
(c) realizar un segundo registro 2D-3D entre la segunda característica mostrada en la segunda imagen y la segunda característica mostrada en la primera imagen y determinar así el movimiento de la segunda característica entre los dos conjuntos de datos de imágenes;
(d) determinar una primera transformación que describa el movimiento relativo de la primera característica con respecto a la segunda característica causado por el movimiento del sujeto;
(e) definir la posición de al menos una tercera característica en el primer conjunto de datos de imagen, donde la tercera característica es una cuadrícula de puntos que forman un primer plano, y determinar la posición de esta tercera característica en relación con la primera característica;
(f) definir la posición de al menos una cuarta característica en el primer conjunto de datos de imagen, en el que la cuarta característica es una cuadrícula de puntos que forman un segundo plano, y determinar la posición de esta cuarta característica en relación con la segunda característica;
(g) suponer que la posición de la segunda característica es fija y aplicar la primera transformación a la tercera característica de la primera imagen para obtener un primer conjunto de correspondencias espaciales de puntos entre la tercera y la cuarta características y la tercera y la cuarta características transformadas; caracterizado por el procesador estar dispuesto en uso para
(h) determinar una función de interpolación sobre la base del primer conjunto de correspondencias espaciales de puntos, en el que el método de determinación de la función de interpolación comprende las etapas adicionales de i) definir un punto en el primer conjunto de datos de imágenes;
ii) asignar el punto del primer conjunto de datos de imágenes al punto correspondiente del segundo conjunto de datos de imágenes realizando un registro 2D-3D entre los conjuntos de datos;
iii) desplazar el punto del segundo conjunto de datos de imágenes a una nueva ubicación y desplazar en consecuencia el punto correspondiente del primer conjunto de datos de imágenes;
iv) definir un segundo conjunto de correspondencias espaciales de puntos entre las ubicaciones de los puntos originales y nuevos en los conjuntos de datos de imágenes primero y segundo;
v) determinar la función de interpolación sobre la base combinada del primer y segundo conjuntos de correspondencias espaciales de puntos,
(i) definir al menos una quinta característica que se detecta en el primer conjunto de datos de imágenes en el primer conjunto de datos de imágenes y aplicar la función de interpolación a su posición.
[0016]El método puede aplicarse a múltiples pares de características primera y segunda. De este modo, puede determinarse una cadena de transformaciones (descritas en forma de matrices) que describan el movimiento de los pares de características primera y segunda. Por lo tanto, ventajosamente, el método puede utilizarse para describir el movimiento relativo de toda o parte de la columna vertebral de un sujeto.
[0017]El movimiento que experimenta el sujeto entre la obtención del conjunto de datos de imágenes 3D y el conjunto de datos de imágenes 2<d>puede describirse preferentemente como una transformación no rígida.
[0018]La primera y segunda características pueden ser visibles individualmente o juntas en cualquiera de las segundas imágenes 2D del sujeto.
[0019]Las características primera y segunda de los aspectos de la invención aquí descritos pueden ser vértebras. Preferiblemente, los pares de vértebras son adyacentes entre sí.
[0020]La fluoroscopia es particularmente adecuada para localizar y visualizar partes de la anatomía que no se deforman fácilmente o que se deforman sustancialmente menos que otras características, por ejemplo, los huesos. La cualidad de no deformarse significa que la localización de estas características de la anatomía puede determinarse de forma coherente y precisa cuando los tejidos más blandos circundantes se han deformado con el tiempo o durante una operación.
[0021]La posición de la quinta característica del sujeto puede predecirse a partir de las posiciones de la primera y segunda características del sujeto o estar influida por ellas. Es decir, las características primera y segunda pueden actuar como sustitutos visibles en una imagen fluoroscópica que muestran la posición de características de la anatomía que de otro modo serían invisibles o parcialmente visibles en una imagen fluoroscópica.
[0022]La quinta característica puede ser un tejido blando. Por ejemplo, la quinta característica puede ser un vaso sanguíneo y/o una unión entre vasos sanguíneos y/o la superficie interior o exterior de un vaso sanguíneo. Lo más preferible es que la quinta característica sea la aorta.
[0023]Así, la quinta característica puede definirse como un volumen o una forma u objeto descrito geométricamente para definir un tejido, órgano o estructura particular del sujeto. Preferiblemente, la quinta característica está dentro del sujeto.
[0024]La posición interpolada de la quinta característica puede marcarse en el segundo conjunto de datos de imágenes. El marcado de la quinta característica en el segundo conjunto de datos de imágenes puede lograrse por diversos medios. Preferiblemente, los volúmenes o superficies derivados del primer conjunto de datos de imágenes se superponen al segundo conjunto de datos de imágenes. Alternativamente, el segundo conjunto de datos de imágenes puede estar marcado con puntos u objetivos. Como alternativa adicional, el segundo conjunto de datos de imágenes puede marcarse con diagramas de alambre para indicar la extensión de volúmenes o formas geométricas en el primer conjunto de datos de imágenes.
[0025] Preferiblemente, una o más de las imágenes es una imagen digital. Aunque pueden utilizarse otras formas de imagen con la invención, se prefieren especialmente las imágenes digitalizadas, y especialmente las imágenes digitales nativas.
[0026] El conjunto de datos 3D puede obtenerse como parte de la generación de imágenes al llevar a cabo el método. También es opcional utilizar un conjunto de datos 3D obtenidos de otro modo, por ejemplo, con antelación.
[0027] El conjunto de datos de imágenes 3D puede obtenerse a partir de una tomografía computarizada (CT), resonancia magnética (MR) o tomografía computarizada de haz cónico (CBCT).
[0028] Preferiblemente, el conjunto de datos de imágenes 3D se obtiene mediante una tomografía computarizada (CT).
[0029] La tomografía computerizada es particularmente adecuada para su uso con la invención porque es adecuada para localizar y visualizar con precisión partes de la anatomía que no se deforman fácilmente, por ejemplo, los huesos, así como el tejido más blando circundante. La precisión en la localización de las características de la anatomía que aparecen en las imágenes de fluoroscopia 2D y en las tomografías computarizadas 3D permite un mejor registro 2D-3D (es decir, más preciso y rápido) de las exploraciones de fluoroscopia 2D con las CT 3D.
[0030] Se conocen otras técnicas de registro 2D-3D y son adecuadas para su uso en el contexto de esta invención. En particular, el método divulgado en el documento WO 2013/132235. Otros métodos incluyen el seguimiento del arco en C y la mesa tras un proceso de registro inicial. El proceso de registro inicial puede llevarse a cabo de forma automática, semiautomática o manual a partir de una o varias imágenes 2D, o de una imagen 3D (por ejemplo, CBCT) adquirida en quirófano.
[0031] La técnica de registro 2D-3D descrita en el documento WO 2013/132235 es particularmente adecuada para su uso en el contexto de la presente invención. Esto se debe a que esta técnica permite la comprobación automática entre imágenes; no es necesario que un técnico alinee manualmente las distintas imágenes.
[0032] Además, una ventaja de los métodos aquí descritos es que no se requiere ningún equipo no estándar en el quirófano. El ordenador u ordenadores utilizados para el registro de imágenes 2D-3D también pueden utilizarse para los métodos de corrección de deformaciones de la invención.
[0033] Los registros primero y segundo pueden repetirse para dar lugar a múltiples observaciones de la primera transformación. La primera transformación puede entonces determinarse a partir de esta población de observaciones. Así, ventajosamente, se pueden encontrar múltiples registros y agrupar sus resultados para formar una población con el fin de que el análisis posterior pueda proporcionar una primera transformación más precisa.
[0034] El conjunto de transformaciones puede combinarse aplicando la Estimación de Máxima Verosimilitud a un conjunto de puntos transformados por el conjunto de transformaciones.
[0035] Se prevé que en el contexto de la presente invención puedan utilizarse otros métodos para obtener un valor representativo a partir de una población de puntos de datos. El método alternativo específico que debe utilizarse depende de los datos analizados y, más concretamente, de la distribución de frecuencias de los puntos de datos y/o del modelo para estimar o determinar el grado de ruido de los datos.
[0036] La primera transformación puede definirse en términos de coordenadas x, y y z y rotación alrededor de los ejes x, y y z (siendo, tres traslaciones X, Y, yZ,y tres rotaciones ©x, ©y, y ©z).
[0037] La primera transformación puede aplicarse como una transformación rígida. Esto tiene la ventaja de ser un cálculo relativamente sencillo, por lo que proporciona un resultado de forma eficaz. Las transformaciones rígidas son particularmente adecuadas en el contexto de la presente invención en la que la primera y segunda características son objetos rígidos, preferiblemente vértebras.
[0038] En el contexto de la presente invención pueden utilizarse diversas funciones de interpolación. Por ejemplo, una función de base radial como una función de interpolaciónThin Plate Spline.Preferiblemente, la función de interpolación es una función de interpolaciónThin Plate Spline.
[0039] Así, según los aspectos de la invención descritos en el presente documento, la invención proporciona ventajosamente un método para adaptar conjuntos de datos de imágenes 3D de modo que puedan registrarse y combinarse con imágenes 2D del mismo sujeto, en las que se ha producido deformación o movimiento de partes del sujeto entre la obtención de la imagen 3D y la imagen 2D.
[0040] El método de determinación de la función de interpolación puede comprender las etapas siguientes
definir un punto en el primer conjunto de datos de imagen;
asignar el punto del primer conjunto de datos de imágenes al punto correspondiente del segundo conjunto de datos de imágenes realizando un registro 2D-3D entre los conjuntos de datos;
desplazar el punto en el segundo conjunto de datos de imagen a una nueva ubicación y desplazar el punto correspondiente en el primer conjunto de datos de imagen en consonancia;
definir un segundo conjunto de correspondencias espaciales de puntos entre las ubicaciones de los puntos originales y nuevos en los conjuntos de datos de imágenes primero y segundo;
determinar la función de interpolación sobre la base combinada del primer y segundo conjuntos de correspondencias espaciales de puntos.
[0041]Se prevé en una realización alternativa de la invención que el mapeo del punto en el segundo conjunto de datos de imagen al punto correspondiente en el primer conjunto de datos de imagen puede lograrse aplicando la función de interpolación.
[0042]En los métodos aquí descritos pueden definirse otros puntos en otras ubicaciones del primer conjunto de datos de imagen, y preferiblemente los puntos están dispuestos en una línea recta o curva a intervalos iguales. En realizaciones preferidas se utilizan 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11,12,13,14,15,16,17,18, 19, 20, 25, 30, 35, 4045 o 50 puntos. Se utilizan preferentemente 20 puntos. Es preferible que los puntos estén separados unos 4 cm.
[0043]Así, de acuerdo con los aspectos de la invención descritos en el presente documento, la invención proporciona además ventajosamente métodos para adaptar el primer conjunto de datos de imagen de acuerdo con el movimiento que se detecta en el segundo conjunto de datos de imagen como ocurrido desde la creación del primer conjunto de datos de imagen. Esto se consigue definiendo y moviendo puntos en el segundo conjunto de datos de imágenes de forma que el primer conjunto de datos de imágenes se adapte en concierto y la función de interpolación se redetermine en consecuencia.
[0044]Los puntos del conjunto de correspondencias espaciales de puntos pueden definirse como vectores.
[0045]El primer conjunto de datos de imágenes 3D puede ser una tomografía computarizada (CT). El segundo conjunto de datos de imagen 2D puede ser una imagen de fluoroscopia, preferiblemente una imagen de rayos X.
[0046]Las características tercera y cuarta de los aspectos de la invención aquí descritos pueden ser cuadrículas de puntos que forman primero y segundo planos, respectivamente, preferiblemente las características tercera y cuarta se encuentran en el primero y segundo planos, respectivamente. Preferiblemente, las cuadrículas de puntos están espaciadas regularmente. Preferiblemente, las cuadrículas de puntos son rectangulares.
[0047]Las cuadrículas de puntos que forman los planos primero y segundo pueden ser ortogonales a la dirección de la columna vertebral en la vértebra individual. Preferiblemente, los centroides de la primera y segunda vértebras se encuentran en el primer y segundo plano, respectivamente.
[0048]La quinta característica de los aspectos de la invención aquí descritos puede situarse en uno o ambos de los planos primero y segundo. Preferiblemente, la quinta característica se proyecta a través de uno o ambos planos.
[0049]Los sistemas quirúrgicos guiados por imágenes que comprenden un procesador pueden disponerse para los métodos aquí divulgados.
Ejemplos y Descripción de los Dibujos
[0050]La invención se ilustra ahora en las siguientes realizaciones específicas con referencia a los dibujos adjuntos que muestran:-.
Fig. 1 Demostración de la etapa 1A del método de corrección de la deformación descrito en el presente documento, que comprende las etapas de:
I. La transformación rígida entre la CT y el sujeto en la mesa de operaciones bajo una pose arbitraria del brazo en C se calcula en el tiempo i.
II. Se computa una observación del movimiento intervertebral.
III. La observación del movimiento intervertebral da lugar a una observación de los puntos auxiliares de destino relacionados con la vértebra.
IV. Se utiliza la estimación de máxima verosimilitud para estimar los puntos auxiliares objetivo utilizando todas las observaciones hasta el momento i.
V. El movimiento intervertebral se calcula mediante el análisis Procrustes, utilizando las correspondencias entre los puntos auxiliares de origen y destino.
Fig. 2 Demostración de la etapa 1B del método de corrección de la deformación descrito en el presente documento, que comprende las etapas de:
I. El movimiento intervertebral de las vértebras L1, L2, L3 se describe mediante<rtl1>-<l2>y<rtl2>-<l3>. Suponiendo que la vértebra L2 permanece fija, se calculan las transformaciones correspondientes para L1 y L3. La aorta se deforma utilizando un interpoladorThin Plate Splineque se instantiza basándose en la transformación rígida de las vértebras.
II. La transformación dependiente de la pose del brazo en C de L1 se recupera mediante un registro 2D-3D basado en las vértebras utilizando la CT preoperatoria y la imagen de fluoroscopia intraoperatoria.
III. A continuación, se calcula la pose correspondiente de L2 mediante rtl<1>-l<2>, que describe el movimiento entre las dos vértebras.
IV. A continuación, esta pose se utiliza para transformar la aorta deformada.
V. A continuación, la aorta transformada se superpone a la imagen fluoroscópica.
Fig. 3 Demostración de la etapa 2 del método de corrección de la deformación aquí descrito, que comprende las etapas de:
I. La interfaz gráfica de usuario con la superposición aórtica en la imagen de fluoroscopia intraoperatoria. Las asas esféricas se superponen a lo largo de la línea central de la aorta.
II. El usuario indica la deformación aórtica moviendo las asas. Se generan correspondencias de puntos móviles asociados.
III. Las correspondencias de los puntos móviles junto con los puntos fijos predefinidos instancian unaThin Plate Splineque se utiliza para deformar la aorta.
Ejemplo
[0051]En el presente documento se describe un sistema utilizado para deformar de forma no rígida la superficie aórtica de la CT preoperatoria del paciente de acuerdo con la forma en que se ha deformado la aorta del paciente durante el curso de un procedimiento mínimamente invasivo. El sistema estima la deformación aórtica intraoperatoria en dos etapas:
1) Una etapa totalmente automatizada, durante la cual se estima la deformación aórtica causada por el cambio de postura del paciente entre la CT y la mesa de operaciones. Esta estimación se realiza estimando en primer lugar el cambio de postura del paciente, es decir, el movimiento rígido de una vértebra con respecto a otra (movimiento intervertebral). A continuación, este movimiento se utiliza para deformar la aorta de forma no rígida, de modo que cuanto más cerca esté una parte de la aorta de una determinada vértebra, más se verá influida su deformación por el movimiento de esta vértebra.
2) Una etapa semiautomática, durante la cual se estima la deformación aórtica causada por los instrumentos de intervención. Durante esta etapa se emplea una interfaz gráfica de usuario que muestra la aorta superpuesta en una imagen de rayos X intraoperatoria para que el usuario pueda indicar cómo se ha deformado la aorta. La entrada del usuario deforma la aorta en tiempo real, de modo que el usuario puede indicar la deformación que produce una superposición aórtica que concuerda mejor con los instrumentos de intervención, el contraste o cualquier otra entidad de la imagen de rayos X que esté relacionada con la forma intraoperatoria de la aorta.
[0052]La Etapa 1 se repite en segundo plano cada vez que se dispone de nuevas observaciones de la transformación rígida de las vértebras del paciente entre la CT preoperatoria y la mesa de operaciones. La Etapa 2 se emplea a petición del usuario, normalmente cuando se dispone de una imagen de rayos X con información útil sobre la forma intraoperatoria de la aorta. En consecuencia, el uso de la Etapa 2 es opcional durante los procedimientos descritos en este ejemplo.
Etapa 1A: Estimación automatizada del cambio de postura del paciente
[0053]El cambio de postura del paciente entre la adquisición de la CT y la mesa de operaciones se cuantifica estimando el movimiento rígido de cada vértebra con respecto a sus vértebras vecinas. Para dos vértebras vecinas A y B, este movimiento se describe mediante la matriz RTab = RTa -1 RTb, donde RTa y RTb son las matrices de transformación rígida (4x4) que describen la transformación de las vértebras A y B, entre la CT y la mesa de operaciones bajo una pose arbitraria del brazo C del equipo de fluoroscopia. Cabe señalar que, aunque RT<a>y RT<b>dependen de la pose del brazo en C del equipo de fluoroscopia, la matriz RTab es independiente de dicha pose.
[0054]Durante el curso de un procedimiento médico, un proceso de registro 2D-3D entre la imagen fluoroscópica intraoperatoria y la CT preoperatoria está siendo utilizado para computar múltiples pares de RTAy RTb, con sus instancias correspondientes al tiempo i siendo denotadas como RTa (i) y RTb (i). Cada par RTa (i), RTb (i) da lugar a una observación ruidosa RT<ab>(i) de RT<ab>. El error en RT<ab>(i) se debe al error de registro durante el cálculo de RT<a>(i) y RT<b>(i).
[0055]La matriz RT<ab>se estima a partir de múltiples observaciones RT<ab>(i) de la siguiente manera:
1) Se selecciona un conjunto de puntos 3D xj en los vértices de un cubo que encierra la vértebra A en coordenadas de CT preoperatorias.
2) Para cada observación RT<ab>(i) se produce una observación correspondiente y j(i) = RT<ab>(i) xj.
3) Suponemos que el error de registro en RTa (i) y RTb (i > es sólo en la componente traslacional y que es aditivo, siguiendo una distribución gaussiana con media cero y matriz de covarianza C. También suponemos que el error de registro de la vértebra A no está correlacionado con el error de registro de la vértebra B. Bajo estas suposiciones, el error en cada observación y j( i) es aditivo, gaussiano con media cero y una matriz de covarianza igual a G í=Raí -12C (R<aí>-1)<t>, donde R<aí>es la matriz de rotación correspondiente a la vértebra A bajo la pose del brazo C en el tiempo i.
4) El valor de cada punto yj se estima empleando la Estimación de Máxima Verosimilitud sobre sus observaciones y asumiendo que el error de registro a través de los diferentes tiempos i no está correlacionado.
5) La matriz RT<ab>se calcula mediante el análisis Procrustes de las correspondencias de puntos xj, yj.
[0056]El procedimiento anterior se repite cada vez que se realiza un registro 2D-3D con respecto a dos vértebras adyacentes. De este modo, se calcula una cadena de matrices que describen el movimiento de las vértebras adyacentes y se actualizan continuamente durante el procedimiento médico. Se observa que este movimiento se produce entre la adquisición de la CT y la mesa de operaciones.
Etapa 1B: Corrección automatizada de la deformación aórtica causada por el cambio de postura del paciente
[0057]El movimiento intervertebral estimado calculado en la Etapa 1A se utiliza para deformar la superficie preoperatoria de la aorta de la siguiente manera:
1) La dirección de la columna vertebral preoperatoria se calcula sumando los vectores normalizados que conectan los centroides de cada par de vértebras adyacentes.
2) Para cada vértebra, se considera un plano perpendicular a la dirección de la columna vertebral y que pasa por el centroide de la vértebra.
3) En cada plano se aplica una rejilla de puntos regular y rectangular. Los límites de la cuadrícula se determinan de forma que la proyección de cada punto de la superficie aórtica sobre el plano se encuentre dentro de los límites de la cuadrícula.
4) Suponiendo fija una determinada vértebra, se calcula una transformación rígida para cada una del resto de las vértebras utilizando el movimiento intervertebral estimado.
5) Los puntos de la malla de cada plano se transforman utilizando la transformación rígida de la vértebra correspondiente. El original junto con los puntos transformados forman un conjunto de correspondencias de puntos que se utiliza para instanciar un
[0058]Función de interpolaciónThin Plate Spline.Esta función se utiliza para deformar la superficie aórtica preoperatoria.
[0059]La superficie aórtica deformada se superpone a una imagen de fluoroscopia intraoperatoria de la siguiente manera.
1) Primero se utiliza un proceso de registro 2D-3D basado en la vértebra para calcular la transformación rígida de una vértebra específica entre la CT preoperatoria y la mesa de operaciones bajo la pose del brazo en C del equipo de fluoroscopia.
2) Esta transformación se combina con el movimiento intervertebral estimado para calcular la transformación correspondiente para la vértebra que se supone fija en el proceso de deformación de la superficie aórtica (véase el punto 4 anterior).
3) La transformación calculada se utiliza para transformar rígidamente la superficie deformada. A continuación, la superficie se proyecta en la imagen de fluoroscopia.
[0060]El proceso descrito de deformación de la aorta está totalmente automatizado y puede aplicarse continuamente durante la operación para hacer uso de la estimación actualizada (refinada) del movimiento intervertebral.
Etapa 2: Corrección automatizada de la deformación aórtica causada por instrumentos intervencionistas
[0061]La corrección de la deformación aórtica causada por los instrumentos de intervención se realiza de forma semiautomática a través de una interfaz gráfica de usuario (GUI). Los principales elementos de la GUI son:
1) Una imagen de fluoroscopia intraoperatoria que, preferiblemente, contiene algunas indicaciones sobre la forma en que se ha deformado la aorta intraoperatoriamente. Ejemplos de tales indicaciones son: contraste inyectado, calcio visible en la aorta, catéteres, endoprótesis u otros instrumentos intervencionistas.
2) Proyección de la superficie aórtica superpuesta a la imagen fluoroscópica. Esta es la superficie aórtica preoperatoria que ha sido potencialmente deformada a través de llamadas de la Etapa 1B y/o llamadas previas de la Etapa 2. Esta superficie deformada se transforma rígidamente para que coincida con la postura del brazo en C del equipo de fluoroscopia, utilizando una transformación rígida, que se calcula mediante el registro 2D-3D basado en vértebras entre la CT preoperatoria y la imagen de fluoroscopia intraoperatoria.
3) Un conjunto de asas (por ejemplo, manchas esféricas) superpuestas en la imagen fluoroscópica a lo largo de la línea central de la aorta. Un ejemplo de separación entre las asas puede ser la distancia entre vértebras adyacentes, es decir, ~4 cm.
4) El usuario puede ajustar la opacidad de la superficie aórtica superpuesta, de modo que las asas y el área de la imagen fluoroscópica bajo la superficie sean claramente visibles.
[0062]Un usuario (por ejemplo, un cirujano, un radiógrafo o una enfermera) puede utilizar las asas para indicar cómo se ha deformado la aorta. Esto se hace de la siguiente manera:
1) El usuario selecciona un asa cercana a la zona donde se ha producido la deformación.
2) El usuario puede desplazar la empuñadura o realizar con ella una rotación en el plano.
3) El movimiento del asa indica un movimiento correspondiente de los puntos asociados en las coordenadas de la CT, lo que produce un conjunto de correspondencias de puntos móviles. Un segundo conjunto de puntos, seleccionados en zonas óseas (por ejemplo, centroides de vértebras), se suponen fijos, constituyendo un conjunto de correspondencias de puntos fijos. Los dos conjuntos de correspondencias de puntos se utilizan para instanciar un interpoladorThin Plate Spline.Este interpolador se utiliza para deformar la superficie aórtica en consecuencia. 4) Cada vez que un usuario mueve un asa, el conjunto de correspondencias de puntos se modifica y la deformación aórtica indicada y la superposición aórtica se actualizan en consecuencia. Esto permite al usuario seguir moviendo un asa hasta que la aorta se deforma de la forma deseada (es decir, su forma se alinea con los elementos pertinentes de la imagen fluoroscópica). En caso necesario, el usuario puede mover varias asas.
5) Cuando el usuario está satisfecho, finaliza la GUI y la aorta deformada se guarda para su uso posterior. Las superposiciones producidas a partir de ese momento utilizan esta aorta deformada.
Utilización combinada de las Etapas 1 y 2
[0063] Las Etapas 1 y 2 pueden emplearse múltiples veces durante el curso de una operación para corregir gradual y cooperativamente la forma de la aorta. Las dos etapas pueden emplearse conjuntamente de la siguiente manera:
1) La deformación realizada por el usuario en la Etapa 2 se define por el movimiento de los puntos del escáner CT, asociados a los tiradores de la interfaz gráfica de usuario, y por los puntos del escáner CT que se suponen fijos. Denotemos con sj y tj las coordenadas CT de origen y destino de los puntos móviles y con fj las coordenadas CT de los puntos fijos.
2) Cada vez que se utiliza la Etapa 1 y la aorta se deforma como se describe en la Etapa 1B, las coordenadas sj y fj también se transforman utilizando el mismo método, produciendo nuevas coordenadas sj' y fj' respectivamente. Si se ha utilizado previamente la Etapa 2, la aorta se deforma aún más (como se describe en la Etapa 2) mediante un InterpoladorThin Plate Splineutilizando las correspondencias de los puntos móviles (sj' , tj) y los puntos fijos fj'. 3) Lo mismo ocurre con las siguientes llamadas de la Etapa 2. La GUI relacionada muestra la versión más reciente de la aorta deformada pero el InterpoladorThin Plate Splinede la Etapa 2 actúa sobre la aorta preoperatoria tal y como ha sido deformada por la llamada más reciente de la Etapa 1. El interpoladorThin Plate Splinese instanciará utilizando las correspondencias de puntos móviles (sj' , tj) y los puntos fijos fj'. Repitamos que los puntos de destino tj están indicados por el movimiento de los tiradores y que los puntos de origen y fijos sj' y fj' han sido corregidos para el movimiento intervertebral por la llamada más reciente de la Etapa 1.
[0064] La invención proporciona así métodos y aparatos para mejorar la precisión de la localización de tejidos que se mueven o se deforman entre la obtención de un conjunto de datos de imágenes 3D de un sujeto y las subsiguientes imágenes 2D del sujeto.
Claims (13)
1. Un método para determinar el cambio en la posición relativa de una característica de un sujeto registrada en un conjunto de datos de imágenes 3D resultante del movimiento del sujeto, que comprende las etapas de:
(a) proporcionar un primer conjunto de datos de imágenes 3D del sujeto;
(b) obtener uno, dos o más conjuntos de datos de imágenes 2D del sujeto, en los que el sujeto se ha movido en el tiempo transcurrido entre la creación de los conjuntos de datos de imágenes primero y segundo;
(c) definir al menos una primera característica y una segunda característica que se detectan tanto en el primer conjunto de datos de imágenes como en el segundo;
(d) realizar un primer registro 2D-3D entre los conjuntos de datos de imágenes primero y segundo y determinar así el movimiento de la primera característica entre los dos conjuntos de datos de imágenes;
(e) realizar un segundo registro 2D-3D entre los conjuntos de datos de imágenes primero y segundo y determinar así el movimiento de la segunda característica entre los dos conjuntos de datos de imágenes;
(f) determinar una primera transformación que describa el movimiento relativo de la primera característica con respecto a la segunda característica causado por el movimiento del sujeto;
(g) definir la posición de al menos una tercera característica en el primer conjunto de datos de imagen, en el que la tercera característica es una cuadrícula de puntos que forman un primer plano, y determinar la posición de esta tercera característica en relación con la primera característica;
(h) definir la posición de al menos una cuarta característica en el primer conjunto de datos de imagen, en el que la cuarta característica es una cuadrícula de puntos que forman un segundo plano, y determinar la posición de esta cuarta característica en relación con la segunda característica;
(i) suponiendo que la posición de la segunda característica es fija y aplicando la primera transformación a la tercera característica de la primera imagen para obtener un primer conjunto de correspondencias espaciales de puntos entre las características tercera y cuarta y la tercera característica transformada y la cuarta característica;
caracterizado por
(j) determinar una función de interpolación sobre la base del primer conjunto de correspondencias espaciales de puntos, en el que el método de determinación de la función de interpolación comprende las etapas adicionales de
i) definir un punto en el primer conjunto de datos de imágenes;
ii) asignar el punto del primer conjunto de datos de imágenes al punto correspondiente del segundo conjunto de datos de imágenes realizando un registro 2D-3D entre los conjuntos de datos;
iii) desplazar el punto del segundo conjunto de datos de imágenes a una nueva ubicación y desplazar en consecuencia el punto correspondiente del primer conjunto de datos de imágenes;
iv) definir un segundo conjunto de correspondencias espaciales de puntos entre las ubicaciones de los puntos originales y nuevos en los conjuntos de datos de imágenes primero y segundo;
v) determinar la función de interpolación sobre la base combinada del primer y segundo conjuntos de correspondencias espaciales de puntos;
(k) definir al menos una quinta característica detectada en el primer conjunto de datos de imágenes y aplicar la función de interpolación a su posición.
2. Un método según la reivindicación 1, en el que la posición interpolada de la quinta característica se marca en el segundo conjunto de datos de imágenes.
3. Un método según cualquier reivindicación precedente, en el que los registros primero y segundo se repiten y la primera transformación se determina a partir de esta población de coordenadas de registro.
4. Un método según la reivindicación 3, en el que los registros primero y segundo se determinan aplicando la Estimación de Máxima Verosimilitud a la población de coordenadas de registro.
5. Un método según cualquier reivindicación precedente, en el que la primera transformación se aplica como una transformación rígida.
6. Un método según cualquier reivindicación precedente, en el que la función de interpolación es una función de interpolaciónThin Plate Spline.
7. Un método según cualquier reivindicación anterior, en el que se definen otros puntos en otras ubicaciones del primer conjunto de datos de imágenes.
8. Un método según la reivindicación 7, en el que los puntos adicionales están dispuestos en una línea a intervalos iguales.
9. Un método según cualquier reivindicación precedente, en el que los puntos del conjunto de correspondencias espaciales de puntos se definen como vectores.
10. Un método según cualquier reivindicación precedente, en el que la primera y segunda características son vértebras.
11. Un método según cualquier reivindicación precedente, en el que la quinta característica es un tejido blando.
12. Un sistema quirúrgico guiado por imagen, que comprende:
un sistema de imágenes 2D dispuesto en uso para obtener uno o más conjuntos de datos de una segunda imagen 2D que se registrarán con un primer conjunto de datos de una imagen 3D, en el que el sujeto se mueve entre la obtención del conjunto de datos de la imagen 3D y la imagen 2D; y
un procesador, dispuesto en uso para:
(a) definir al menos una primera característica y una segunda característica que se detectan tanto en el primer conjunto de datos de imágenes como en el segundo;
(b) realizar un primer registro 2D-3D entre los conjuntos de datos de imágenes primero y segundo y determinar así el movimiento de la primera característica entre los dos conjuntos de datos de imágenes;
(c) realizar un segundo registro 2D-3D entre los conjuntos de datos de imágenes primero y segundo y determinar así el movimiento de la segunda característica entre los dos conjuntos de datos de imágenes;
(d) determinar una primera transformación que describa el movimiento relativo de la primera característica con respecto a la segunda característica causado por el movimiento del sujeto;
(e) definir la posición de al menos una tercera característica en el primer conjunto de datos de imagen, donde la tercera característica es una cuadrícula de puntos que forman un primer plano, y determinar la posición de esta tercera característica en relación con la primera característica;
(f) definir la posición de al menos una cuarta característica en el primer conjunto de datos de imagen, en el que la cuarta característica es una cuadrícula de puntos que forman un segundo plano, y determinar la posición de esta cuarta característica en relación con la segunda característica;
(g) suponer que la posición de la segunda característica es fija y aplicar la primera transformación de a la tercera característica de la primera imagen para obtener un primer conjunto de correspondencias espaciales de puntos entre la tercera y la cuarta características y la tercera y la cuarta características transformadas;
caracterizado porel procesador está dispuesto en uso para
(h) determinar una función de interpolación sobre la base del primer conjunto de correspondencias espaciales de puntos, en el que el método de determinación de la función de interpolación comprende las etapas adicionales de
i) definir un punto en el primer conjunto de datos de imágenes;
ii) asignar el punto del primer conjunto de datos de imágenes al punto correspondiente del segundo conjunto de datos de imágenes realizando un registro 2D-3D entre los conjuntos de datos;
iii) desplazar el punto del segundo conjunto de datos de imágenes a una nueva ubicación y desplazar en consecuencia el punto correspondiente del primer conjunto de datos de imágenes;
iv) definir un segundo conjunto de correspondencias espaciales de puntos entre las ubicaciones de los puntos originales y nuevos en los conjuntos de datos de imágenes primero y segundo;
v) determinar la función de interpolación sobre la base combinada del primer y segundo conjuntos de correspondencias espaciales de puntos;
(i) definir al menos una quinta característica detectada en el primer conjunto de datos de imágenes y aplicar la función de interpolación a su posición.
13. Un sistema quirúrgico guiado por imágenes según la reivindicación 12, en el que el procesador está dispuesto además para realizar el método de cualquiera de las reivindicaciones 2 a 11.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| GBGB1805299.3A GB201805299D0 (en) | 2018-03-29 | 2018-03-29 | Deformation correction |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2959430T3 true ES2959430T3 (es) | 2024-02-26 |
Family
ID=62142166
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES19166253T Active ES2959430T3 (es) | 2018-03-29 | 2019-03-29 | Corrección de la deformación |
Country Status (8)
| Country | Link |
|---|---|
| US (1) | US10977812B2 (es) |
| EP (1) | EP3547258B1 (es) |
| DK (1) | DK3547258T3 (es) |
| ES (1) | ES2959430T3 (es) |
| FI (1) | FI3547258T3 (es) |
| GB (1) | GB201805299D0 (es) |
| PL (1) | PL3547258T3 (es) |
| PT (1) | PT3547258T (es) |
Families Citing this family (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022527360A (ja) | 2019-04-04 | 2022-06-01 | センターライン バイオメディカル,インコーポレイテッド | 空間トラッキングシステムと拡張現実ディスプレイとのレジストレーション |
| JP7440534B2 (ja) | 2019-04-04 | 2024-02-28 | センターライン バイオメディカル,インコーポレイテッド | 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション |
| JP7387409B2 (ja) * | 2019-11-29 | 2023-11-28 | キヤノンメディカルシステムズ株式会社 | 医用画像処理装置、医用画像処理方法、医用画像処理プログラム |
| US12419703B2 (en) | 2022-08-01 | 2025-09-23 | Imperative Care, Inc. | Robotic drive system for achieving supra-aortic access |
| US12440289B2 (en) | 2022-08-01 | 2025-10-14 | Imperative Care, Inc. | Method of priming an interventional device assembly |
| US12446979B2 (en) | 2022-08-01 | 2025-10-21 | Imperative Care, Inc. | Method of performing a multi catheter robotic neurovascular procedure |
| US20230047098A1 (en) | 2021-08-12 | 2023-02-16 | Imperative Care, Inc. | Multi catheter method of performing a robotic neurovascular procedure |
| US12447317B2 (en) | 2022-08-01 | 2025-10-21 | Imperative Care, Inc. | Method of priming concentrically stacked interventional devices |
| US20240041480A1 (en) | 2022-08-02 | 2024-02-08 | Imperative Care, Inc. | Multi catheter system with integrated fluidics management |
| US20240180642A1 (en) | 2022-12-01 | 2024-06-06 | Imperative Care, Inc. | Angled drive table |
| WO2024238831A2 (en) | 2023-05-17 | 2024-11-21 | Imperative Care, Inc. | Fluidics control system for multi catheter stack |
| USD1102447S1 (en) | 2023-11-30 | 2025-11-18 | Imperative Care, Inc. | Display screen or portion thereof with graphical user interface |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101903908A (zh) * | 2007-12-18 | 2010-12-01 | 皇家飞利浦电子股份有限公司 | 基于特征的2d/3d图像配准 |
| DE102008018387B4 (de) | 2008-04-11 | 2009-12-10 | Siemens Aktiengesellschaft | Verfahren und Vorrichtung zur Bewegungskorrektur |
| DE102009039986B4 (de) | 2009-09-03 | 2018-02-22 | Siemens Healthcare Gmbh | Verfahren und Vorrichtung zur Bewegungskorrektur für eine dreidimensionale digitale Subtraktionsangiographie |
| BR112013022255A2 (pt) * | 2011-03-04 | 2019-01-08 | Koninklijke Philips Nv | método de registro de imagens 2d com os dados de volume 3d, dispositivo de geração de imagens para o registro de imagens 2d com dados de volume 3d, sistema de geração de imagens para o registro dos dados de imagem 2d e 3d, elemento de programa de computador para o controle de um aparelho e meio legível por computador com o elemento de programa armazenado |
| US8588501B2 (en) * | 2011-07-29 | 2013-11-19 | Siemens Aktiengesellschaft | Automatic pose initialization for accurate 2-D/3-D registration applied to abdominal aortic aneurysm endovascular repair |
| US8948487B2 (en) * | 2011-09-28 | 2015-02-03 | Siemens Aktiengesellschaft | Non-rigid 2D/3D registration of coronary artery models with live fluoroscopy images |
| US9183354B2 (en) * | 2012-08-15 | 2015-11-10 | Musc Foundation For Research Development | Systems and methods for image guided surgery |
| GB201313810D0 (en) * | 2013-08-01 | 2013-09-18 | King S College London | Method and system for tomosynthesis imaging |
| DE102015118050A1 (de) * | 2014-10-24 | 2016-04-28 | Hectec Gmbh | Verfahren zur Planung, Vorbereitung, Begleitung, Überwachung und/oder abschließenden Kontrolle eines operativen Eingriffs in den menschlichen oder tierischen Körper, Vorrichtung zum Ausführen eines solchen Eingriffs und Verwendung der Vorrichtung |
| DE102015208929B3 (de) | 2015-05-13 | 2016-06-09 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm |
| US10262424B2 (en) | 2015-12-18 | 2019-04-16 | The Johns Hopkins University | Method for deformable 3D-2D registration using multiple locally rigid registrations |
-
2018
- 2018-03-29 GB GBGB1805299.3A patent/GB201805299D0/en not_active Ceased
-
2019
- 2019-03-28 US US16/368,220 patent/US10977812B2/en active Active
- 2019-03-29 FI FIEP19166253.5T patent/FI3547258T3/fi active
- 2019-03-29 PT PT191662535T patent/PT3547258T/pt unknown
- 2019-03-29 EP EP19166253.5A patent/EP3547258B1/en active Active
- 2019-03-29 DK DK19166253.5T patent/DK3547258T3/da active
- 2019-03-29 PL PL19166253.5T patent/PL3547258T3/pl unknown
- 2019-03-29 ES ES19166253T patent/ES2959430T3/es active Active
Also Published As
| Publication number | Publication date |
|---|---|
| FI3547258T3 (fi) | 2023-07-26 |
| DK3547258T3 (da) | 2023-07-31 |
| US20190304108A1 (en) | 2019-10-03 |
| PT3547258T (pt) | 2023-10-13 |
| EP3547258A1 (en) | 2019-10-02 |
| PL3547258T3 (pl) | 2023-08-28 |
| EP3547258B1 (en) | 2023-07-12 |
| US10977812B2 (en) | 2021-04-13 |
| GB201805299D0 (en) | 2018-05-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2959430T3 (es) | Corrección de la deformación | |
| TWI836491B (zh) | 註冊二維影像資料組與感興趣部位的三維影像資料組的方法及導航系統 | |
| CN113950301B (zh) | 用于计算机引导手术的系统 | |
| JP6876065B2 (ja) | 放射線照射を低減された手術中の3次元視覚化 | |
| Weese et al. | Voxel-based 2-D/3-D registration of fluoroscopy images and CT scans for image-guided surgery | |
| US10650513B2 (en) | Method and system for tomosynthesis imaging | |
| JP7204663B2 (ja) | 慣性計測装置を使用して手術の正確度を向上させるためのシステム、装置、及び方法 | |
| CN109195527B (zh) | 用于与骨骼手术一起使用的设备及方法 | |
| JP6400793B2 (ja) | 画像表示の生成方法 | |
| US7831096B2 (en) | Medical navigation system with tool and/or implant integration into fluoroscopic image projections and method of use | |
| JP6526688B2 (ja) | 二次元x線画像から三次元画像を再構築する方法 | |
| US20090080737A1 (en) | System and Method for Use of Fluoroscope and Computed Tomography Registration for Sinuplasty Navigation | |
| CN107174263A (zh) | 用于采集和处理检查对象的图像数据的方法 | |
| EP3888563A1 (en) | Method and system for generating images for a fluoroscopy-based navigation system | |
| JP4512824B2 (ja) | 画像処理装置及びそれに用いられるプログラム | |
| EP4489023A2 (en) | Method for registration verification and device for model registration | |
| US20120269411A1 (en) | Method for determining a layer orientation for a 2d layer image | |
| US20240277412A1 (en) | System and method for validating a procedure | |
| Oentoro et al. | High-accuracy registration of intraoperative CT imaging | |
| Teatini | Augmented reality for laparoscopic surgery |