ES2640437T3 - Sistema y método para planificación y simulación quirúrgica maxilofacial tridimensional - Google Patents
Sistema y método para planificación y simulación quirúrgica maxilofacial tridimensional Download PDFInfo
- Publication number
- ES2640437T3 ES2640437T3 ES12767234.3T ES12767234T ES2640437T3 ES 2640437 T3 ES2640437 T3 ES 2640437T3 ES 12767234 T ES12767234 T ES 12767234T ES 2640437 T3 ES2640437 T3 ES 2640437T3
- Authority
- ES
- Spain
- Prior art keywords
- dimensional image
- patient
- movement
- bone tissue
- cranio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000004088 simulation Methods 0.000 title description 8
- 210000000988 bone and bone Anatomy 0.000 claims abstract description 52
- 210000004872 soft tissue Anatomy 0.000 claims abstract description 37
- 230000004044 response Effects 0.000 claims abstract description 17
- 230000001131 transforming effect Effects 0.000 claims abstract description 14
- 238000013507 mapping Methods 0.000 claims abstract description 11
- 230000002452 interceptive effect Effects 0.000 claims abstract 12
- 238000004519 manufacturing process Methods 0.000 claims description 7
- 210000001519 tissue Anatomy 0.000 claims description 5
- 238000013519 translation Methods 0.000 claims description 4
- 230000001052 transient effect Effects 0.000 claims description 2
- 230000001815 facial effect Effects 0.000 description 11
- 230000009466 transformation Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 6
- 238000001356 surgical procedure Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 210000003484 anatomy Anatomy 0.000 description 4
- 230000001629 suppression Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C19/00—Dental auxiliary appliances
- A61C19/04—Measuring instruments specially adapted for dentistry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Gynecology & Obstetrics (AREA)
- Biophysics (AREA)
- Dentistry (AREA)
- Epidemiology (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Abstract
Un método que comprende: transformar una imagen tridimensional que representa al menos rasgos cráneo-faciales de tejido óseo de un paciente en una imagen bidimensional interactiva que representa los mismos rasgos cráneo-faciales de tejido óseo de un paciente mediante la definición de una elipse base que define adicionalmente un plano de coordenadas x-y para la imagen tridimensional y mediante la definición de un círculo base que tiene su centro en el origen del plano de coordenadas x-y, transformando entonces la imagen bidimensional en una imagen intermedia mediante el mapeo de la elipse base en el círculo base, transformando entonces la imagen intermedia en un perfil lineal que forma la imagen bidimensional interactiva que tiene una o más porciones asociadas, cada una, con una correspondiente porción de un rasgo cráneo-facial de tejido óseo y que contiene al menos un polígono o punto de control superpuesto sobre la imagen en al menos una ubicación; visualizar una o más imágenes bidimensionales interactivas de tal manera que un usuario puede, por mediación de un dispositivo de entrada de usuario, provocar el movimiento de al menos una de las una o más porciones de tal imagen bidimensional para simular el movimiento de la correspondiente porción del tejido óseo del paciente en un procedimiento de osteotomía; visualizar una imagen tridimensional que representa rasgos cráneo-faciales de tejido blando exterior del paciente; recibir entrada procedente de un usuario relativa al movimiento de una porción particular de una o más porciones de la imagen bidimensional, en el que la entrada provoca el movimiento de al menos un polígono o punto de control a al menos una nueva ubicación; y re-dibujar la imagen tridimensional basándose al menos en el movimiento de la porción particular de la imagen bidimensional para simular la respuesta de los rasgos cráneo-faciales de tejido blando exterior del paciente al movimiento de una porción del tejido óseo del paciente correspondiente a la porción particular de la imagen bidimensional, en el que el re-dibujo usa al menos una ubicación de al menos un polígono o punto de control.
Description
5
10
15
20
25
30
35
40
45
50
55
60
descripcion
Sistema y metodo para planificacion y simulacion quirurgica maxilofacial tridimensional Campo teonioo
La presente descripcion se refiere en general a la formacion de imagenes dentofacial, y mas particularmente a sistemas y metodos para la planificacion quirurgica usando la formacion de imagenes dentofacial.
Anteoedentes
La cirugia dentofacial, tambien conocida como cirugia oral y maxilofacial, se emplea a menudo para corregir un amplio espectro de enfermedades, lesiones y defectos en la cabeza, el cuello, la cara, las mandibulas y los tejidos duros y blandos de la region oral y maxilofacial de los seres humanos u otros pacientes no humanos. A medida que las capacidades de los ordenadores y el software mejoran, los facultativos de la cirugia dentofacial usan cada vez mas herramientas dentofaciales de formacion de imagenes, asistidas por ordenador, con el fin de modelar caracteristicas dentofaciales de los pacientes, diagnosticar enfermedades, lesiones y defectos, planificar procedimientos quirurgicos dentofaciales y otros tratamientos, y educar a los pacientes con relacion a diagnosticos y tratamientos.
Por ejemplo, para planificar y simular una cirugia dentofacial, un facultativo puede, con la ayuda de una herramienta asistida por ordenador, modificar virtualmente diversos huesos o segmentos de hueso del paciente por mediacion de una interfaz de usuario de un ordenador. Tal planificacion y tal simulacion asistidas por ordenador puede permitir que el facultativo simule el efecto de diversos ajustes quirurgicos en un paciente, incluyendo efectos en la apariencia estetica del paciente. Sin embargo, las herramientas tradicionales de planificacion y simulacion quirurgicas asistidas por ordenador tienen importantes desventajas. Por ejemplo, las imagenes digitales de los tejidos faciales de un paciente generadas por dispositivos de formacion de imagenes pueden incluir ruido indeseable y otros artefactos. Asi, muchas herramientas tradicionales de planificacion y simulacion permiten que el facultativo realice la "limpieza" de una imagen digital para eliminar ruido de la imagen. Sin embargo, dicha limpieza del ruido es complicada debido a las formas no lineales y tridimensionales de los tejidos que comprenden una cabeza humana. Como otro ejemplo, las herramientas tradicionales de planificacion y simulacion tipicamente permiten que un facultativo haga ajustes quirurgicos bidimensionales del hueso y generan una respuesta bidimensional simulada de tejidos blandos basada en tales ajustes, lo que no permite que el facultativo vea un modelo tridimensional de la respuesta de los tejidos blandos.
Ademas, metodos de la tecnica anterior tales como el descrito en el documento WO 02/03304 han usado complejos modelos estadisticos en lugar de modelos fisicos. Este metodo requiere un conjunto de informacion de entrenamiento antes de que se pueda usar para un paciente dado y esta limitado por la cantidad de informacion de entrenamiento.
Sumario
De acuerdo con las ensenanzas de la presente divulgacion, se pueden reducir sustancialmente o eliminar desventajas y problemas asociados con enfoques tradicionales de la planificacion quirurgica que usan la formacion de imagenes dentofacial.
De acuerdo con un primer aspecto de la presente invencion, se proporciona un metodo como se define en la reivindicacion 1.
De acuerdo con un segundo aspecto de la presente invencion, se proporciona un articulo de fabricacion como se define en la reivindicacion 6.
De acuerdo con un tercer aspecto de la presente invencion, se proporciona un sistema de computacion como se define en la reivindicacion 11.
De acuerdo con realizaciones de la presente divulgacion, un metodo puede incluir mapear una elipse con su centro en el origen de un plano de coordenadas xy a un circulo con su centro en el origen del plano de coordenadas xy. El metodo incluye transformar una imagen tridimensional de sujeto que incluye un perfil curvado en el plano de coordenadas xy en una imagen intermedia basandose al menos en el mapeo de la elipse a un circulo base. El metodo incluye ademas transformar la imagen intermedia en una imagen transformada que tiene un perfil lineal
5
10
15
20
25
30
35
40
45
50
55
60
distorsionando cada uno de uno o mas puntos de interes de la imagen intermedia basandose al menos en una dimension del cfrculo y una coordenada de tal punto.
De acuerdo con realizaciones de la presente divulgacion, un artfculo de fabricacion incluye un medio no transitorio legible por ordenador e instrucciones ejecutables por ordenador llevadas en el medio legible por ordenador, ejecutables las instrucciones por uno o mas procesadores y configuradas para hacer que el o los procesadores: (i) mapeen una elipse con su centro en el origen de un plano de coordenadas xy a un cfrculo con su centro en el origen del plano de coordenadas xy; (ii) transformen una imagen tridimensional de sujeto que incluye un perfil curvado en el plano de coordenadas xy en una imagen intermedia basandose al menos en el mapeo de la elipse a un cfrculo base; y (iii) transformen la imagen intermedia en una imagen transformada que tiene un perfil lineal distorsionando cada uno de uno o mas puntos de interes de la imagen intermedia basandose al menos en una dimension del cfrculo y una coordenada de tal punto.
De acuerdo con realizaciones de la presente divulgacion, un sistema de computacion incluye un procesador y una memoria acoplada de manera comunicativa al procesador y que tiene almacenado en ella un programa de instrucciones configurado para, cuando se ejecuta mediante el procesador: (i) mapear una elipse con su centro en el origen de un plano de coordenadas xy a un cfrculo con su centro en el origen del plano de coordenadas xy; (ii) transformar una imagen tridimensional de sujeto que incluye un perfil curvado en el plano de coordenadas xy en una imagen intermedia basandose al menos en el mapeo de la elipse a un cfrculo base; y (iii) transformar la imagen intermedia en una imagen transformada que tiene un perfil lineal distorsionando cada uno de uno o mas puntos de interes de la imagen intermedia basandose al menos en una dimension del cfrculo y una coordenada de tal punto.
Otras ventajas tecnicas seran evidentes para los expertos en la tecnica en vista de la memoria descriptiva, las reivindicaciones y los dibujos siguientes.
Breve desoripoion de Ios dibujos
Una comprension mas completa de los presentes aspectos, y de realizaciones y ventajas de ellos, puede ser adquirida haciendo referencia a la siguiente descripcion tomada conjuntamente con los dibujos que se acompanan, en los que numeros de referencia similares indican caracterfsticas similares, y en los que:
las figuras 1A, 1B y 2A-2D exhiben otra pantalla de interfaz de usuario de ejemplo de una herramienta de
planificacion quirurgica asistida por ordenador;
la figura 3 es un diagrama de flujo que exhibe un metodo de ejemplo para la transformacion de una imagen tridimensional con un perfil curvado en un perfil lineal tridimensional;
las figuras 4-6 exhiben representaciones graficas de diversas etapas para la transformacion de una imagen tridimensional con un perfil curvado en un perfil lineal tridimensional;
las figuras 7 y 9 exhiben otras pantallas de interfaz de usuario de ejemplo de una herramienta de planificacion quirurgica asistida por ordenador; y
la figura 8 exhibe una imagen tridimensional de tejido blando de un paciente y una imagen bidimensional de tejido
blando de un paciente, incluyendo hitos particulares de la cara del paciente en cada una de las imagenes;
las figuras 10 y 11 exhiben imagenes de vista frontal bidimensional y vista lateral derecha de un paciente con diversos polfgonos y puntos de control superpuestos sobre las imagenes para uso al modificar las imagenes en respuesta al movimiento simulado de tejido oseo; y
la figura 12 exhibe un diagrama de bloques de un sistema de computacion de ejemplo.
Desoripoion detallada
Las figuras 1A, 1B y 2A-2D exhiben un ejemplo de usuario interfaz 400 de una herramienta de planificacion quirurgica asistida por ordenador. En particular, la pantalla 400 de interfaz de usuario puede ser visualizada para un usuario para ayudar a un usuario a "limpiar" una imagen de la anatomfa de un paciente. Por ejemplo, para planificar eficazmente una cirugfa, un usuario puede desear eliminar artefactos de imagen causados por ruido en un dispositivo de formacion de imagenes. Como otro ejemplo, un usuario puede desear recortar ciertas estructuras anatomicas (por ejemplo, aparatos ortodoncicos, dientes, etc.) de tal manera que la imagen resultante exhiba
5
10
15
20
25
30
35
40
45
50
55
60
estructuras anatomicas deseadas.
Para ilustrar, la pantalla 400 de interfaz de usuario de las figuras 1A y 1B incluye dos vistas diferentes de una imagen 402 de superficie segmentada de la mandfbula 404 de un paciente. La imagen 402 de superficie segmentada puede exhibir la superficie externa de una porcion particular de la anatomfa de un paciente y puede ser generada de cualquier manera adecuada. Por ejemplo, la herramienta de planificacion quirurgica asistida por ordenador puede generar una imagen 402 de superficie segmentada basandose en datos producidos por formacion de imagenes del paciente usando radiograffa u otra formacion de imagenes medica. La herramienta quirurgica asistida por ordenador tambien puede permitir que un usuario manipule la imagen 402 de superficie segmentada para obtener diferentes vistas de la imagen 402 de superficie segmentada. Como ejemplo, un usuario puede, por mediacion de uno o mas dispositivos de interfaz de usuario (por ejemplo, raton, teclado, etc.), introducir acciones o comandos para visualizar una vista diferente de la imagen 402 de superficie segmentada (por ejemplo, girar desde la vista de la figura 1A a la vista de la figura 1B) permitiendo a un usuario diversas perspectivas de la imagen tridimensional 402 de superficie segmentada. La herramienta quirurgica asistida por ordenador tambien puede permitir que un usuario realice otras acciones sobre la imagen 402 de superficie segmentada, incluyendo seleccionar y eliminar porciones no deseadas de la imagen 402 de superficie segmentada.
Para ilustrar, en las figuras 1A y 1B, la imagen 402 de superficie segmentada incluye no solo una mandfbula 404 del paciente y dientes inferiores de tal mandfbula 404, sino tambien los dientes superiores del paciente, que un usuario puede desear recortar de la imagen 402. Sin embargo, la naturaleza curvada de la mandfbula del paciente puede hacer diffcil la seleccion y la supresion de caracterfsticas no deseadas. Por ejemplo, si un usuario selecciona la fila superior de dientes de una vista anterior de la mandfbula 404 como se indica por la seleccion 406 en la figura 1 A, la seleccion 406 puede solaparse a otras caracterfsticas de la mandfbula 404 que el usuario desea retener en la imagen 402. De este modo, la supresion de dicha seleccion 406 puede suprimir indeseablemente tales caracterfsticas. Como otro ejemplo, si el usuario selecciona la fila superior de dientes de una vista lateral derecha de la mandfbula 404 como se indica por la seleccion 408 en la figura 1B, la seleccion 408 puede solaparse a caracterfsticas en el lado izquierdo de la mandfbula 404 que el usuario desea retener en la imagen 402, y la supresion de tal seleccion 408 puede suprimir indeseablemente tales caracterfsticas.
Para reducir o eliminar tales desventajas, la herramienta de planificacion quirurgica asistida por ordenador puede permitir que un usuario introduzca una accion o comando (por ejemplo, usando un raton u otro dispositivo senalador para marcar la casilla de verificacion denominada "Modo estirado" en la pantalla 400 de interfaz) para transformar la representacion de la mandfbula 404 en la imagen 402 de tal manera que la mandfbula curvada se deforma en una forma lineal, como se exhibe en las figuras 2A (vista inferior de la mandfbula 404) y 2B (vista anterior de la mandfbula 404). Tal transformacion puede hacerse de modo que los puntos que representan la superficie de la mandfbula 404 se trasladan solo en una direccion latitudinal (por ejemplo, permanecen a la misma altura). Con tal representacion, un usuario puede seleccionar la fila superior de dientes, como se indica mediante la seleccion 410, y suprimir tal seleccion 410, como se muestra en la figura 2C. En consecuencia, es menos probable que se eliminen las caracterfsticas que el usuario desea retener, ya que la representacion lineal de la mandfbula 404 puede reducir o evitar la supresion de otras caracterfsticas detras de los dientes que se van a eliminar de la imagen 402. La figura 2D exhibe una vista anterior de la mandfbula 404 despues de la linealizacion de la mandfbula 404 y la seleccion y supresion de la fila superior de dientes como se muestra en las figuras 2A-2C.
Aunque las figuras 1A, 1B y 2A-2D exhiben la linealizacion de una imagen de una mandfbula humana, se pueden usar tecnicas similares para la linealizacion de cualquier otra imagen tridimensional que tenga una caracterfstica curvada (por ejemplo, un maxilar).
La figura 3 es un diagrama de flujo que exhibe un metodo 600 de ejemplo para la transformacion de una imagen tridimensional con un perfil curvado en un perfil lineal tridimensional. Por ejemplo, las etapas de la figura 3 pueden emplearse para transformar una imagen de una mandfbula o maxilar desde su forma curvada natural hasta una forma lineal. El metodo 600 puede realizarse mediante una herramienta de planificacion quirurgica asistida por ordenador o cualquier otro programa ejecutable adecuado de instrucciones materializado en un medio legible por ordenador.
En la etapa 602, la herramienta de planificacion quirurgica asistida por ordenador y/o un usuario de la misma pueden definir una curva base 414 y un plano de coordenadas xy para la imagen tridimensional a transformar. Por ejemplo, tal como se representa en las figuras 2A a 2C, la herramienta de planificacion quirurgica asistida por ordenador puede visualizar un panel 412 que permite a un usuario definir interactivamente la curva base 414 como una semi- elipse que tiene un radio menor y un radio mayor deseados. Ademas, la herramienta de planificacion quirurgica asistida por ordenador puede superponerse a una vista de la imagen tridimensional (por ejemplo, maxilar,
5
10
15
20
25
30
35
40
45
50
55
60
mandfbula) perpendicular al perfil curvado de la imagen del sujeto a transformar en el panel 412, lo que puede proporcionar al usuario una guia para definir las dimensiones de la curva base 414. Ademas, la curva base 414 puede definir un plano de coordenadas xy (por ejemplo, en el que la base de la semi-elipse de la curva base 414 puede comprender el eje x) y la alineacion de la vista de la imagen tridimensional relativa a la curva base puede definir las ubicaciones de puntos de la imagen en tal sistema de coordenadas xy.
En la etapa 604, la herramienta de planificacion quirurgica asistida por ordenador puede mapear una elipse que tiene su radio menor a y su radio mayor b igual al de la semi-elipse de la curva base 414 a un circulo base que tiene su origen en el centro del origen del plano xy. El circulo base puede tener un radio igual al radio menor de la elipse, el radio mayor de la elipse, o algun otro radio. Un ejemplo de tal mapeo se ilustra en la figura 4, teniendo el circulo base un radio igual a b, el radio mayor de la elipse.
En la etapa 606, la herramienta de planificacion quirurgica asistida por ordenador puede realizar una primera transformacion que transforma la imagen del sujeto en una imagen intermedia basandose en el mapeo de la elipse definida por la curva base 414 al circulo base. Para ilustrar, la imagen a transformar puede ser una imagen de superficie segmentada, que esta definida por una pluralidad de puntos en el espacio tridimensional (por ejemplo, coordenadas x, y y z) que sirven como puntos finales de una pluralidad de triangulos que forman la superficie segmentada. Si el eje z de tal sistema de coordenadas es sustancialmente perpendicular a una vista del perfil curvado de la imagen (por ejemplo, perpendicular a la vista superior o inferior de un maxilar o mandfbula), entonces la coordenada z de cada punto Pi de la imagen de superficie segmentada puede permanecer al mismo valor durante esta primera transformacion. Ademas, la coordenada y de cada punto Pi tambien puede permanecer igual ya que la elipse definida por la curva base puede ser "estirada" hasta el circulo base solo en el eje x. En consecuencia, en la primera transformacion pueden modificarse solo las coordenadas x de cada punto Pi, y pueden modificarse de acuerdo con las siguientes ecuaciones (suponiendo que el circulo base tiene un radio igual al radio mayor de la elipse base):
Px’ = Px x b / a
Py’ = Py
Pz’ = Pz
donde Px, Py y Pz son respectivamente las coordenadas x, y y z de cada punto Pi en la imagen a transformar, Px’, Py’ y Pz’ son respectivamente las coordenadas x, y y z de cada correspondiente punto Pi’ en la imagen intermedia, a es el radio menor de la curva base 114 y b es el radio del circulo y el radio mayor de la curva base 114. La figura 5 ilustra esta primera transformacion en el plano xy.
En la etapa 608, la herramienta de planificacion quirurgica asistida por ordenador puede realizar una segunda transformacion que transforma la imagen intermedia en una imagen transformada con el perfil curvado de la imagen del sujeto transformada en un perfil lineal. En la transformacion, cada punto de interes en la imagen intermedia (por ejemplo, cada punto de una imagen de superficie segmentada) se puede modificar de acuerdo con las siguientes ecuaciones:
Px’’ = b x arctan (Px’ / Py’)
Py’’ = V (Px’2 + Py’2)
Pz’’ = Pz’
donde Px’’, Py’’ y Pz’’ son respectivamente las coordenadas x, y y z de cada punto Pi’’ en la imagen transformada, Px’, Py’ y Pz’ son respectivamente las coordenadas x, y y z de cada correspondiente punto Pi’ en la imagen intermedia, y b es el radio del circulo y el radio mayor de la curva base 114. La figura 6 ilustra esta segunda transformacion en el plano xy.
En la etapa 610, la herramienta de planificacion quirurgica asistida por ordenador puede visualizar la imagen transformada (por ejemplo, en un visualizador como se muestra en las figuras 2A o 2B). Una vez completada la etapa 610, el metodo 600 puede terminar.
Aunque la figura 3 divulga un numero particular de etapas a tomar con respecto al metodo 600, se entiende que el metodo 600 puede ejecutarse con pasos mayores o menores que los representados en la figura 3. Ademas, aunque
5
10
15
20
25
30
35
40
45
50
55
60
la figura 3 describe un cierto orden de etapas a tomar con respecto al metodo 600, las etapas que comprende el metodo 600 pueden completarse en cualquier orden adecuado.
El metodo 600 puede implementarse utilizando un sistema que se puede operar para implementar el metodo 600, incluyendo, sin limitacion, el sistema de ordenador 1200 exhibido en la figura 12. En ciertas realizaciones, el metodo 600 puede implementarse parcial o totalmente en un software materializado en medios legibles por ordenador.
Despues de que una imagen haya sido transformada, un usuario de la herramienta de planificacion quirurgica asistida por ordenador puede, por mediacion de una interfaz de usuario, "limpiar" artefactos no deseados de una imagen (por ejemplo, seleccionando artefactos no deseados y suprimiendo tales selecciones). Despues de tal limpieza, un usuario puede desear transformar la imagen transformada de nuevo en una imagen con un perfil curvado. En consecuencia, la herramienta de planificacion quirurgica asistida por ordenador puede transformar la imagen de nuevo en una imagen limpia con un perfil curvado aplicando los calculos inversos de los aplicados anteriormente a diversos puntos de interes en la imagen transformada.
La figura 7 representa una pantalla 1000 de interfaz de usuario de ejemplo de una herramienta de planificacion quirurgica asistida por ordenador. La pantalla 1000 de interfaz de usuario puede facilitar la planificacion del usuario de un procedimiento de osteotomia, simulando la respuesta del tejido blando de un paciente ante movimientos de tejido oseo por debajo del tejido blando. Como se muestra en la figura 7, la pantalla 1000 de interfaz de usuario puede incluir uno o mas paneles 1002 que representan una vista bidimensional de caracteristicas craneofaciales de un paciente, incluyendo tejido oseo y tejido blando. Las imagenes exhibidas en tales vistas pueden ser creadas por la herramienta de planificacion quirurgica asistida por ordenador u otro programa de instrucciones basandose en una radiografia u otra imagen de los tejidos de la cabeza de un individuo.
Como se muestra en la figura 7, la herramienta de planificacion quirurgica asistida por ordenador puede exhibir tejidos blandos de las caracteristicas craneofaciales como parcialmente transparentes en los paneles 1002, permitiendo que se vea tejido oseo bajo los tejidos blandos superpuestos. En ciertas realizaciones, la herramienta de planificacion quirurgica asistida por ordenador puede permitir a un usuario variar la opacidad o transparencia de los tejidos blandos. Ademas, la herramienta de planificacion quirurgica asistida por ordenador puede cargar una fotografia u otra imagen que exhiba rasgos superficiales de la cara del paciente, y superponer y contornear tal imagen sobre las diversas vistas exhibidas en los paneles 1002, permitiendo la simulacion quirurgica de la respuesta de rasgos faciales superficiales al movimiento del tejido oseo en una osteotomia. Por ejemplo, se puede usar una camara tridimensional para capturar una imagen de la superficie facial de un paciente, y tal imagen de superficie facial tridimensional puede ser superpuesta sobre la imagen de los tejidos blandos, segun tecnicas conocidas. Como otro ejemplo, se pueden usar una o mas imagenes faciales bidimensionales para capturar imagenes de las superficies faciales de un paciente, y dichas imagenes bidimensionales pueden ser envueltas sobre la superficie de la imagen tridimensional del tejido blando del paciente, como se ilustra en la figura 8. La figura 8 exhibe una imagen tridimensional de un tejido blando 1052 del paciente y una imagen bidimensional de las caracteristicas faciales superficiales 1054 de un paciente, incluyendo hitos particulares 1056, 1058, 1060, 1062, 1064 y 1066 de la cara del paciente en cada imagen 1052 y 1054. Por ejemplo, una herramienta de planificacion quirurgica asistida por ordenador puede presentar a un usuario una interfaz de usuario similar a la exhibida en la figura 8, y un usuario puede, por mediacion de la interfaz de usuario, identificar las caracteristicas correspondientes en cada una de la imagen 1052 de tejido blando y de la imagen 1054 de caracteristica superficial facial. Por ejemplo, el usuario puede identificar, sin limitacion, la linea media 1056, la linea de nasion 1058, la linea superior de nostril 1060, la linea subnasal 1062, la linea de estomion 1064 y el borde de las lineas de ojo 1066. Pueden hacerse identificaciones de hito similares a otras imagenes bidimensionales de las caracteristicas superficiales de un paciente, y tales imagenes bidimensionales pueden estar superpuestas sobre la imagen tridimensional de volumen de tejido blando de acuerdo con tecnicas conocidas.
Volviendo a la figura 7, la herramienta de planificacion quirurgica asistida por ordenador puede permitir que un usuario defina varios cortes del maxilar y mandibula de un paciente, definiendo asi porciones de tejido oseo que pueden ser movidas durante una osteotomia (por ejemplo, ramas mandibulares 1004, cuerpo mandibular 1006, menton 1008, lados maxilares 1010 y frente maxilar 1012), y permitiendo al usuario (por ejemplo, a traves de comandos o acciones de entrada a traves de teclado, raton u otro dispositivo) simular tales movimientos utilizando la herramienta de planificacion quirurgica asistida por ordenador trasladando y/o girando tales diversas porciones de tejido oseo.
La figura 9 exhibe otra pantalla 1100 de interfaz de usuario de ejemplo de una herramienta de planificacion quirurgica asistida por ordenador que se puede usar en conexion con la planificacion de osteotomia. Como se muestra en la figura 9, la pantalla 1100 de interfaz de usuario puede incluir uno o mas paneles 1002 que representan
5
10
15
20
25
30
35
40
45
50
55
60
una vista bidimensional de las caracteristicas craneofaciales de un paciente, incluyendo tejido oseo y tejido blando, y un panel 1102 que tiene una imagen tridimensional 1104, giratoria por el usuario, que exhibe los tejidos blandos y/o las caracteristicas faciales superficiales de un paciente. Inicialmente, la imagen 1104 puede crearse basandose en una radiografia u otra imagen medica del tejido blando externo de un paciente y una fotografia u otra imagen de las caracteristicas faciales superficiales del paciente superpuestas y contorneadas al tejido blando externo.
Un usuario puede interactuar con la pantalla 1100 de interfaz de usuario (por ejemplo, utilizando un teclado, raton y/u otro dispositivo de entrada del usuario) para simular el movimiento (por ejemplo, traslacion o rotacion) de una porcion del tejido oseo del paciente y, en respuesta, la herramienta de planificacion quirurgica asistida por ordenador puede volver a dibujar una o mas de las imagenes bidimensionales en los paneles 1002 para mostrar el movimiento de tal porcion de tejido oseo y simular la respuesta del tejido blando del paciente al movimiento, asi como redibujar la imagen 1104 para simular la respuesta del tejido blando del paciente y las caracteristicas faciales superficiales al movimiento. Ademas, el usuario puede interactuar con la pantalla 1100 de interfaz de usuario (por ejemplo, utilizando un teclado, raton y/u otro dispositivo de entrada de usuario) para girar la imagen 1104 en el panel 1102 para obtener perspectivas variables de la imagen 1104 para evaluar el efecto de movimientos de osteotomia en la apariencia exterior del paciente. De este modo, la interfaz 1100 de usuario puede permitir ventajosamente a un usuario la capacidad de simular movimientos en vistas fijas bidimensionales, mientras observa la respuesta del paciente en una imagen tridimensional giratoria.
La herramienta de planificacion quirurgica asistida por ordenador puede redibujar basandose en el movimiento simulado de tejido oseo usando cualquier enfoque adecuado. Las figuras 10 y 11 ilustran tal enfoque. Las figuras 10 y 11 exhiben una imagen 1070 de vista frontal bidimensional y una imagen 1080 de vista lateral derecha bidimensional (como se pueden visualizar en los paneles 1002) de un paciente con diversos poligonos 1090 y puntos 1095 de control superpuestos sobre las imagenes para uso en la modificacion de las imagenes en respuesta al movimiento simulado de tejido oseo. En algunas realizaciones, tal como se muestra en las figuras 10 y 11, para cada vista bidimensional de un paciente (por ejemplo, vista frontal, vista izquierda, vista derecha, etc.), se pueden definir (por ejemplo, o bien por un usuario de la herramienta de planificacion quirurgica asistida por ordenador o bien por algoritmos de la herramienta de planificacion quirurgica asistida por ordenador que reconoce caracteristicas de la cara de un paciente) una serie de poligonos 1090 (por ejemplo triangulos), definiendo cada poligono 1090 una region de la cara del paciente en la vista particular. Los vertices de tales poligonos 1090 pueden servir como puntos 1095 de control. Los poligonos y vertices no pueden aparecer en realidad a un usuario durante la simulacion quirurgica, sino que pueden existir como una construccion logica para ser utilizada por la herramienta de planificacion quirurgica asistida por ordenador para modificar matematicamente y/o algoritmicamente las imagenes del paciente.
Cuando un usuario de la herramienta de planificacion quirurgica asistida por ordenador simula un movimiento de tejido oseo, cada punto 1095 de control puede ser trasladado basandose en su proximidad a la porcion de tejido oseo subyacente que se esta moviendo y el grado en que se movio el tejido oseo subyacente. Por ejemplo, para un movimiento simulado de un hueso de menton, los puntos 1095 de control proximos al menton del paciente pueden ser trasladados a una distancia mayor que los puntos 1095 de control proximos a los labios del paciente. Ademas, los diferentes pixeles de las imagenes bidimensionales e imagenes tridimensionales pueden ser trasladados, redibujados y visualizados en la pantalla 1100 de interfaz de usuario basandose en la proximidad de dichos pixeles a los puntos 1095 de control trasladados y el grado en que los puntos 1095 de control fueron trasladados.
La figura 12 representa un diagrama de bloques de un sistema 1200 de computacion de ejemplo, de acuerdo con realizaciones de la presente divulgacion. El sistema 1200 de computacion puede utilizarse en su totalidad o en parte para proporcionar o realizar diversas funciones y operaciones descritas anteriormente con respecto a las figuras 1 -8. Como se muestra en la figura 12, el sistema 1200 de computacion puede incluir un procesador 1202, una memoria 1204 y una logica 1206.
El sistema 1200 de computacion puede comprender cualquier combinacion de hardware y/o software implementado en uno o mas modulos para proporcionar o realizar las funciones y operaciones descritas anteriormente con respecto a las figuras 1-11. En algunas realizaciones, el sistema 1200 de computacion puede comprender un ordenador central, un ordenador personal de uso general (PC), un Macintosh, una estacion de trabajo, un ordenador basado en Unix, un ordenador servidor o cualquier dispositivo de procesamiento adecuado. En algunas realizaciones, las funciones y operaciones descritas anteriormente pueden realizarse mediante un grupo de multiples sistemas 1200 de computacion.
La memoria 1200 puede comprender cualquier disposicion adecuada de memoria de acceso aleatorio (RAM), memoria de solo lectura (ROM), disco de ordenador magnetico, CD-ROM u otro medio de almacenamiento
magnetico, optico o de estado solido, o cualesquiera otros dispositivos de memoria volatil o no volatil que almacenan uno o mas archivos, listas, tablas u otras disposiciones de informacion. Aunque la figura 12 ilustra la memoria 1204 como interna al sistema de computacion, debe entenderse que la memoria 1204 puede ser interna o externa al sistema 1200 de computacion, dependiendo de implementaciones particulares. La memoria 1204 puede estar 5 separada o integrarse a otros dispositivos de memoria para conseguir cualquier disposicion adecuada de dispositivos de memoria para uso al proporcionar o realizar operaciones o funcionalidad deseadas.
La memoria 1204 puede ser ademas operable para almacenar la logica 1206. La logica 1206 comprende generalmente reglas, algoritmos, codigo, tablas y/u otras instrucciones adecuadas ejecutables por el procesador 10 1202 para proporcionar o realizar las funciones y operaciones descritas anteriormente con respecto a las figuras 1
11.
La memoria 1204 puede estar acoplada de manera comunicativa al procesador 1202. El procesador 1202 puede ser operable en general para ejecutar logica para llevar a cabo las operaciones descritas en el presente documento. El 15 procesador 1202 puede comprender cualquier combinacion adecuada de hardware y software implementada en uno o mas modulos para proporcionar la funcion u operacion descrita.
Aunque la presente divulgacion ha sido descrita en detalle, debe entenderse que pueden hacerse diversos cambios, sustituciones y alteraciones a la misma sin salir del alcance de la invencion como se define mediante las 20 reivindicaciones adjuntas.
Claims (14)
- 51015202530354045505560reivindicaciones1. Un metodo que comprende:transformar una imagen tridimensional que representa al menos rasgos craneo-faciales de tejido oseo de un paciente en una imagen bidimensional interactiva que representa los mismos rasgos craneo-faciales de tejido oseo de un paciente mediante la definicion de una elipse base que define adicionalmente un plano de coordenadas x-y para la imagen tridimensional y mediante la definicion de un circulo base que tiene su centro en el origen del plano de coordenadas x-y, transformando entonces la imagen bidimensional en una imagen intermedia mediante el mapeo de la elipse base en el circulo base, transformando entonces la imagen intermedia en un perfil lineal que forma la imagen bidimensional interactiva que tiene una o mas porciones asociadas, cada una, con una correspondiente porcion de un rasgo craneo-facial de tejido oseo y que contiene al menos un poligono o punto de control superpuesto sobre la imagen en al menos una ubicacion;visualizar una o mas imagenes bidimensionales interactivas de tal manera que un usuario puede, por mediacion de un dispositivo de entrada de usuario, provocar el movimiento de al menos una de las una o mas porciones de tal imagen bidimensional para simular el movimiento de la correspondiente porcion del tejido oseo del paciente en un procedimiento de osteotomia;visualizar una imagen tridimensional que representa rasgos craneo-faciales de tejido blando exterior del paciente;recibir entrada procedente de un usuario relativa al movimiento de una porcion particular de una o mas porciones de la imagen bidimensional, en el que la entrada provoca el movimiento de al menos un poligono o punto de control a al menos una nueva ubicacion; yre-dibujar la imagen tridimensional basandose al menos en el movimiento de la porcion particular de la imagen bidimensional para simular la respuesta de los rasgos craneo-faciales de tejido blando exterior del paciente al movimiento de una porcion del tejido oseo del paciente correspondiente a la porcion particular de la imagen bidimensional, en el que el re-dibujo usa al menos una ubicacion de al menos un poligono o punto de control.
- 2. Un metodo de acuerdo con la reivindicacion 1, en el que los rasgos craneo-faciales de tejido blando exterior del paciente incluyen rasgos superficiales de la cara del paciente.
- 3. Un metodo de acuerdo con la reivindicacion 1, en el que el movimiento de una porcion particular del tejido oseo del paciente incluye al menos una de entre la rotacion y la traslacion de la porcion particular del tejido oseo.
- 4. Un metodo de acuerdo con la reivindicacion 1, en el que la o las imagenes bidimensionales tambien representan rasgos craneo-faciales de tejido blando exterior del paciente, comprendiendo adicionalmente el metodo redibujar la imagen bidimensional basandose al menos en el movimiento de la porcion particular de la imagen bidimensional para simular la respuesta de los rasgos craneo-faciales de tejido blando exterior del paciente al movimiento de una porcion del tejido oseo del paciente correspondiente a la porcion particular de la imagen bidimensional.
- 5. Un metodo de acuerdo con la reivindicacion 1, en el que los rasgos craneo-faciales de tejido oseo incluyen al menos uno de entre el maxilar y la mandibula del paciente.
- 6. Un articulo de fabricacion, que comprende: un medio no transitorio legible por ordenador; yinstrucciones ejecutables por ordenador llevadas en el medio legible por ordenador, ejecutables las instrucciones por uno o mas procesadores y configuradas para hacer que el o los procesadores:transformen una imagen tridimensional que representa al menos rasgos craneo-faciales de tejido oseo de un paciente en una imagen bidimensional interactiva que representa los mismos rasgos craneo-faciales de tejido oseo de un paciente mediante la definicion de una elipse base que define adicionalmente un plano de coordenadas x-y para la imagen tridimensional y mediante la definicion de un circulo base que tiene su centro en el origen del plano de coordenadas x-y, transformando entonces la imagen bidimensional en una imagen intermedia mediante el mapeo de la elipse base en el circulo base, transformando entonces la imagen intermedia en un perfil lineal que forma la imagen bidimensional interactiva que tiene una o mas porciones asociadas, cada una, con una correspondiente51015202530354045505560porcion de un rasgo craneo-facial de tejido oseo y que contiene al menos un poligono o punto de control superpuesto sobre la imagen en al menos una ubicacion;visualicen una o mas imagenes bidimensionales interactivas de tal manera que un usuario puede, por mediacion de un dispositivo de entrada de usuario, provocar el movimiento de al menos una de las una o mas porciones de tal imagen bidimensional para simular el movimiento de la correspondiente porcion del tejido oseo del paciente en un procedimiento de osteotomia;visualicen una imagen tridimensional que representa rasgos craneo-faciales de tejido blando exterior del paciente;reciban entrada procedente de un usuario relativa al movimiento de una porcion particular de una o mas porciones de la imagen bidimensional, en el que la entrada provoca el movimiento de al menos un poligono o punto de control a al menos una nueva ubicacion; yre-dibujen la imagen tridimensional basandose al menos en el movimiento de la porcion particular de la imagen bidimensional para simular la respuesta de los rasgos craneo-faciales de tejido blando exterior del paciente al movimiento de una porcion del tejido oseo del paciente correspondiente a la porcion particular de la imagen bidimensional, en el que el re-dibujo usa al menos una ubicacion de al menos un poligono o punto de control.
- 7. Un articulo de metodo de fabricacion de acuerdo con la reivindicacion 6, en el que los rasgos craneo-faciales de tejido blando exterior del paciente incluyen rasgos superficiales de la cara del paciente.
- 8. Un articulo de metodo de fabricacion de acuerdo con la reivindicacion 6, en el que el movimiento de una porcion particular del tejido oseo del paciente incluye al menos una de entre la rotacion y la traslacion de la porcion particular del tejido oseo.
- 9. Un articulo de metodo de fabricacion de acuerdo con la reivindicacion 6, en el que la o las imagenes bidimensionales tambien representan rasgos craneo-faciales de tejido blando exterior del paciente, comprendiendo adicionalmente el metodo redibujar la imagen bidimensional basandose al menos en el movimiento de la porcion particular de la imagen bidimensional para simular la respuesta de los rasgos craneo-faciales de tejido blando exterior del paciente al movimiento de una porcion del tejido oseo del paciente correspondiente a la porcion particular de la imagen bidimensional.
- 10. Un articulo de metodo de fabricacion de acuerdo con la reivindicacion 6, en el que los rasgos craneo-faciales de tejido oseo incluyen al menos uno de entre el maxilar y la mandibula del paciente.
- 11. Un sistema de computacion, que comprende: un procesador; yuna memoria acoplada de manera comunicativa al procesador y que tiene almacenado en ella un programa de instrucciones configurado para, cuando se ejecuta mediante el procesador:transformar una imagen tridimensional que representa al menos rasgos craneo-faciales de tejido oseo de un paciente en una imagen bidimensional interactiva que representa los mismos rasgos craneo-faciales de tejido oseo de un paciente mediante la definicion de una elipse base que define adicionalmente un plano de coordenadas x-y para la imagen tridimensional y mediante la definicion de un circulo base que tiene su centro en el origen del plano de coordenadas x-y, transformando entonces la imagen bidimensional en una imagen intermedia mediante el mapeo de la elipse base en el circulo base, transformando entonces la imagen intermedia en un perfil lineal que forma la imagen bidimensional interactiva que tiene una o mas porciones asociadas, cada una, con una correspondiente porcion de un rasgo craneo-facial de tejido oseo y que contiene al menos un poligono o punto de control superpuesto sobre la imagen en al menos una ubicacion;visualizar una o mas imagenes bidimensionales interactivas de tal manera que un usuario puede, por mediacion de un dispositivo de entrada de usuario, provocar el movimiento de al menos una de las una o mas porciones de tal imagen bidimensional para simular el movimiento de la correspondiente porcion del tejido oseo del paciente en un procedimiento de osteotomia;visualizar una imagen tridimensional que representa rasgos craneo-faciales de tejido blando exterior del paciente;recibir entrada procedente de un usuario relativa al movimiento de una porcion particular de una o mas porciones de la imagen bidimensional, en el que la entrada provoca el movimiento de al menos un poligono o punto de control a al menos una nueva ubicacion; y5 re-dibujar la imagen tridimensional basandose al menos en el movimiento de la porcion particular de la imagen bidimensional para simular la respuesta de los rasgos craneo-faciales de tejido blando exterior del paciente al movimiento de una porcion del tejido oseo del paciente correspondiente a la porcion particular de la imagen bidimensional, en el que el re-dibujo usa al menos una ubicacion de al menos un poligono o punto de control.10 12. Un sistema de computacion de acuerdo con la reivindicacion 11, en el que los rasgos craneo-faciales de tejidoblando exterior del paciente incluyen rasgos superficiales de la cara del paciente.
- 13. Un sistema de computacion de acuerdo con la reivindicacion 11, en el que el movimiento de una porcion particular del tejido oseo del paciente incluye al menos una de entre la rotacion y la traslacion de la porcion particular15 del tejido oseo.
- 14. Un sistema de computacion de acuerdo con la reivindicacion 11, en el que la o las imagenes bidimensionales tambien representan rasgos craneo-faciales de tejido blando exterior del paciente, comprendiendo adicionalmente el metodo redibujar la imagen bidimensional basandose al menos en el movimiento de la porcion particular de la20 imagen bidimensional para simular la respuesta de los rasgos craneo-faciales de tejido blando exterior del paciente al movimiento de una porcion del tejido oseo del paciente correspondiente a la porcion particular de la imagen bidimensional.
- 15. Un sistema de computacion de acuerdo con la reivindicacion 11, en el que los rasgos craneo-faciales de tejido 25 oseo incluyen al menos uno de entre el maxilar y la mandibula del paciente.
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US13/081,869 US8650005B2 (en) | 2011-04-07 | 2011-04-07 | System and method for three-dimensional maxillofacial surgical simulation and planning |
| US13/081,895 US8417004B2 (en) | 2011-04-07 | 2011-04-07 | System and method for simulated linearization of curved surface |
| US201113081869 | 2011-04-07 | ||
| US201113081895 | 2011-04-07 | ||
| PCT/US2012/031942 WO2012138624A2 (en) | 2011-04-07 | 2012-04-03 | System and method for three-dimensional maxillofacial surgical simulation and planning |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2640437T3 true ES2640437T3 (es) | 2017-11-03 |
Family
ID=46969768
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES12767234.3T Active ES2640437T3 (es) | 2011-04-07 | 2012-04-03 | Sistema y método para planificación y simulación quirúrgica maxilofacial tridimensional |
| ES12768435T Active ES2718656T3 (es) | 2011-04-07 | 2012-04-03 | Sistema y método de linealización simulada de superficie curva |
Family Applications After (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES12768435T Active ES2718656T3 (es) | 2011-04-07 | 2012-04-03 | Sistema y método de linealización simulada de superficie curva |
Country Status (3)
| Country | Link |
|---|---|
| EP (2) | EP2693977B1 (es) |
| ES (2) | ES2640437T3 (es) |
| WO (2) | WO2012138624A2 (es) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| IL227360A (en) * | 2013-07-07 | 2015-01-29 | Boris Fridzon | Method and system for presenting and planning or performing dental care |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US7234937B2 (en) * | 1999-11-30 | 2007-06-26 | Orametrix, Inc. | Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics |
| JP4748843B2 (ja) * | 2000-01-25 | 2011-08-17 | 株式会社日立メディコ | 臓器の特定領域抽出表示装置及び臓器の特定領域抽出表示方法をコンピュータに実行させるプログラムを記録した記録媒体 |
| WO2001080765A1 (en) * | 2000-04-25 | 2001-11-01 | Align Technology, Inc. | Systems and methods for dental treatment planning |
| GB2364494A (en) * | 2000-06-30 | 2002-01-23 | Tricorder Technology Plc | Predicting changes in characteristics of an object |
| US7561725B2 (en) * | 2003-03-12 | 2009-07-14 | Siemens Medical Solutions Usa, Inc. | Image segmentation in a three-dimensional environment |
| WO2005025404A2 (en) * | 2003-09-08 | 2005-03-24 | Vanderbilt University | Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery |
| US7953260B2 (en) * | 2006-06-09 | 2011-05-31 | Craniosim Solutions, Inc. | Predicting movement of soft tissue of the face in response to movement of underlying bone |
| JP2009165558A (ja) * | 2008-01-11 | 2009-07-30 | Panasonic Corp | 口腔内測定方法および口腔内測定装置 |
| US8896592B2 (en) * | 2009-08-21 | 2014-11-25 | Align Technology, Inc. | Digital dental modeling |
-
2012
- 2012-04-03 ES ES12767234.3T patent/ES2640437T3/es active Active
- 2012-04-03 WO PCT/US2012/031942 patent/WO2012138624A2/en not_active Ceased
- 2012-04-03 WO PCT/US2012/031945 patent/WO2012138627A2/en not_active Ceased
- 2012-04-03 EP EP12768435.5A patent/EP2693977B1/en active Active
- 2012-04-03 ES ES12768435T patent/ES2718656T3/es active Active
- 2012-04-03 EP EP12767234.3A patent/EP2693976B1/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| EP2693976A4 (en) | 2015-01-07 |
| EP2693976A2 (en) | 2014-02-12 |
| ES2718656T3 (es) | 2019-07-03 |
| EP2693977B1 (en) | 2019-03-06 |
| WO2012138624A2 (en) | 2012-10-11 |
| WO2012138624A3 (en) | 2012-12-13 |
| WO2012138627A3 (en) | 2012-12-13 |
| EP2693976B1 (en) | 2017-06-14 |
| EP2693977A4 (en) | 2015-03-18 |
| WO2012138627A2 (en) | 2012-10-11 |
| EP2693977A2 (en) | 2014-02-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8650005B2 (en) | System and method for three-dimensional maxillofacial surgical simulation and planning | |
| ES2908588T3 (es) | Método para controlar una pantalla de presentación visual, programa informático y dispositivo de presentación visual de realidad mixta | |
| Xia et al. | Three-dimensional virtual-reality surgical planning and soft-tissue prediction for orthognathic surgery | |
| Abhari et al. | Training for planning tumour resection: augmented reality and human factors | |
| ES2937163T3 (es) | Planificación digital de tratamiento ortodóncico | |
| US8253778B2 (en) | Three-dimensional digital magnifier operation supporting system | |
| Jiang et al. | Registration technology of augmented reality in oral medicine: A review | |
| US8711178B2 (en) | System and method for generating profile morphing using cephalometric tracing data | |
| EP3998037B1 (en) | Implant surgery planning method using automatic placement of implant structure, user interface providing method therefor, and teeth image processing device therefor | |
| Suebnukarn et al. | Process and outcome measures of expert/novice performance on a haptic virtual reality system | |
| US8417004B2 (en) | System and method for simulated linearization of curved surface | |
| ES2824257T3 (es) | Sistema de planificación de cirugía ortopédica | |
| ES2845936T3 (es) | Generación de modelos para simulación dental | |
| BR112020026554A2 (pt) | Método e sistema para ajustar dinamicamente um modelo 3d. | |
| CN105761239A (zh) | 一种黄金比例引导的三维人脸模型重建方法 | |
| CN115645044A (zh) | 一种基于无标记物的口腔种植图像叠加方法 | |
| Sørensen et al. | A new virtual reality approach for planning of cardiac interventions | |
| Liang et al. | Oralviewer: 3d demonstration of dental surgeries for patient education with oral cavity reconstruction from a 2d panoramic x-ray | |
| ES2640437T3 (es) | Sistema y método para planificación y simulación quirúrgica maxilofacial tridimensional | |
| CN115222887A (zh) | 一种基于容貌的颅颌面骨骼手术规划的设计方法 | |
| Wang et al. | Haptics and virtual reality for oral and maxillofacial surgery | |
| JP2005074136A (ja) | 顔形状のモデリング方法及び顔形状モデリング用プログラム | |
| TWI441106B (zh) | 以影像為基礎之外科手術模擬系統 | |
| Al-Khaled et al. | A review of augmented reality systems and an update on the most recent technological developments and applications in dentistry | |
| KR20210008553A (ko) | 신체 유사도 지수 산출 방법과, 이를 이용한 수술 계획 시뮬레이션 방법 및 장치 |