ES2218177T3 - Sistema de observacion vedeoestereoscopica y de ampliacion de imagen. - Google Patents
Sistema de observacion vedeoestereoscopica y de ampliacion de imagen.Info
- Publication number
- ES2218177T3 ES2218177T3 ES00942345T ES00942345T ES2218177T3 ES 2218177 T3 ES2218177 T3 ES 2218177T3 ES 00942345 T ES00942345 T ES 00942345T ES 00942345 T ES00942345 T ES 00942345T ES 2218177 T3 ES2218177 T3 ES 2218177T3
- Authority
- ES
- Spain
- Prior art keywords
- control
- values
- images
- parametric
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000004891 communication Methods 0.000 claims abstract description 9
- 238000005457 optimization Methods 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 79
- 230000008569 process Effects 0.000 claims description 45
- 238000003908 quality control method Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 20
- 230000004913 activation Effects 0.000 claims description 13
- 230000007246 mechanism Effects 0.000 claims description 12
- 210000003128 head Anatomy 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 7
- 230000003321 amplification Effects 0.000 claims description 6
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 5
- 238000012544 monitoring process Methods 0.000 claims description 5
- 230000033001 locomotion Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims 4
- 239000013078 crystal Substances 0.000 claims 1
- 230000009849 deactivation Effects 0.000 claims 1
- 239000007788 liquid Substances 0.000 claims 1
- 230000006641 stabilisation Effects 0.000 claims 1
- 238000011105 stabilization Methods 0.000 claims 1
- 230000009466 transformation Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 2
- 238000001356 surgical procedure Methods 0.000 description 19
- 230000008859 change Effects 0.000 description 9
- 230000008520 organization Effects 0.000 description 9
- 238000012800 visualization Methods 0.000 description 6
- 230000003416 augmentation Effects 0.000 description 5
- 230000003213 activating effect Effects 0.000 description 4
- 238000002406 microsurgery Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 239000003381 stabilizer Substances 0.000 description 3
- 238000011282 treatment Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000003872 anastomosis Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000282461 Canis lupus Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003881 arterial anastomosis Effects 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 238000007630 basic procedure Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002224 dissection Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002674 endoscopic surgery Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000968 medical method and process Methods 0.000 description 1
- 230000003472 neutralizing effect Effects 0.000 description 1
- 210000003101 oviduct Anatomy 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000002432 robotic surgery Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
- 230000003878 venous anastomosis Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/133—Equalising the characteristics of different image components, e.g. their average brightness or colour balance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/189—Recording image signals; Reproducing recorded image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/194—Transmission of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/324—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
- Microscoopes, Condenser (AREA)
- Liquid Crystal (AREA)
Abstract
Método para mostrar visualmente en tiempo real a un operador humano imágenes dinámicas, que se pueden ampliar de manera variable, optimizadas y emuladas estereoscópicamente de un espacio de aplicación físico, con el fin de ayudar en el proceso de observación minuciosa y la manipulación de objetos dentro de dicho espacio de aplicación, comprendiendo el método: la generación de imágenes dinámicas de dicho espacio de aplicación mediante dispositivos generadores de imágenes; la codificación de imágenes dinámicas en señales eléctricas codificadas; la transmisión de dichas señales eléctricas que representan las imágenes dinámicas a pantallas que están situadas en alineación óptica con los ojos de dicho operador humano; la descodificación de las señales codificadas que representan las imágenes dinámicas en imágenes reproducidas; y la visualización de dichas imágenes reproducidas por los ojos del operador humano.
Description
Sistema de observación videoestereoscópica y de
ampliación de imagen.
La presente invención se refiere en general a un
sistema de observación estereoscópica y más en particular a un
sistema de observación videoestereoscópica de ampliación de imagen
para ser utilizado en cirugía y en otras aplicaciones médicas.
Actualmente, los cirujanos que realizan cirugía u
otras operaciones médicas están obligados a utilizar diferentes
métodos de observación durante las diferentes sesiones quirúrgicas o
incluso durante una sola sesión. Cada método de observación implica
el uso de diferentes instrumentos y equipos. Aunque para algunas
operaciones quirúrgicas es suficiente la mera observación o la
observación natural, muchos tipos de cirugía demandan la ampliación
del campo visual de operación y el aumento de la visión del
cirujano. Los cirujanos que realizan tales procesos quirúrgicos se
proveen de una vista aumentada del área en la que operan utilizando
una serie de dispositivos ópticos que tienen un margen asociado de
capacidades de aumento. El grupo de dispositivos de aumento
operativos comprende varios sistemas ópticos tales como por ejemplo
lupas de mano, lupas binoculares portátiles con o sin luz frontal,
o, en el caso de microcirugía, microscopios quirúrgicos.
Normalmente, la observación con ayuda de una lupa proporciona
aumentos que oscilan entre 2 y 3 (también se puede conseguir un
aumento mayor aunque el equipo tiene un manejo complicado y se
utiliza con menos frecuencia) mientras que el margen de
amplificación para un microscopio oscila normalmente entre 8 ó más.
La utilización de diferentes métodos de observación y equipos para
los mismos, supone una desventaja evidente de la presente técnica de
observación quirúrgica. Ninguna de las técnicas existentes
proporciona una opción "de ver con sus ojos" o la capacidad de
transmitir la imagen vista por el cirujano a sus ayudantes y a otros
expertos presentes en la operación quirúrgica.
Las tendencias de la cirugía moderna apuntan
hacia el desarrollo de técnicas quirúrgicas menos agresivas o apenas
agresivas, que proporcionan menos exposición y por tanto requieren
unas herramientas de visualización más amplificadoras y que mejoran
la visión. Tales técnicas quirúrgicas menos agresivas incluyen la
microcirugía que necesita un microscopio quirúrgico, la cirugía
endoscópica que utiliza laparoscopios o endoscopios, la cirugía
asistida por ordenador, la cirugía robótica y la telecirugía que se
realiza usando sistemas asistidos por ordenador asociados, en
procesos específicos, con técnicas de realismo aumentado y procesos
de cirugía clásica o cirugía directa con invasión mínima que
implican un acceso mínimo al campo de operaciones.
Algunas de las cirugías mencionadas tales como
por ejemplo la cirugía endoscópica, la asistida por ordenador y la
telecirugía, necesitan sistemas de visualización específica y pueden
necesitar además el uso de dispositivos de aumento interfacial y de
mejora de la visión. Otros métodos de cirugía tales como la
microcirugía o los procesos de cirugía clásica que implican el uso
de un microscopio quirúrgico de quirófano demandan el aumento y la
mejora de la visión del cirujano. El tratamiento de órganos y de
espacios anatómicos alejados, que son difíciles de exponer y de
difícil acceso durante la operación y las fases quirúrgicas
genéricas tales como disección microquirúrgica, técnicas de sutura,
colgajo libre, anastomosis arterial y venosa, interposición de
injerto venoso, anastomosis terminolateral, injerto venoso,
microcirugía maxilofacial, vasovasostomia, cirugía de implante de
órganos, anastomosis del tubo de Falopio y similares se benefician
sustancialmente del aumento óptico y de la representación óptica 3D
on line. Los procesos quirúrgicos modernos demandan condiciones de
visualización mejoradas para mejorar a su vez la calidad de la
cirugía, reducir el tiempo de operación, el trauma para el paciente
y por tanto reducir las complicaciones y el tiempo de estancia en el
hospital. En consecuencia, se han creado sistemas más sofisticados
para mejorar la visualización durante los procesos quirúrgicos. Por
ejemplo, la US 4.395.731 describe un método y aparato para
proporcionar al cirujano una visión aumentada de sus manipulaciones
manuales durante la cirugía. Sin embargo, los sistemas del estado de
la técnica todavía tienen varios inconvenientes.
Una herramienta de visualización avanzada debe
ser un sistema integrado que comprenda un sistema de visualización a
tiempo real con una pantalla ajustable que proporcione una imagen en
color de alta definición y tridimensional que se pueda equilibrar y
optimizar de manera automática y dinámica para que se adapte a las
condiciones de cambio durante la cirugía, herramientas con una gran
capacidad de aumento y controles utilizados con facilidad por el
operador que permitan cambiar algunos de los parámetros operativos
de acuerdo con las condiciones establecidas. El sistema debe
proporcionar la opción de "visualización en transparencia" al
cirujano durante el proceso quirúrgico. El sistema también debe
proporcionar la posibilidad de "visión con sus ojos" a los
ayudantes y expertos durante el proceso quirúrgico mediante la
transmisión de imágenes idénticas a las que se muestran al cirujano
a las personas que estén presentes durante el proceso. Además, el
sistema debe proporcionar la posibilidad de grabación para permitir
la repetición de la grabación del proceso con fines académicos, de
análisis, de archivo y similares. Los sistemas del estado de la
técnica no proporcionan estas posibilidades.
Un aspecto de la invención, se refiere a un
método para mostrar visualmente y en tiempo real imágenes dinámicas,
aumentadas de manera variable, optimizadas y estereoscópicas de un
espacio de aplicación física en un humano para ayudar en la
observación y manipulación de objetos que estén dentro de ese
espacio de aplicación. El método comprende generar imágenes
dinámicas del espacio de aplicación mediante dispositivos detectores
de imágenes, codificar las imágenes que se han generado en señales
eléctricas, transmitir las señales que representan las imágenes
dinámicas a pantallas que estén situadas en alineación óptica con
los ojos del operador, descodificar las señales que representan las
imágenes dinámicas y mostrar visualmente las imágenes que reproducen
los ojos del operador.
Un segundo aspecto de la presente invención, se
refiere a un método para proporcionar a un operador humano imágenes
coloreadas, de alta definición, aumentadas de manera variable,
dinámicas, estereoscópicas optimizadas desde el punto de vista
cualitativo, reproducidas en un ambiente operativo físico para
ayudar a dicho operador humano durante una sesión de observación y
manipulación asociada con objetos que están dentro de dicho
ambiente. El método comprende la visualización de imágenes de la
sesión con videocámaras, transformar las imágenes en señales de
vídeo; enviar las señales de vídeo a través de conductos adecuados a
pantallas correspondientes que están entre el ambiente de operación
y los ojos del operador, descodificar las señales de vídeo que
representan las señales de vídeo en imágenes reproducidas y mostrar
visualmente las imágenes de vídeo que se reproducen en las
pantallas.
Un tercer aspecto de la presente invención se
refiere a un sistema de observación y aumento estereoscópico que
contiene dos cámaras de vídeo unidas mecánicamente e integradas en
un módulo de cámaras que puede llevar encima el operador, dos
pantallas integradas en una unidad de visualización de cabeza que
puede llevar encima el operador, una unidad de control de operador,
una interfaz y una unidad de proceso, un circuito de vídeo adecuado
que conecta las cámaras y las pantallas de visualización, a través
del cual las cámaras de vídeo transmiten señales eléctricas que
representan imágenes dinámicas del ambiente operativo, enlaces de
comunicación en serie y un circuito en serie a través del cual
señales numéricas que representan los valores paramétricos de
control de calidad de imagen de las cámaras de vídeo son enviadas a
la interfaz y a la unidad de proceso y al controlador del operador
para permitir la monitorización y por tanto el equilibrio automático
y la optimización de las imágenes reproducidas.
Cada uno y todos los aspectos anteriores de la
presente invención proporcionan una calidad de observación
mejorada.
Cada uno y todos los aspectos de la presente
invención proporcionan una calidad mejorada del objeto a manipular y
una duración reducida de la sesión de manipulación.
La presente invención se entiende y aprecia mejor
en la siguiente descripción detallada tomada en conjunto con los
dibujos, en los que:
La figura 1, es una representación gráfica de los
principales componentes del sistema, que muestra los emplazamientos
funcionales de los componentes con respecto al cuerpo de
usuario.
La figura 2, es un organigrama simplificado que
muestra los principales componentes del sistema interconectados de
un modo funcional.
La figura 3, es una representación gráfica de los
factores geométricos que definen las relaciones estereoscopia -
espacio correspondiente entre un par de cámaras y un objeto
observado.
La figura 4, es un gráfico del funcionamiento
cualitativo del sistema estereoscópico que depende de la variación
de la Distancia Interpupilar en una cámara dada y la distancia al
objeto.
La figura 5, es una representación esquemática de
la disposición de los componentes del sistema.
La figura 6, es un organigrama funcional que
muestra los componentes de hardware y el software de la Unidad
Interfacial y de Proceso.
La figura 7, es un organigrama de alto nivel de
la principal función operativa del sistema.
La figura 8, es un organigrama de alto nivel que
corresponde a la secuencia de activación de control en la Unidad del
Controlador del Operador.
La figura 9, es un organigrama de alto nivel
asociado con el control de nivel de vídeo que utiliza las lecturas
de salida de los datos de luz de las cámaras.
La figura 10, es un organigrama de alto nivel del
control de enfoque que utiliza las lecturas de salida de las
cámaras.
La figura 11, es un organigrama de alto nivel
asociado con el ajuste de los valores de IPD y DA que utiliza la
lectura anterior del enfoque.
Las figuras 12A, 12B y 12 C, ilustran la
estructura mecánica del Módulo de Cámaras que incluye los motores y
los dispositivos mecánicos asociados que controlan la Distancia
Interpupilar (IPD) y el Ángulo de Convergencia, (DA).
La presente invención elimina las desventajas del
estado de la técnica proporcionando un sistema de visión
estereoscópica versátil novedoso para ayudar en los tratamientos de
cirugía y en otras aplicaciones médicas que requieren el aumento de
detalles en el espacio quirúrgico.
La invención que se propone es un sistema de
observación estereoscópica informatizado y de aumento para fines
quirúrgicos. Este sistema combina vídeo de alta resolución con
calidad de imagen, flexibilidad de zoom de gran aumento y facilidad
de uso que se consigue con la automatización informatizada. Con el
uso de este mecanismo potente y eficaz, el cirujano puede trabajar
de un modo más eficaz y preciso con lo cual puede realizar
operaciones difíciles y complicadas en un periodo de tiempo corto.
El sistema proporciona un funcionamiento óptimo y una máxima
automatización con el fin de mejorar la concentración del cirujano
y reducir el esfuerzo físico que se requiere en un proceso
quirúrgico complicado y prolongado. Este sistema proporciona un
campo de visión variable, un control continuo de amplificación de
entre aproximadamente 1 (ojo sin ayuda) y aproximadamente 10 usando
prácticamente el mismo equipo y en la misma sesión si se necesita.
Todo el sistema tiene poco peso y un consumo de energía bajo, lo que
hace que los equipos de emergencia puedan tener la opción de usarlo
como equipo de campaña. Además, el sistema proporciona un conjunto
de ventajas tales como una capacidad de "visualización en
transparencia", una opción "de ver con sus propios ojos" y
una capacidad de grabación y reproducción.
A continuación, se hace referencia a las figuras
1 y 2 que ilustran los principales componentes del sistema que está
diseñado para ser utilizado como ayuda para la realización de una
sesión que implica la observación minuciosa y la manipulación manual
o semimanual de objetos. Se puede percibir fácilmente que el usuario
del sistema puede ser uno de los diferentes tipos de operativos que
funcionan en diferentes dominios que implican la realización de
manipulaciones manuales o semimanuales de objetos dentro de un
espacio de aplicación físico limitado opcionalmente que necesita una
observación intensa y concentrada de los objetos que se manipulan, y
por tanto demanda un aumento variable de la imagen que se observa
mientras que la sesión de manipulación está en curso. Las
realizaciones que se describen son únicamente ejemplos de la
invención que se propone. Los detalles que se describen no deben
interpretarse como limitativos sino únicamente como medios que
contribuyen a aclarar el entendimiento de la presente invención.
En la realización preferida de la presente
invención, un usuario 10 es un médico, por ejemplo un cirujano, que
utiliza el sistema como una ayuda para realizar un proceso médico
tal como por ejemplo cirugía. El usuario 10 lleva preferiblemente
los principales componentes del sistema en su cuerpo o cerca del
mismo. Un módulo de cámaras (CM) 20 comprende un par de sensores de
poco peso especializados en la recepción de imágenes, en la
codificación de imágenes y en la transmisión de imágenes, por
ejemplo cámaras de vídeo montadas en un aparato de soporte tal como
una cinta para la cabeza, unos auriculares o un casco colocados en
la cabeza del usuario 10. El casco y las dos cámaras de vídeo están
configuradas de manera que se proporcionan transmisiones temporales
simultáneas aunque ligeramente diferentes desde el punto de vista
espacial de señales eléctricas codificadas numéricamente que
representan dos imágenes monoscópicas a los ojos del usuario 10
proporcionando así al usuario 10 la opción de observar el espacio
quirúrgico de modo estereoscópico. Las señales eléctricas que
representan las imágenes del mundo real son recibidas ópticamente
por las cámaras y son transmitidas vía unos circuitos adecuados a la
unidad interfacial y de proceso (IPU) 50 que está ligeramente unida
al cuerpo del usuario 10. La unión se consigue con el uso de medios
adecuados tales como un dispositivo montado en el cinturón y
similares. La unidad interfacial y de proceso (IPU) 50 procesa
automáticamente las señales numéricas y de acuerdo con las
instrucciones manuales del usuario 10 las introduce a través del
Controlador del Operador (OC) 40. El usuario introduce instrucciones
activando manualmente varios controles tales como botones pulsadores
que están situados en la superficie superior del OC 40. El OC 40 se
muestra unido con medios adecuados tales como una correa o una cinta
de Velcro al antebrazo del usuario 10. Las señales procesadas se
transmiten vía cables adecuados a la pantalla de cabeza (HMD) 30. La
pantalla de cabeza 30 está situada en alineación óptica entre los
ojos del usuario 10 y el espacio quirúrgico que se observa. Al igual
que otros componentes principales del sistema que se propone, la HMD
30 también se puede llevar encima y en la realización preferida de
la invención está situada delante de los ojos del usuario 10 de un
modo similar a las lupas. Las señales transmitidas a la HMD 30 se
descodifican, se estructuran en imágenes correspondientes y se
muestran visualmente en un par de pantallas tales como Dispositivos
de Cristal Líquido (LCD) y similares.
Cualquiera versado en la materia, puede apreciar
fácilmente que la estructura, el emplazamiento y la distribución de
los componentes que se han descrito podría ser diferente para otras
realizaciones propuestas de la presente invención. Por ejemplo, en
una realización diferente de la presente invención la unidad de
control del operador se podría utilizar activando los controles
operativos que hay en la misma con la muñeca, el pie, mediante el
tacto o la voz. Los detalles que se describen aquí son solamente la
base para las siguientes reivindicaciones.
El sistema que se describe en la figura 3 emplea
dos dispositivos detectores de imagen tales como por ejemplo dos
cámaras de vídeo 22 y 24 que corresponden a los dos ojos de un
observador. Las cámaras 22 y 24 están separadas entre sí por un
espacio intermedio que se conoce como Distancia Interpupilar (IPD)
25 y están separadas del objeto 32 una distancia 28. Cada cámara
está enfocada hacia el objeto 32 desde un ángulo un poco diferente,
por lo cual las líneas de visión convergen hacia el objeto 32. Las
líneas de visión forman un Ángulo de Convergencia (DA) 34. La imagen
que toma cada cámara se visualiza en el ojo correspondiente del
observador usando la Pantalla de Cabeza HMD 30 de la figura 1. El
cerebro transforma las dos imágenes en un escenario tridimensional
gracias a su capacidad de percepción estereoscópica.
Refiriéndonos ahora a la figura 4, se ilustra el
funcionamiento cualitativo de un sistema estereoscópico según la
variación del valor de IPD y la distancia convergente D. Se han
realizado pruebas para establecer lo que se conoce como "el
sistema 3D ideal" para una situación dada. Cuando se establece
una IPD óptima y una Distancia Convergente (D), los resultados de
la prueba muestran que hay un margen de parámetros que producen un
funcinamiento óptimo. Refiriéndonos a la relación entre la IPD y la
distancia del objeto desde la cámara (D) como la medida importante
principal, es posible distinguir entre hipoestereoscopia 36 (una IPD
demasiado pequeña), esteresocopia óptima 38 e hiperestereoscopia 42
(una IPD demasiado grande), en hipoestereoscopia, se nota la falta
de percepción estereoscópica. La hiperestereoscopia produce
confusión y fatiga después de un periodo de tiempo corto. Para
optimizar la función estereoscópica, la IPD se reajusta
preferiblemente de acuerdo con la distancia que hay al objeto. A
diferencia de otros sistemas de vídeo 3D, el sistema que se propone
puede manipular de manera dinámica la IPD y el Ángulo de
Convergencia para obtener una estereoscopia óptima, con lo cual se
optimiza el efecto de profundidad sin los efectos no deseados
asociados a la pérdida de concentración o la fatiga.
El sistema emplea dos Dispositivos Acoplados de
Carga (CCD) o cámaras Detectoras de Estado Sólido que están
integradas en un Módulo de Cámaras. Se podrían usar las cámaras Sony
Japan Model EVI 370DG o similares. Las cámaras deben proporcionarse
con un DPS integrado (Procesador de Señal Digital) para permitir el
funcionamiento de un modo completamente automático o para ser
controladas de manera externa a través de un puerto de comunicación
en serie tal como el RS232/VISCA usando el protocolo especial de
Sony. Todo el conjunto de parámetros operativos de la cámara se
puede controlar desde un ordenador alejado (o mediante la unidad
interfacial adecuada). El Módulo de Cámaras está diseñado para poder
montarlo en diferentes superficies, por ejemplo un casco, un brazo
móvil o un brazo estático. Además de las cámaras, el Módulo de
Cámaras incluye el mecanismo que se necesita para cambiar la
Distancia Interpupilar (IPD) y el Ángulo de Convergencia (DA) entre
las cámaras utilizando al menos dos motores eléctricos tales como el
Geared Minimotor hecho en Japón.
Refiriéndonos ahora a la figura 5, se muestra una
vista más detallada de los componentes del sistema de la figura 2.
Dos cámaras 22 y 24 están montadas como un módulo de cámaras. Ambas
cámaras están equipadas con un zoom de aproximadamente X12 que
proporciona un campo de visión horizontal de entre aproximadamente
48,8º y aproximadamente 4,3º. Las cámaras se controlan usando
enlaces de comunicación en serie 54 y 56 con lo cual cada cámara se
puede controlar por separado para modificar los parámetros del
sistema y equilibrar los canales de vídeo separados asociados con
cada cámara. La señal de vídeo S-Vídeo (Super VHS)
se transmite como dos componentes Luminancia y Crominancia para
formar una imagen con una mejor calidad. Las cámaras del sistema
tienen preferiblemente una salida de Vídeo-S. Con
miras a conseguir una optimización y un equilibrio de los niveles de
vídeo entre las cámaras se usará el canal de Luminancia (y) para
controlar el nivel de la señal de vídeo.
Las cámaras 22 y 24 están unidas mecánicamente
mediante un brazo mecánico 44 que está conectado a y controlado
mediante el mecanismo de IPD/Ángulo de Convergencia 46. La cámara 22
transmite señales de vídeo a través de un conducto 48 y la cámara 24
transmite señales de vídeo a través de un conducto 52 a la IPU 50.
Las señales de control que corresponden a los diferentes parámetros
operativos de la cámara 22 y la cámara 24 son transmitidas a través
de un conducto 54 y 56 respectivamente a la IPU 50. Las señales de
control que resultan del procesamiento de señal numérica de la IPU
50 son enviadas desde a IPU 50 al mecanismo de control de
IPD/Ángulo de Convergencia a través de un conducto 58 para llevar a
cabo el posicionamiento correcto de las cámaras 22 y 24 entre sí. La
IPU 50 está unida mediante un conducto de control 80 al Controlador
del Operador (OC) 40 y a través de un conducto 82 a la HMD 30. La
HMD 30 comprende un par de pantallas 62 y 64 de LCD. Como pantalla,
se puede usar la que se conoce como Pantalla de Cabeza, por ejemplo
el modelo japonés de Sony LDI-D100BE, o similar. El
modelo LDI-D100BE es una pantalla de alta definición
adecuada para estereoscopia con la característica de
"visualización en transparencia". Las señales de vídeo que se
reciben procedentes de la IPU 50 son descodificadas y visualizadas
en las pantallas 62 y 64. En la realización preferida de la presente
invención, el OC 40 está conectado mediante cables con la IPU 50. En
otras realizaciones de la presente invención, el OC 40 puede
modificarse para usarse con un controlador de comunicación IR
(infrarrojos) (como la televisión de una casa), mediante activación
de voz, Radiotransmisión o mediante cualquier otra forma de
comunicación presente actualmente o que se desarrolle en el futuro
adecuada para este fin.
El Módulo de Cámaras está conectado a una Unidad
Interfacial y de Proceso (IPU). La Unidad Interfacial y de Proceso,
que es el "cerebro" del sistema, controla las cámaras, el
mecanismo que cambia la posición de las cámaras (por ejemplo la IPD
y el Ángulo de Convergencia) y la pantalla. La IPU 50 contiene
varios componentes funcionales. El control de encendido 67 es el
principal control del sistema y el único control manual situado en
la IPU 50. El control de encendido 67 es preferiblemente un
conmutador de tipo protegido para evitar el apagado accidental. Los
otros componentes funcionales de la IPU 50 se describen después en
asociación con los dibujos en anexo.
La Unidad de Control del Operador (OC) 40 está
conectada a la IPU 50 mediante el conducto 80. El usuario 10 utiliza
el OC 40 para transmitir órdenes a la IPU 50 y para recibir de la
IPU 50 los datos de ajuste del sistema y el estado general del
sistema. El usuario 10 se comunica con el sistema a través de un
conjunto de controles que están situados en el OC 40. Cuando el
usuario 10 inicia una sesión de observación/manipulación, se activa
un control de Inicialización 68 para que se produzca un proceso de
arranque-reinicialización con el fin de programar
los parámetros básicos del sistema tales como por ejemplo los
valores iniciales del Campo de Visión (DA). El control de reajuste
70 se usa cuando el operador quiere asegurarse de que el sistema
está bien ajustado o cuando se altera algún parámetro medioambiental
tal como por ejemplo la luz ambiente. La activación de reajuste 70
sustituye automáticamente algunos de los ajustes automáticos que se
necesitan normalmente para optimizar el sistema en tiempo real.
La "visualización en transparencia" es una
característica de avance con respecto a las pantallas conocidas para
funcionar en dos modos diferentes:
- a)
- modo de visualización de imagen, y
- b)
- modo transparente.
En el modo de visualización de imagen, la
pantalla muestra visualmente una imagen que genera y transmite un
dispositivo detector de imagen que está conectado de manera
adecuada. Mientras que en modo transparente, la imagen se elimina de
la pantalla, que se vuelve transparente para permitir que el
observador vea a través de la misma la escena real que está detrás.
Cuando el control de visualización en transparencia 72 está
activado, éste cambia las pantallas 62 y 64 al modo de visualización
en transparencia quedándose las pantallas correspondientes
transparentes, neutralizando por tanto el dispositivo de enfoque y
permitiendo que el observador vea la escena con sus ojos en la línea
de visión natural. Otra presión en el control de visualización en
transparencia 72 hace que las pantallas vuelvan a la vista que
proporciona las imágenes transmitidas desde las cámaras 22 y 24 a
través de los canales de vídeo correspondientes. Cuando las
pantallas 62 y 64 están en el modo de visualización en
transparencia, el resto del sistema, incluidas las cámaras 22 y 24,
continúa funcionando normalmente.
El control de Modos 74 se propone para que
funcione cíclicamente. Con miras a cambiar parámetros específicos
que están disponibles para que el usuario 10 los modifique, el
control de Modos 74 se activa de manera repetida e intermitente para
seleccionar el modo apropiado y los parámetros asociados para ser
cambiados. Un control hacia arriba 78 y un control hacia abajo 76 se
utilizan para seleccionar el valor del parámetro correspondiente.
Por ejemplo, durante el funcionamiento regular del sistema, se
programa el modo por defecto en el Campo de Visión (FOV). En el modo
(FOV), el operador puede controlar la ampliación de la imagen que se
muestra visualmente. Al activar el control hacia arriba 78 y el
control hacia abajo 76, se programan los valores adecuados de FOV,
se consigue el efecto acercamiento con el zoom o alejamiento con el
zoom correspondiente, y se aumenta o disminuye el tamaño de la
imagen de manera efectiva. Cuando el operador quiere modificar un
parámetro diferente, se activa el control de Modos 74 y el modo en
curso cambia a Equilibrado de Blancos Automático (AWB). AWB es un
método para equilibrar los componentes del color de la imagen para
producir colores naturales. Cuando se cambia al modo deseado,
aparece en la pantalla 66 una indicación correspondiente que
especifica la nueva selección. Cuando se selecciona el modo AWB, la
activación del control hacia arriba 78 o el control hacia abajo 76
efectúa una selección adecuada de los valores paramétricos
preseleccionados, tales como por ejemplo Interior, Exterior o Auto.
Otra activación del control de Modos 74 realiza la selección del
modo Estabilizador y el control hacia arriba 78 y el control hacia
abajo 76 fijan el valor del parámetro asociado con el modo
Estabilizador tal como ON u OFF. La pantalla 66 puede mostrar además
el estado del sistema, el enfoque, el zoom y diferentes mensajes de
error.
Se puede apreciar fácilmente que las unidades
adicionales se pueden conectar a las unidades principales que se han
descrito. Por ejemplo, se pueden añadir pantallas adicionales de
cualquier tipo (pantallas de cabeza, monitores o proyectores de
vídeo adicionales) a la configuración básica del sistema para que
otros miembros del equipo observen las imágenes que ve el usuario
10. Las imágenes también se pueden transmitir fuera del quirófano a
través de cables o medios inalámbricos con fines académicos o de
consulta. Además, el sistema puede utilizar un codificador de
comunicación para transmitir las imágenes de vídeo en un formato
comprimido a un sitio alejado para asistentes que están
on-line.
Refiriéndonos ahora a la figura 6 que proporciona
una ilustración detallada de los componentes de la Unidad
Interfacial y de Proceso (IPU) 50, ésta comprende un procesador 88,
un dispositivo de memorización 84, una unidad de temporización y
control 86, un transformador de AC/ DC; 96, una interfaz de unidad
de control 98, una interfaz de mando HMD 100, una servointerfaz 90,
una interfaz de mando de cámara 92 y una interfaz de cámara de vídeo
94. El dispositivo de memorización 84 de la figura 6 contiene las
funciones de software operativas en archivos binarios ejecutables.
Las funciones de software son programas informáticos controlados
mediante valores paramétricos predeterminados programados de manera
adecuada con antelación, que están almacenados en estructuras de
datos adecuadas. Las cámaras 22 y 24 transmiten señales que
representan imágenes de vídeo a la interfaz de videocámara 94. Las
señales son transmitidas a través de la interfaz de mando HMD 100 a
la HMD 30 para ser visualizadas en las pantallas correspondientes.
Las cámaras 22 y 24 también transmiten señales numéricas que
representan datos luminosos al procesador 88 para ser procesadas y
ejecutadas si es necesario. Dependiendo de los datos recibidos de
las cámaras 22 y 24, el procesador 88 envía señales a través de la
interfaz de mando de cámara 92 y las líneas de mando en serie 54 y
56 a las cámaras 22 y 24 para cambiar los valores de los parámetros
con respecto a la calidad de las imágenes, por ejemplo la distancia
de enfoque de las cámaras 22 y 24. El procesador 88 también envía
órdenes a través de la servointerfaz 90 al mecanismo de IPD/Ángulo
de Convergencia 46 para variar de forma adecuada la colocación
espacial de las cámaras 22 y 24 entre sí, estableciendo de ese modo
una IPD y un ángulo de convergencia asociado óptimos para que el
usuario consiga la mejor percepción estereoscópica y una escasa
fatiga ocular.
El controlador del operador (OC) está conectado
al procesador 88. El OC 40 permite al usuario 10 controlar
parámetros específicos del sistema tales como por ejemplo el campo
de visión, el enfoque, Equilibrado de Blancos Automático y
similares. Las instrucciones del usuario se transmiten al procesador
88, y son transformadas en órdenes específicas mediante el
procesador 88 usando funciones de software adecuadas codificadas en
un formato binario ejecutable y almacenadas en el dispositivo de
memorización 84. Las órdenes se transmiten a través de la interfaz
de mando de cámara 92 y la servointerfaz 90 a las cámaras 22 y 24 y
al mecanismo de IPD/Ángulo de Convergencia 46.
Las cámaras 22 y 24 tienen varias funciones
automáticas incorporadas tales como por ejemplo Control de Luz
Automático (ALC) para controlar el nivel de vídeo de una cámara
mediante el diafragma del objetivo y la velocidad de obturación. Las
posibilidades automáticas incorporadas se utilizan para corregir
parámetros operativos importantes tales como la distancia de
enfoque, y por lo tanto permiten que el procesador 88 proporcione
el equilibrio automático de los canales de imagen en cualquier
aspecto. El procesador 88 programa los parámetros correspondientes
de las cámaras 22 y 24 después de analizar las señales de control
numéricas recibidas. Las dos imágenes se corrigen para que tengan un
enfoque, un nivel de vídeo y un equilibrio de colores adecuados. El
procesador 88 también se encarga de las diferentes tareas a nivel
de sistema, tales como por ejemplo tratamiento de la interrupción,
recuperación de errores y similares.
La función del sistema que se propone depende de
diferentes parámetros importantes para el funcionamiento eficaz del
sistema. Todas las cámaras funcionan cerca del objeto, por lo cual
se debe mantener la distancia de enfoque adecuada y la temperatura
del color. Las cámaras deben equilibrarse en estos aspectos para que
ambas cámaras funcionen de manera uniforme en todo momento durante
una sesión dada.
Refiriéndonos a la figura 7, se muestra el
organigrama lógico de la función operativa del sistema. En la fase
104 el operador activa el control de encendido 67 de la figura 5.
Posteriormente, en la fase 106, se inicializa el sistema. El proceso
de inicialización es el arranque del sistema durante el cual se
reinicializan todos los parámetros funcionales a valores
predefinidos que están almacenados en estructuras de datos
específicos tales como por ejemplo tablas y similares del
dispositivo de memorización 84. Una descripción detallada del
proceso de reinicialización se describe después con referencia a
los dibujos en anexo. En la fase 108, se accede al OC 40 de la
figura 5 para leer las instrucciones del operador que se han
introducido manualmente a través de controles específicos tales como
por ejemplo botones pulsadores que se describen en la figura 5. En
la fase 110, el procesador 88 de la figura 6 procesa las órdenes del
OC. La descripción detallada del proceso se describe después con
referencia a los dibujos en anexo. En la fase 112, se lee el nivel
medio de vídeo de ambas cámaras y se equilibran las cámaras teniendo
en cuenta los niveles de vídeo. La descripción detallada del proceso
se describe después con referencia a los dibujos en anexo. En la
fase 114, se lee el ajuste de enfoque de ambas cámaras y se
equilibran las cámaras con respecto a la distancia de enfoque. La
descripción detallada del proceso se describe después con referencia
a los dibujos en anexo. En la fase 116, se ajustan la IPD y la DA
dependiendo de los valores de enfoque obtenidos previamente. La
descripción detallada del proceso se describe después con referencia
a los dibujos en anexo.
Refiriéndonos ahora a la figura 8, se ilustra la
secuencia de la activación del control del controlador del operador
40. Los procedimientos y modos de funcionamiento básicos del
sistema, que son controlados por el operador usando el OC 40, son
los siguientes:
- a)
- modo de inicialización
- b)
- modo de reajuste
- c)
- funcionamiento normal (modo automático)
- d)
- modificación manual de los parámetros del sistema
Mediante el OC 40, el operador tiene la opción de
activar todos los procesos y funcionamientos descritos. La
inicialización 106 del proceso de la figura 7 funciona en dos
situaciones: cuando se pone en marcha después de la activación del
conmutador de encendido 67 de la figura 5 o cuando se emplea el
control de incialización 68 de la figura 5. Cuando se utiliza el
control de inicialización 68 de la figura 5, el operador activa una
serie de funciones predefinidas que están almacenadas en los
dispositivos de memorización 84 de la figura 6, las cuales ejecuta
automáticamente el procesador 88 de la figura 6. En la fase 120, la
secuencia de inicialización empieza arrancando el sistema y después
se reinicializan todos los parámetros funcionales a unos valores
predeterminados definidos de manera específica. Las fases de
funcionamiento que se llevan a cabo en el proceso de inicialización
son las siguientes:
- a)
- En la fase 122, se activan las cámaras 22 y 24.
- b)
- En la fase 124, se ajusta el Equilibrado de Blancos Automático de las cámaras 22 y 24 al valor del Interior.
- c)
- En la fase 126 se ajusta el campo de visión a unos 35 grados.
- d)
- En la fase 128 se ajusta la velocidad de obturación a aproximadamente 1/60 segundos.
- e)
- En la fase 130 se desconecta el Control de Amplificación automática (AGC). El AGC es un sistema de circuitos electrónicos que compensa cualquier cambio de nivel de entrada de audio o vídeo incrementando o haciendo que disminuyan las señales de entrada para que se ajusten a un nivel prefijado. Si se usa el AGC, el cambio de niveles de entrada se puede producir con un único ajuste constante.
- f)
- En la fase 132 el diafragma se fija en Auto para introducir el modo Prioridad de Obturación.
- g)
- En la fase 134 el enfoque se ajusta en el valor de aproximadamente 1,5 metros.
- h)
- En la fase 136 la Distancia Interpupilar (IDP) se ajusta en el valor de aproximadamente 75 mm y el Ángulo de Convergencia entre aproximadamente 2 y 4 grados (preferiblemente 2,9 grados).
- i)
- En la fase 138 se conectan los Estabilizadores para evitar cambios automáticos de parámetros de corriente.
La función de Inicialización hace que el control
vuelva a la función principal y posteriormente introduce la
operación de Funcionamiento Normal (Modo Automático) para que
empiece el proceso de ajuste continuo de los parámetros del sistema
operativo.
El proceso de Reajuste 150 se produce cuando
cambian algunos factores medioambientales tales como por ejemplo la
intensidad de la luz ambiente, cuando la posición de las cámaras con
respecto a la IPD y el Ángulo de Convergencia cambia rápidamente o
se desequilibran ambos canales de vídeo asociados a las cámaras 22 y
24. Las fases que se han ejecutado durante el proceso de Reajuste
150 son similares a las del proceso de inicialización 120 aunque sin
inicializar todos los parámetros del sistema en unos valores por
defecto predefinidos. Durante el proceso de Reajuste 150 el control
de visualización en transparencia 72 de la figura 5 se activa
preferiblemente para evitar que los cambios rápidos de imagen queden
en el campo visual del usuario 10. Después de la activación del
control de Reajuste 70 de la figura 5, se carga la función
correspondiente del dispositivo de almacenamiento 84 y la ejecuta el
procesador 88 de la figura 5. Las fases que realiza la función son
las siguientes:
- a)
- En la fase 152, la velocidad de obturación se ajusta en aproximadamente 1/60 segundos.
- b)
- En la fase 154 se desconecta el Control de Amplificación.
- c)
- En la fase 156 el diafragma se ajusta en el modo Automático.
- d)
- En la fase 157 se equilibran las cámaras con respecto al nivel de vídeo.
- e)
- En la fase 158 el enfoque se ajusta en automático.
- f)
- En la fase 159 se equilibran las cámaras con respecto a la distancia de enfoque.
La función de Reajuste hace que el control vuelva
a la función lógica principal y como resultado se introduce la
operación de Funcionamiento Normal (Modo Automático) para que
empiece el ajuste continuo, automático y en línea de los parámetros
del sistema operativo.
El operador dispone de la opción de modificar
manualmente varios parámetros del sistema usando el control de Modos
74 de la figura 5. Al activar de manera repetida e intermitente el
control de Modos 74 en la fase 140, el operador selecciona el modo
de funcionamiento deseado en el que se pueden modificar parámetros
específicos. Todas las modificaciones son operativas para ambas
cámaras. Dependiendo de la selección hecha, aparecerá un indicador
visual específico del modo seleccionado en la pantalla 66 de la
figura 5. El modo por defecto es el modo FOV o la modificación del
campo de visión. El FOV se ajusta en la fase 142 mediante la
activación del control hacia Arriba 76 o el control hacia Abajo 78,
que en el modo FOV corresponde respectivamente a las operaciones
acercamiento con el zoom o alejamiento con el zoom. Como resultado,
el cambio del valor del FOV es efectivo para hacer que aumente o
disminuya el tamaño de las imágenes recibidas. En consecuencia, la
ampliación de la imagen se consigue de este modo.
En la fase 144 se selecciona el modo alternativo
AWB. En el modo AWB se ajusta el Equilibrado de Blancos de ambas
cámaras. El usuario tiene la opción de cambiar entre tres valores
predefinidos de Ajuste de Equilibrado de Blancos. Los valores son
los siguientes:
- a)
- En Interiores: para corregir los colores de las imágenes según la luz artificial.
- b)
- Al aire libre: los colores de las imágenes se corrigen según la luz natural de aproximadamente 6.500 grados Kelvin.
- c)
- Auto: se realiza el AWB automático.
En la fase 146, el operador equilibra el enfoque
entre las cámaras. Se comprueban y ajustan las distancias de enfoque
de ambas cámaras si es necesario. Cuando se modifica la distancia de
enfoque de las cámaras, se calcula la IPD y se modifica. Como la
visión estereoscópica es óptima cuando el valor medio típico de la
IDP es 1/20 de la distancia entre un observador que puede mirar
estereoscópicamente y el objeto más cercano que se puede ver
claramente situado en el espacio que se observa, se ajusta el valor
de la IPD en aproximadamente 1/20 de la distancia de enfoque con un
valor mínimo de aproximadamente entre 50 y 60 mm (preferiblemente 53
mm). Después de la modificación de la IPD se obtiene el Ángulo de
Convergencia DA accediendo a una estructura de datos adecuada tal
como por ejemplo una tabla de consulta y extrayendo el valor
adecuado.
Refiriéndonos ahora a la figura 9, se muestra el
proceso de equilibrado automático del nivel de vídeo 112. En la fase
166, el nivel de vídeo medio luminoso se lee en ambas cámaras y en
la fase 168 se comparan entre sí los valores que se obtienen en las
cámaras. En la fase 170 se determina si la diferencia del nivel de
vídeo entre las dos cámaras es superior a un valor predefinido tal
como por ejemplo un 10%. Si la diferencia es superior al valor
predefinido, en la fase 172 se comprueba cada cámara para determinar
qué cámara tiene un ajuste diferente a un valor de nivel de vídeo
fijado predefinido tal como por ejemplo aproximadamente 1,0 voltios
de pico a pico. Dependiendo del resultado, en la fase 176 o la fase
174 se ajusta el diafragma de la cámara correspondiente al valor
fijado predefinido. Después, el control vuelve a la fase 168 para
que se repita el proceso de equilibrado. Cuando en la fase 168 se
encuentra que la diferencia entre los niveles de vídeo de las
cámaras es inferior a un valor predefinido, el control vuelve a la
fase 166 para obtener de nuevo el nivel de vídeo luminoso de las
cámaras.
Refiriéndonos ahora a la figura 10, se muestra el
organigrama de control asociado al equilibrado automático del
ajuste de enfoque 114 de las cámaras entre sí. En la fase 180, se
obtienen los ajustes de la distancia de enfoque de ambas cámaras y
se comparan por si hay diferencia en la fase 182. En la fase 184, se
determina si existe diferencia entre los ajustes. Si no existe
diferencia, el control vuelve a la fase 180 para que se repita el
proceso de equilibrado. Si se encuentra que los ajustes son
diferentes, en la fase 186 se determina qué cámara tiene un ajuste
de enfoque superior al del valor de la otra cámara. Dependiendo del
resultado, en la fase 190 o 188, se ajusta el enfoque de la cámara
que tiene el valor de enfoque superior al valor de la otra
cámara.
Refiriéndonos ahora a la figura 11, se muestra el
organigrama lógico asociado al ajuste automático de la IDP y el DA
116. En la fase 194, se lee el ajuste de enfoque de ambas cámaras y
en la fase 196 se calcula el IDP. En la fase 198 se fija la IDP y en
la fase 202 el valor de la IPD permite extracción del valor del DA
de la tabla de consultas que se encuentra en el dispositivo de
memorización en la fase 200. En la fase 204 se ajusta el valor del
DA. Los resultados se introducen en la servointerfaz 90 de la
figura 6, se transforman en señales adecuadas y son enviadas al
mecanismo de control de IPD/DA 46 de la figura 6. El control de
función vuelve después a la fase 194 para obtener las lecturas de
los ajustes de enfoque de ambas cámaras y repetir el proceso.
Refiriéndonos ahora a las figuras 12A, 12B y 12C,
se muestra la estructura mecánica del módulo de cámaras 20 de la
figura 6 incluidos los motores 216 y 210 con sus partes mecánicas
asociadas. Las cámaras 22 y 24 cuelgan de una base 218 donde los
puntos de anclaje del mecanismo en la base 218 son pernos que
sujetan los motores 210 y 216. El motor frontal 216 está provisto de
un eje de dos lados con roscas que se dirigen en direcciones
opuestas. Los pernos que sujetan las cámaras 22 y 24 tienen la misma
rosca. Por lo tanto, cuando el motor 216 gira en una u otra
dirección, los lados frontales 212 y 214 de las cámaras 22 se
acercan o alejan respectivamente entre sí. Para hacer que sea
posible el movimiento descrito, la conexión entre los pernos y las
carcasas de las cámaras 22 y 24 puede girar libremente aunque no
cambia de posición. El motor posterior 210 también está provisto de
un eje roscado que mueve ambos brazos 206 y 208. En consecuencia, la
distancia entre las partes posteriores de las cámaras 22 y 24
aumenta o disminuye dependiendo de la dirección del movimiento del
motor 210. El mecanismo descrito proporciona el control de tanto la
IPD como el Ángulo de convergencia.
Cualquiera versado en la materia puede apreciar
fácilmente que la descripción anterior ilustra únicamente el
concepto básico de la presente invención y se refiere sólo a un
dispositivo posible entre los muchos diseños que se pueden concebir
y que pueden ser eficaces para la fabricación del sistema que se
propone.
En otra realización de la presente invención, se
añade equipamiento auxiliar tal como por ejemplo grabadoras,
reproductoras, equipos de audio y de comunicación que correspondan
a una configuración de quirófano típica.
En otra realización preferida de la presente
invención, una versión más compacta del sistema está provista de una
fuente de luz adicional que funciona a pilas o con un conector de
batería de coche. En esta realización, el sistema puede ser usado
por militares o servicios de emergencia que trabajan al aire
libre.
Aún en otra realización preferida de la presente
invención, el sistema que se propone incluye cámaras Reforzadas
monocromáticas (ICCD) para uso militar en condiciones de luz
escasa.
Cualquiera versado en la materia puede apreciar
que la presente invención no se limita a lo que se ha mostrado y
descrito en particular. Más bien, el campo de la presente
invención se define únicamente en las reivindicaciones que vienen a
continuación.
Claims (25)
1. Método para mostrar visualmente en tiempo real
a un operador humano imágenes dinámicas, que se pueden ampliar de
manera variable, optimizadas y emuladas estereoscópicamente de un
espacio de aplicación físico, con el fin de ayudar en el proceso de
observación minuciosa y la manipulación de objetos dentro de dicho
espacio de aplicación, comprendiendo el método:
la generación de imágenes dinámicas de dicho
espacio de aplicación mediante dispositivos generadores de
imágenes;
la codificación de imágenes dinámicas en señales
eléctricas codificadas;
la transmisión de dichas señales eléctricas que
representan las imágenes dinámicas a pantallas que están situadas en
alineación óptica con los ojos de dicho operador humano;
la descodificación de las señales codificadas que
representan las imágenes dinámicas en imágenes reproducidas; y
la visualización de dichas imágenes reproducidas
por los ojos del operador humano,
caracterizado porque se monitorizan los
valores paramétricos de control de calidad de imagen de los
dispositivos generadores de imágenes; y
se ajustan automáticamente las posiciones físicas
relacionadas con la calidad estereoscópica de los dispositivos
generadores de imágenes según dichos valores paramétricos de control
de calidad de imagen para obtener una calidad estereoscópica
optimizada;
e incluyendo dichas posiciones físicas
relacionadas con la calidad estereoscópica de los dispositivos
generadores de imágenes la distancia interpupilar (IPD) entre
dichos dispositivos generadores de imágenes y el ángulo de
convergencia (DA) entre las líneas de visión de dichos dispositivos
generadores de imágenes.
2. Método según la reivindicación 1, en donde la
fase de ajustar automáticamente las posiciones físicas relacionadas
con la calidad estereoscópica de los dispositivos generadores de
imágenes comprende las fases de:
calcular según dichos valores paramétricos de
control de calidad de imagen monitorizada, los valores paramétricos
de control de calidad estereoscópica óptimos, incluyendo dichos
valores paramétricos de control de calidad estereoscópica óptimos un
valor IPD óptimo y por tanto también un valor DA óptimo;
transmitir dichos valores paramétricos de control
de calidad estereoscópica óptimos a dispositivos de control
espacial;
transformar dichos valores paramétricos de
control de calidad estereoscópica óptimos calculados en señales de
posicionamiento físico adecuadas;
colocar físicamente los dispositivo generadores
de imágenes en emplazamientos espaciales de acuerdo con dichos
valores óptimos IPD y DA; y
repetir las mencionadas fases anteriores.
3. Método según la reivindicación 1, que
comprende además la fase de equilibrar automáticamente los ajustes
paramétricos de control de calidad de imagen de los dispositivos
generadores de imágenes.
4. Método según la reivindicación 3, en donde la
fase de equilibrar automáticamente los ajustes paramétricos de
control de calidad de imagen comprende las fases de:
monitorizar los valores paramétricos de control
de calidad de imagen de un primer dispositivo generador de
imágenes;
monitorizar los valores paramétricos de control
de calidad de imagen de un segundo dispositivo generador de
imágenes;
comparar dichos valores paramétricos de control
de calidad de imagen de dicho primer dispositivo generador de
imágenes y dicho segundo dispositivo generador de imágenes;
ecualizar los valores paramétricos de control de
calidad de imagen del primer dispositivo generador de imágenes y del
segundo dispositivo generador de imágenes;
repetir las mencionadas fases anteriores.
5. Método según la reivindicación 1, que
comprende además la fase de controlar manualmente los parámetros de
control de calidad de imagen de los dispositivos generadores de
imágenes.
6. Método según la reivindicación 5, en donde la
fase de controlar manualmente los parámetros de control de calidad
de imagen comprende las fases de:
inicializar los valores paramétricos de control
de calidad de imagen de los dispositivos generadores de
imágenes;
reajustar de manera selectiva dichos valores
paramétricos de control de calidad de imagen de los dispositivos
generadores de imágenes;
reinicializar de manera selectiva al menos uno de
los valores paramétricos de control de calidad de imagen de los
dispositivos generadores de imágenes;
estabilizar los valores paramétricos de control
de calidad de imagen de los dispositivos generadores de
imágenes;
desconectar de manera selectiva los dispositivos
generadores de imágenes de dichas pantallas para permitir la
observación de dicho espacio de aplicación a través de las pantallas
que están en la línea de visión.
7. Método según la reivindicación 6, en donde la
fase de reinicializar de manera selectiva al menos uno de los
valores paramétricos de control de calidad de imagen comprende las
fases de:
controlar el campo de visión y la ampliación de
las imágenes visualizadas;
regular el equilibrio de colores de las imágenes
visualizadas;
ajustar la nitidez de las imágenes
visualizadas;
ajustar la luminosidad de las imágenes
visualizadas.
8. Método para proporcionar a un operador humano
imágenes de vídeo coloreadas, de alta definición, ampliadas de
manera variable, dinámicas, estereoscópicas, y optimizadas desde el
punto de vista cualitativo, de un ambiente operativo físico para
ayudar a dicho operador humano durante una sesión de observación y
manipulación asociada con objetos que están dentro de dicho
ambiente, comprendiendo el método que se reivindica en cualquiera de
las reivindicaciones anteriores, y en donde:
los dispositivos generadores de imágenes
comprenden videocámaras que producen imágenes de vídeo dinámicas de
la sesión de observación y manipulación;
las señales eléctricas codificadas comprenden
señales de vídeo;
los dispositivos generadores de imágenes
comprenden pantallas de visualización situadas entre el ambiente
operativo y los ojos del operador humano;
la fase de monitorizar los valores paramétricos
de control de calidad de imagen de los dispositivos generadores de
imágenes comprende la monitorización de los cambios que se han
producido accidentalmente, manualmente o automáticamente en dichos
parámetros de control de calidad de imagen; y
la fase de ajuste automático de las posiciones
físicas relacionadas con la calidad estereoscópica comprende la
optimización automática de los emplazamientos físicos de las cámaras
de vídeo entre si.
9. Método según la reivindicación 8, que
comprende además la fase de:
equilibrar dichos valores paramétricos de control
de calidad de imagen entre las cámaras de vídeo para conseguir
imágenes uniformes en dichas pantallas de visualización.
10. Método según la reivindicación 8, que
comprende además la fase de ajuste manual de los valores
paramétricos operativos de control de calidad de imagen de las
cámaras de vídeo por el operador humano.
11. Método según la reivindicación 10, en donde
la fase de ajuste manual comprende las fases de:
inicialización de los ajustes operativos de las
cámaras de vídeo a unos valores preseleccionados;
reajuste selectivo de dichos ajustes operativos
de las cámaras de vídeo a unos valores preseleccionados;
reajuste selectivo de al menos un ajuste
operativo de las cámaras de vídeo a valores determinados;
desactivación del ajuste automático de los
ajustes operativos de las cámaras de vídeo;
desactivación de la visualización de las imágenes
de vídeo de las pantallas de visualización para proporcionar una
visión clara del operador humano en la línea de visión.
12. Método según la reivindicación 11, en donde
la fase de inicialización de los ajustes operativos comprende las
fases de:
activación de las videocámaras;
ajuste del control del equilibrio de colores a un
valor predefinido;
ajuste del aumento a un valor predefinido;
ajuste de la velocidad de obturación a un valor
predefinido;
desconexión del control automático de
amplificación;
activación del control automático del
diafragma;
ajuste de la distancia de enfoque a un valor
predefinido;
cálculo del valor de la distancia interpupilar
según la distancia de enfoque;
obtención del valor del ángulo de convergencia
según el valor de la distancia interpupilar;
realización de movimientos de las cámaras de
vídeo correspondientes a la distancia interpupilar y al ángulo de
convergencia;
estabilización de los controles de las
videocámaras.
13. Método según la reivindicación 13, en donde
la fase de reajuste selectivo comprende las fases de:
ajuste de la velocidad de obturación a un valor
predefinido;
desconexión del control automático de
amplificación;
activación del control automático del
diafragma;
activación del control automático de enfoque;
equilibrado de las videocámaras en función del
nivel de luminancia;
equilibrado de las videocámaras en función de la
distancia de enfoque.
14. Método según la reivindicación 8, en donde la
fase de optimización automática de los emplazamientos físicos de las
cámaras de vídeo entre si comprende las fases de:
monitorización de los ajustes de la distancia de
enfoque de las cámaras de vídeo;
cálculo del valor óptimo de la distancia
interpupilar y del ángulo de convergencia correspondiente;
transformación de los valores resultantes en
señales de control eléctricas adecuadas mediante una interfaz de
servomotor operativa;
activación de dispositivos de servomotor
adecuados operativos en la posición de las cámaras de vídeo entre
si;
repetición de dichas fases anteriores.
15. Método según la reivindicación 14, en donde
el resultado de dicho cálculo de la distancia interpupilar se
obtiene dividiendo la distancia de enfoque entre el valor
predefinido.
16. Método según la reivindicación 14, en donde
el resultado de calcular el ángulo de convergencia se obtiene
extrayendo el valor deseado de una tabla predefinida de acuerdo con
la distancia interpupilar calculada.
17. Sistema de observación y de ampliación
videoestereoscópica que comprende:
dos cámaras de vídeo (22, 24) unidas
mecánicamente, integradas en un módulo de cámaras (20) que puede
llevar encima un operador humano (10);
dos pantallas de visualización (62, 64)
integradas en una unidad de visualización (30) de cabeza, que
puede llevar encima el operador humano;
una unidad de control de operador (40) que puede
llevar encima el operador humano;
una interfaz y una unidad de proceso (50); y
un circuito de vídeo adecuado que conecta las dos
cámaras mencionadas (22, 24) y las dos pantallas de visualización
mencionadas (62, 64), a través del cual las cámaras de vídeo
transmiten señales eléctricas adecuadas que representan imágenes
dinámicas del ambiente operativo a visualizar en las pantallas de
visualización;
caracterizado por unos enlaces de
comunicación en serie y un circuito en serie a través de los cuales
las señales numéricas que representan los valores paramétricos de
control de calidad de imagen de las cámaras de vídeo son enviadas a
la interfaz y a la unidad de proceso (50), y al controlador del
operador (40) para permitir la monitorización y por tanto el
equilibrado automático y la optimización de las imágenes
reproducidas;
y en donde el módulo de cámaras comprende:
un primer servomotor (210) acoplado en las
cámaras de vídeo para llevar a cabo el posicionamiento de las
cámaras con respecto a la distancia entre las dos cámaras;
y un segundo servomotor (216) acoplado en las dos
cámaras de vídeo para llevar a cabo el posicionamiento de las
cámaras con respecto al ángulo de convergencia formado por las
líneas de visión correspondientes a los objetos que están en el
espacio de operación;
formando así un mecanismo de distancia
Interpupilar/ángulo de covergencia controlable.
18. Sistema según la reivindicación 17, en donde
la unidad del controlador del operador comprende:
una pantalla de visualización para indicar el
estado del sistema, los valores paramétricos de control de calidad
de imagen y el modo de operación en curso;
un control de inicialización para proporcionar al
operador humano la opción de ajustar el parámetro de control de
calidad de imagen a unos valores predefinidos;
un control de reajuste para proporcionar al
operador la opción de reajustar los valores paramétricos de control
de calidad de imagen;
un control de Modos para seleccionar manualmente
los parámetros de control de calidad de imagen;
un control hacia arriba y un control hacia abajo
para ajustar manualmente los valores paramétricos correspondientes
al modo en curso; y
un control de visualización en transparencia
para desconectar las señales de vídeo transmitidas por las cámaras
de vídeo a la pantalla de visualización para permitir al operador
ver el espacio de operación por la línea de visión natural.
19. Sistema según la reivindicación 18, en donde
los controles son botones pulsadores.
20. Sistema según la reivindicación 17, en donde
la interfaz y la unidad de proceso comprenden:
un dispositivo de control principal para encender
y apagar el sistema;
una interfaz de videocámaras para manipular las
señales de vídeo recibidas de las cámaras de vídeo;
una interfaz de control de cámaras para manipular
las señales numéricas que corresponden a los valores paramétricos de
control de calidad de imagen recibidas de las cámaras de vídeo y
transmitir señales numéricas procesadas desde el procesador a las
cámaras correspondientes;
una interfaz de visualización montada en la
cabeza para transmitir señales eléctricas correspondientes a las
imágenes de vídeo a las pantallas de visualización;
una servointerfaz para traducir las señales de
control relativas al posicionamiento de las cámaras de vídeo a
servoórdenes adecuadas y enviar dichas servoórdenes al mecanismo de
ajuste de emplazamiento;
un dispositivo de memorización para contener
funciones de control ejecutables, tablas de control y valores
paramétricos de control de calidad de imagen predefinidos;
un procesador para procesar señales numéricas en
función de los valores paramétricos de control de calidad de
imagen;
una interfaz de unidad de control para recibir
órdenes del operador;
un dispositivo de alimentación
eléctrica/converti-
dor DC;
dor DC;
una unidad de temporización y de control.
21. Sistema según la reivindicación 20, en donde
el dispositivo de control principal es un conmutador protegido.
22. Sistema según la reivindicación 17, en donde
las pantallas de visualización son Dispositivos de Cristal
Líquido.
23. Sistema según la reivindicación 17, en donde
las cámaras de vídeo tienen una salida S-VHS.
24. Sistema según la reivindicación 17, en donde
las pantallas de visualización tienen una capacidad de
visualización en transparencia integrada.
25. Sistema según la reivindicación 17, que
comprende además capacidades de grabación y de reproducción que
corresponden a las imágenes dinámicas generadas.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US14344399P | 1999-07-13 | 1999-07-13 | |
| US143443P | 1999-07-13 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2218177T3 true ES2218177T3 (es) | 2004-11-16 |
Family
ID=22504108
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES00942345T Expired - Lifetime ES2218177T3 (es) | 1999-07-13 | 2000-07-06 | Sistema de observacion vedeoestereoscopica y de ampliacion de imagen. |
Country Status (9)
| Country | Link |
|---|---|
| EP (1) | EP1197094B1 (es) |
| JP (1) | JP2003504976A (es) |
| CN (1) | CN1373969A (es) |
| AT (1) | ATE259571T1 (es) |
| AU (1) | AU5703400A (es) |
| DE (1) | DE60008247T2 (es) |
| ES (1) | ES2218177T3 (es) |
| IL (1) | IL147530A0 (es) |
| WO (1) | WO2001005161A1 (es) |
Families Citing this family (34)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP1340470B1 (de) * | 2002-03-01 | 2004-09-15 | BrainLAB AG | Operationslampe mit Kamerasystem zur 3D-Referenzierung |
| US7567833B2 (en) | 2004-03-08 | 2009-07-28 | Stryker Leibinger Gmbh & Co. Kg | Enhanced illumination device and method |
| JP4767550B2 (ja) * | 2005-02-10 | 2011-09-07 | オリンパス株式会社 | 医療用撮影装置 |
| BRPI0506340A (pt) * | 2005-12-12 | 2007-10-02 | Univ Fed Sao Paulo Unifesp | sistema de visualização de realidade aumentada com computação pervasiva |
| US11228753B1 (en) | 2006-12-28 | 2022-01-18 | Robert Edwin Douglas | Method and apparatus for performing stereoscopic zooming on a head display unit |
| US11315307B1 (en) | 2006-12-28 | 2022-04-26 | Tipping Point Medical Images, Llc | Method and apparatus for performing rotating viewpoints using a head display unit |
| US11275242B1 (en) | 2006-12-28 | 2022-03-15 | Tipping Point Medical Images, Llc | Method and apparatus for performing stereoscopic rotation of a volume on a head display unit |
| US10795457B2 (en) | 2006-12-28 | 2020-10-06 | D3D Technologies, Inc. | Interactive 3D cursor |
| US20090214436A1 (en) | 2008-02-18 | 2009-08-27 | Washington University | Dichromic fluorescent compounds |
| KR101190265B1 (ko) | 2009-06-30 | 2012-10-12 | 고려대학교 산학협력단 | 헤드 마운트 수술용 확대 장치 |
| EP2372999A1 (en) * | 2010-03-23 | 2011-10-05 | Eliyahu Mashiah | Wearable system for filming, recording and communicating during sport activity |
| JP5704833B2 (ja) * | 2010-05-10 | 2015-04-22 | オリンパス株式会社 | 操作入力装置およびマニピュレータシステム |
| CN102137269B (zh) * | 2011-04-21 | 2013-02-13 | 江苏惠通集团有限责任公司 | 快门式3d眼镜的同步系统及方法 |
| EP3553075B1 (en) | 2012-01-23 | 2025-01-08 | Washington University | Goggle imaging systems and methods |
| FR2997810B1 (fr) * | 2012-11-07 | 2016-01-29 | Stereolabs | Alignement automatique des cameras dans un systeme 3d |
| CN103986897B (zh) * | 2013-05-13 | 2017-12-19 | 段然 | 医用影像系统和获取医用影像的方法 |
| US10424115B2 (en) | 2014-04-24 | 2019-09-24 | Christof Ellerbrock | Head-worn platform for integrating virtuality with reality |
| CA2949241A1 (en) * | 2014-05-20 | 2015-11-26 | University Of Washington Through Its Center For Commercialization | Systems and methods for mediated-reality surgical visualization |
| US10806804B2 (en) | 2015-05-06 | 2020-10-20 | Washington University | Compounds having RD targeting motifs and methods of use thereof |
| US10222619B2 (en) | 2015-07-12 | 2019-03-05 | Steven Sounyoung Yu | Head-worn image display apparatus for stereoscopic microsurgery |
| EP3337385A4 (en) | 2015-08-21 | 2019-04-03 | Magic Leap, Inc. | EYELIDE FORMALIZATION USING EYE POST MEASUREMENT |
| EP3761232B1 (en) | 2015-10-16 | 2025-12-03 | Magic Leap, Inc. | Eye pose identification using eye features |
| TWI791236B (zh) * | 2015-12-30 | 2023-02-01 | 美商艾倫神火公司 | 光學窄播 |
| US10973391B1 (en) | 2017-05-22 | 2021-04-13 | James X. Liu | Mixed reality viewing of a surgical procedure |
| TWI650100B (zh) * | 2017-07-31 | 2019-02-11 | 銘異科技股份有限公司 | 擴增呼吸道檢查系統 |
| CN109992100B (zh) * | 2017-12-30 | 2022-11-29 | 深圳多哚新技术有限责任公司 | 一种头戴显示系统及其显示方法 |
| JP7139548B2 (ja) * | 2018-04-10 | 2022-09-21 | 株式会社シンクアウト | ヘッドマウントディスプレイ |
| US10623660B1 (en) | 2018-09-27 | 2020-04-14 | Eloupes, Inc. | Camera array for a mediated-reality system |
| FR3091328A1 (fr) * | 2018-12-31 | 2020-07-03 | Zedel | Dispositif d’équilibrage améliorant le maintien sur la tête d’une lampe frontale |
| EP4072598A4 (en) | 2019-12-13 | 2024-02-21 | Washington University | Near infrared fluorescent dyes, formulations and related methods |
| US11166006B2 (en) | 2020-01-22 | 2021-11-02 | Photonic Medical Inc. | Open view, multi-modal, calibrated digital loupe with depth sensing |
| CN113238700B (zh) * | 2021-06-03 | 2024-04-05 | 艾视雅健康科技(苏州)有限公司 | 一种头戴式电子辅助视觉设备及其图像自动放大方法 |
| CN115147269A (zh) * | 2021-06-28 | 2022-10-04 | 平湖莱顿光学仪器制造有限公司 | 一种二维显微拼接视频处理方法及装置 |
| US12261988B2 (en) | 2021-11-08 | 2025-03-25 | Proprio, Inc. | Methods for generating stereoscopic views in multicamera systems, and associated devices and systems |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6011581A (en) * | 1992-11-16 | 2000-01-04 | Reveo, Inc. | Intelligent method and system for producing and displaying stereoscopically-multiplexed images of three-dimensional objects for use in realistic stereoscopic viewing thereof in interactive virtual reality display environments |
| US5748199A (en) * | 1995-12-20 | 1998-05-05 | Synthonics Incorporated | Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture |
| DE69733233T2 (de) * | 1996-09-11 | 2006-01-19 | Canon K.K. | Bildverarbeitung zur dreidimensionalen Wiedergabe von Bilddaten auf der Anzeige eines Bildaufnahmegeräts |
-
2000
- 2000-07-06 ES ES00942345T patent/ES2218177T3/es not_active Expired - Lifetime
- 2000-07-06 JP JP2001510247A patent/JP2003504976A/ja active Pending
- 2000-07-06 AU AU57034/00A patent/AU5703400A/en not_active Abandoned
- 2000-07-06 DE DE60008247T patent/DE60008247T2/de not_active Expired - Fee Related
- 2000-07-06 WO PCT/IL2000/000398 patent/WO2001005161A1/en not_active Ceased
- 2000-07-06 EP EP00942345A patent/EP1197094B1/en not_active Expired - Lifetime
- 2000-07-06 IL IL14753000A patent/IL147530A0/xx unknown
- 2000-07-06 AT AT00942345T patent/ATE259571T1/de not_active IP Right Cessation
- 2000-07-06 CN CN00812758A patent/CN1373969A/zh active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| ATE259571T1 (de) | 2004-02-15 |
| DE60008247T2 (de) | 2004-12-02 |
| EP1197094A1 (en) | 2002-04-17 |
| IL147530A0 (en) | 2002-08-14 |
| EP1197094B1 (en) | 2004-02-11 |
| DE60008247D1 (de) | 2004-03-18 |
| JP2003504976A (ja) | 2003-02-04 |
| AU5703400A (en) | 2001-01-30 |
| CN1373969A (zh) | 2002-10-09 |
| WO2001005161A1 (en) | 2001-01-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2218177T3 (es) | Sistema de observacion vedeoestereoscopica y de ampliacion de imagen. | |
| US11856178B2 (en) | Stereoscopic video imaging | |
| US6414708B1 (en) | Video system for three dimensional imaging and photogrammetry | |
| ES2899353T3 (es) | Sistema digital para captura y visualización de video quirúrgico | |
| JP6396658B2 (ja) | 立体視ビデオ画像を観察および追跡するためのシステムおよび方法 | |
| US12462924B2 (en) | AXR visualization system | |
| US5751341A (en) | Stereoscopic endoscope system | |
| US20020163499A1 (en) | Method and apparatus for augmented reality visualization | |
| JP2001117049A (ja) | 立体観察装置および電子画像表示装置 | |
| JP2022048245A (ja) | 撮像システムおよび観察方法 | |
| WO2021226134A1 (en) | Surgery visualization theatre | |
| JP7453403B2 (ja) | ヘッドマウント可視化システム | |
| JP2004320722A (ja) | 立体観察システム | |
| JPH0662438A (ja) | 立体像観察システム | |
| EP0703747A1 (en) | Medical video endoscope system | |
| JP2022523670A (ja) | 電子ルーペ | |
| Southern et al. | Video microsurgery: early experience with an alternative operating magnification system | |
| JP3766598B2 (ja) | 観察システム | |
| US20230179755A1 (en) | Stereoscopic imaging apparatus with multiple fixed magnification levels | |
| JPH09266919A (ja) | 画像表示装置および方法 | |
| EP4146115A1 (en) | Surgery visualization theatre | |
| MXPA00005695A (es) | Sistema de endoscopia y video tridimensionales. |