[go: up one dir, main page]

ES2218177T3 - Sistema de observacion vedeoestereoscopica y de ampliacion de imagen. - Google Patents

Sistema de observacion vedeoestereoscopica y de ampliacion de imagen.

Info

Publication number
ES2218177T3
ES2218177T3 ES00942345T ES00942345T ES2218177T3 ES 2218177 T3 ES2218177 T3 ES 2218177T3 ES 00942345 T ES00942345 T ES 00942345T ES 00942345 T ES00942345 T ES 00942345T ES 2218177 T3 ES2218177 T3 ES 2218177T3
Authority
ES
Spain
Prior art keywords
control
values
images
parametric
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES00942345T
Other languages
English (en)
Inventor
Guy Kuskas
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Surgivision Ltd
Original Assignee
Surgivision Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Surgivision Ltd filed Critical Surgivision Ltd
Application granted granted Critical
Publication of ES2218177T3 publication Critical patent/ES2218177T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Microscoopes, Condenser (AREA)
  • Liquid Crystal (AREA)

Abstract

Método para mostrar visualmente en tiempo real a un operador humano imágenes dinámicas, que se pueden ampliar de manera variable, optimizadas y emuladas estereoscópicamente de un espacio de aplicación físico, con el fin de ayudar en el proceso de observación minuciosa y la manipulación de objetos dentro de dicho espacio de aplicación, comprendiendo el método: la generación de imágenes dinámicas de dicho espacio de aplicación mediante dispositivos generadores de imágenes; la codificación de imágenes dinámicas en señales eléctricas codificadas; la transmisión de dichas señales eléctricas que representan las imágenes dinámicas a pantallas que están situadas en alineación óptica con los ojos de dicho operador humano; la descodificación de las señales codificadas que representan las imágenes dinámicas en imágenes reproducidas; y la visualización de dichas imágenes reproducidas por los ojos del operador humano.

Description

Sistema de observación videoestereoscópica y de ampliación de imagen.
Campo y antecedentes de la invención
La presente invención se refiere en general a un sistema de observación estereoscópica y más en particular a un sistema de observación videoestereoscópica de ampliación de imagen para ser utilizado en cirugía y en otras aplicaciones médicas.
Actualmente, los cirujanos que realizan cirugía u otras operaciones médicas están obligados a utilizar diferentes métodos de observación durante las diferentes sesiones quirúrgicas o incluso durante una sola sesión. Cada método de observación implica el uso de diferentes instrumentos y equipos. Aunque para algunas operaciones quirúrgicas es suficiente la mera observación o la observación natural, muchos tipos de cirugía demandan la ampliación del campo visual de operación y el aumento de la visión del cirujano. Los cirujanos que realizan tales procesos quirúrgicos se proveen de una vista aumentada del área en la que operan utilizando una serie de dispositivos ópticos que tienen un margen asociado de capacidades de aumento. El grupo de dispositivos de aumento operativos comprende varios sistemas ópticos tales como por ejemplo lupas de mano, lupas binoculares portátiles con o sin luz frontal, o, en el caso de microcirugía, microscopios quirúrgicos. Normalmente, la observación con ayuda de una lupa proporciona aumentos que oscilan entre 2 y 3 (también se puede conseguir un aumento mayor aunque el equipo tiene un manejo complicado y se utiliza con menos frecuencia) mientras que el margen de amplificación para un microscopio oscila normalmente entre 8 ó más. La utilización de diferentes métodos de observación y equipos para los mismos, supone una desventaja evidente de la presente técnica de observación quirúrgica. Ninguna de las técnicas existentes proporciona una opción "de ver con sus ojos" o la capacidad de transmitir la imagen vista por el cirujano a sus ayudantes y a otros expertos presentes en la operación quirúrgica.
Las tendencias de la cirugía moderna apuntan hacia el desarrollo de técnicas quirúrgicas menos agresivas o apenas agresivas, que proporcionan menos exposición y por tanto requieren unas herramientas de visualización más amplificadoras y que mejoran la visión. Tales técnicas quirúrgicas menos agresivas incluyen la microcirugía que necesita un microscopio quirúrgico, la cirugía endoscópica que utiliza laparoscopios o endoscopios, la cirugía asistida por ordenador, la cirugía robótica y la telecirugía que se realiza usando sistemas asistidos por ordenador asociados, en procesos específicos, con técnicas de realismo aumentado y procesos de cirugía clásica o cirugía directa con invasión mínima que implican un acceso mínimo al campo de operaciones.
Algunas de las cirugías mencionadas tales como por ejemplo la cirugía endoscópica, la asistida por ordenador y la telecirugía, necesitan sistemas de visualización específica y pueden necesitar además el uso de dispositivos de aumento interfacial y de mejora de la visión. Otros métodos de cirugía tales como la microcirugía o los procesos de cirugía clásica que implican el uso de un microscopio quirúrgico de quirófano demandan el aumento y la mejora de la visión del cirujano. El tratamiento de órganos y de espacios anatómicos alejados, que son difíciles de exponer y de difícil acceso durante la operación y las fases quirúrgicas genéricas tales como disección microquirúrgica, técnicas de sutura, colgajo libre, anastomosis arterial y venosa, interposición de injerto venoso, anastomosis terminolateral, injerto venoso, microcirugía maxilofacial, vasovasostomia, cirugía de implante de órganos, anastomosis del tubo de Falopio y similares se benefician sustancialmente del aumento óptico y de la representación óptica 3D on line. Los procesos quirúrgicos modernos demandan condiciones de visualización mejoradas para mejorar a su vez la calidad de la cirugía, reducir el tiempo de operación, el trauma para el paciente y por tanto reducir las complicaciones y el tiempo de estancia en el hospital. En consecuencia, se han creado sistemas más sofisticados para mejorar la visualización durante los procesos quirúrgicos. Por ejemplo, la US 4.395.731 describe un método y aparato para proporcionar al cirujano una visión aumentada de sus manipulaciones manuales durante la cirugía. Sin embargo, los sistemas del estado de la técnica todavía tienen varios inconvenientes.
Una herramienta de visualización avanzada debe ser un sistema integrado que comprenda un sistema de visualización a tiempo real con una pantalla ajustable que proporcione una imagen en color de alta definición y tridimensional que se pueda equilibrar y optimizar de manera automática y dinámica para que se adapte a las condiciones de cambio durante la cirugía, herramientas con una gran capacidad de aumento y controles utilizados con facilidad por el operador que permitan cambiar algunos de los parámetros operativos de acuerdo con las condiciones establecidas. El sistema debe proporcionar la opción de "visualización en transparencia" al cirujano durante el proceso quirúrgico. El sistema también debe proporcionar la posibilidad de "visión con sus ojos" a los ayudantes y expertos durante el proceso quirúrgico mediante la transmisión de imágenes idénticas a las que se muestran al cirujano a las personas que estén presentes durante el proceso. Además, el sistema debe proporcionar la posibilidad de grabación para permitir la repetición de la grabación del proceso con fines académicos, de análisis, de archivo y similares. Los sistemas del estado de la técnica no proporcionan estas posibilidades.
Breve descripción de la invención
Un aspecto de la invención, se refiere a un método para mostrar visualmente y en tiempo real imágenes dinámicas, aumentadas de manera variable, optimizadas y estereoscópicas de un espacio de aplicación física en un humano para ayudar en la observación y manipulación de objetos que estén dentro de ese espacio de aplicación. El método comprende generar imágenes dinámicas del espacio de aplicación mediante dispositivos detectores de imágenes, codificar las imágenes que se han generado en señales eléctricas, transmitir las señales que representan las imágenes dinámicas a pantallas que estén situadas en alineación óptica con los ojos del operador, descodificar las señales que representan las imágenes dinámicas y mostrar visualmente las imágenes que reproducen los ojos del operador.
Un segundo aspecto de la presente invención, se refiere a un método para proporcionar a un operador humano imágenes coloreadas, de alta definición, aumentadas de manera variable, dinámicas, estereoscópicas optimizadas desde el punto de vista cualitativo, reproducidas en un ambiente operativo físico para ayudar a dicho operador humano durante una sesión de observación y manipulación asociada con objetos que están dentro de dicho ambiente. El método comprende la visualización de imágenes de la sesión con videocámaras, transformar las imágenes en señales de vídeo; enviar las señales de vídeo a través de conductos adecuados a pantallas correspondientes que están entre el ambiente de operación y los ojos del operador, descodificar las señales de vídeo que representan las señales de vídeo en imágenes reproducidas y mostrar visualmente las imágenes de vídeo que se reproducen en las pantallas.
Un tercer aspecto de la presente invención se refiere a un sistema de observación y aumento estereoscópico que contiene dos cámaras de vídeo unidas mecánicamente e integradas en un módulo de cámaras que puede llevar encima el operador, dos pantallas integradas en una unidad de visualización de cabeza que puede llevar encima el operador, una unidad de control de operador, una interfaz y una unidad de proceso, un circuito de vídeo adecuado que conecta las cámaras y las pantallas de visualización, a través del cual las cámaras de vídeo transmiten señales eléctricas que representan imágenes dinámicas del ambiente operativo, enlaces de comunicación en serie y un circuito en serie a través del cual señales numéricas que representan los valores paramétricos de control de calidad de imagen de las cámaras de vídeo son enviadas a la interfaz y a la unidad de proceso y al controlador del operador para permitir la monitorización y por tanto el equilibrio automático y la optimización de las imágenes reproducidas.
Cada uno y todos los aspectos anteriores de la presente invención proporcionan una calidad de observación mejorada.
Cada uno y todos los aspectos de la presente invención proporcionan una calidad mejorada del objeto a manipular y una duración reducida de la sesión de manipulación.
Breve descripción de los dibujos
La presente invención se entiende y aprecia mejor en la siguiente descripción detallada tomada en conjunto con los dibujos, en los que:
La figura 1, es una representación gráfica de los principales componentes del sistema, que muestra los emplazamientos funcionales de los componentes con respecto al cuerpo de usuario.
La figura 2, es un organigrama simplificado que muestra los principales componentes del sistema interconectados de un modo funcional.
La figura 3, es una representación gráfica de los factores geométricos que definen las relaciones estereoscopia - espacio correspondiente entre un par de cámaras y un objeto observado.
La figura 4, es un gráfico del funcionamiento cualitativo del sistema estereoscópico que depende de la variación de la Distancia Interpupilar en una cámara dada y la distancia al objeto.
La figura 5, es una representación esquemática de la disposición de los componentes del sistema.
La figura 6, es un organigrama funcional que muestra los componentes de hardware y el software de la Unidad Interfacial y de Proceso.
La figura 7, es un organigrama de alto nivel de la principal función operativa del sistema.
La figura 8, es un organigrama de alto nivel que corresponde a la secuencia de activación de control en la Unidad del Controlador del Operador.
La figura 9, es un organigrama de alto nivel asociado con el control de nivel de vídeo que utiliza las lecturas de salida de los datos de luz de las cámaras.
La figura 10, es un organigrama de alto nivel del control de enfoque que utiliza las lecturas de salida de las cámaras.
La figura 11, es un organigrama de alto nivel asociado con el ajuste de los valores de IPD y DA que utiliza la lectura anterior del enfoque.
Las figuras 12A, 12B y 12 C, ilustran la estructura mecánica del Módulo de Cámaras que incluye los motores y los dispositivos mecánicos asociados que controlan la Distancia Interpupilar (IPD) y el Ángulo de Convergencia, (DA).
Mejor modo de llevar a cabo la invención y aplicabilidad industrial
La presente invención elimina las desventajas del estado de la técnica proporcionando un sistema de visión estereoscópica versátil novedoso para ayudar en los tratamientos de cirugía y en otras aplicaciones médicas que requieren el aumento de detalles en el espacio quirúrgico.
La invención que se propone es un sistema de observación estereoscópica informatizado y de aumento para fines quirúrgicos. Este sistema combina vídeo de alta resolución con calidad de imagen, flexibilidad de zoom de gran aumento y facilidad de uso que se consigue con la automatización informatizada. Con el uso de este mecanismo potente y eficaz, el cirujano puede trabajar de un modo más eficaz y preciso con lo cual puede realizar operaciones difíciles y complicadas en un periodo de tiempo corto. El sistema proporciona un funcionamiento óptimo y una máxima automatización con el fin de mejorar la concentración del cirujano y reducir el esfuerzo físico que se requiere en un proceso quirúrgico complicado y prolongado. Este sistema proporciona un campo de visión variable, un control continuo de amplificación de entre aproximadamente 1 (ojo sin ayuda) y aproximadamente 10 usando prácticamente el mismo equipo y en la misma sesión si se necesita. Todo el sistema tiene poco peso y un consumo de energía bajo, lo que hace que los equipos de emergencia puedan tener la opción de usarlo como equipo de campaña. Además, el sistema proporciona un conjunto de ventajas tales como una capacidad de "visualización en transparencia", una opción "de ver con sus propios ojos" y una capacidad de grabación y reproducción.
A continuación, se hace referencia a las figuras 1 y 2 que ilustran los principales componentes del sistema que está diseñado para ser utilizado como ayuda para la realización de una sesión que implica la observación minuciosa y la manipulación manual o semimanual de objetos. Se puede percibir fácilmente que el usuario del sistema puede ser uno de los diferentes tipos de operativos que funcionan en diferentes dominios que implican la realización de manipulaciones manuales o semimanuales de objetos dentro de un espacio de aplicación físico limitado opcionalmente que necesita una observación intensa y concentrada de los objetos que se manipulan, y por tanto demanda un aumento variable de la imagen que se observa mientras que la sesión de manipulación está en curso. Las realizaciones que se describen son únicamente ejemplos de la invención que se propone. Los detalles que se describen no deben interpretarse como limitativos sino únicamente como medios que contribuyen a aclarar el entendimiento de la presente invención.
En la realización preferida de la presente invención, un usuario 10 es un médico, por ejemplo un cirujano, que utiliza el sistema como una ayuda para realizar un proceso médico tal como por ejemplo cirugía. El usuario 10 lleva preferiblemente los principales componentes del sistema en su cuerpo o cerca del mismo. Un módulo de cámaras (CM) 20 comprende un par de sensores de poco peso especializados en la recepción de imágenes, en la codificación de imágenes y en la transmisión de imágenes, por ejemplo cámaras de vídeo montadas en un aparato de soporte tal como una cinta para la cabeza, unos auriculares o un casco colocados en la cabeza del usuario 10. El casco y las dos cámaras de vídeo están configuradas de manera que se proporcionan transmisiones temporales simultáneas aunque ligeramente diferentes desde el punto de vista espacial de señales eléctricas codificadas numéricamente que representan dos imágenes monoscópicas a los ojos del usuario 10 proporcionando así al usuario 10 la opción de observar el espacio quirúrgico de modo estereoscópico. Las señales eléctricas que representan las imágenes del mundo real son recibidas ópticamente por las cámaras y son transmitidas vía unos circuitos adecuados a la unidad interfacial y de proceso (IPU) 50 que está ligeramente unida al cuerpo del usuario 10. La unión se consigue con el uso de medios adecuados tales como un dispositivo montado en el cinturón y similares. La unidad interfacial y de proceso (IPU) 50 procesa automáticamente las señales numéricas y de acuerdo con las instrucciones manuales del usuario 10 las introduce a través del Controlador del Operador (OC) 40. El usuario introduce instrucciones activando manualmente varios controles tales como botones pulsadores que están situados en la superficie superior del OC 40. El OC 40 se muestra unido con medios adecuados tales como una correa o una cinta de Velcro al antebrazo del usuario 10. Las señales procesadas se transmiten vía cables adecuados a la pantalla de cabeza (HMD) 30. La pantalla de cabeza 30 está situada en alineación óptica entre los ojos del usuario 10 y el espacio quirúrgico que se observa. Al igual que otros componentes principales del sistema que se propone, la HMD 30 también se puede llevar encima y en la realización preferida de la invención está situada delante de los ojos del usuario 10 de un modo similar a las lupas. Las señales transmitidas a la HMD 30 se descodifican, se estructuran en imágenes correspondientes y se muestran visualmente en un par de pantallas tales como Dispositivos de Cristal Líquido (LCD) y similares.
Cualquiera versado en la materia, puede apreciar fácilmente que la estructura, el emplazamiento y la distribución de los componentes que se han descrito podría ser diferente para otras realizaciones propuestas de la presente invención. Por ejemplo, en una realización diferente de la presente invención la unidad de control del operador se podría utilizar activando los controles operativos que hay en la misma con la muñeca, el pie, mediante el tacto o la voz. Los detalles que se describen aquí son solamente la base para las siguientes reivindicaciones.
El sistema que se describe en la figura 3 emplea dos dispositivos detectores de imagen tales como por ejemplo dos cámaras de vídeo 22 y 24 que corresponden a los dos ojos de un observador. Las cámaras 22 y 24 están separadas entre sí por un espacio intermedio que se conoce como Distancia Interpupilar (IPD) 25 y están separadas del objeto 32 una distancia 28. Cada cámara está enfocada hacia el objeto 32 desde un ángulo un poco diferente, por lo cual las líneas de visión convergen hacia el objeto 32. Las líneas de visión forman un Ángulo de Convergencia (DA) 34. La imagen que toma cada cámara se visualiza en el ojo correspondiente del observador usando la Pantalla de Cabeza HMD 30 de la figura 1. El cerebro transforma las dos imágenes en un escenario tridimensional gracias a su capacidad de percepción estereoscópica.
Refiriéndonos ahora a la figura 4, se ilustra el funcionamiento cualitativo de un sistema estereoscópico según la variación del valor de IPD y la distancia convergente D. Se han realizado pruebas para establecer lo que se conoce como "el sistema 3D ideal" para una situación dada. Cuando se establece una IPD óptima y una Distancia Convergente (D), los resultados de la prueba muestran que hay un margen de parámetros que producen un funcinamiento óptimo. Refiriéndonos a la relación entre la IPD y la distancia del objeto desde la cámara (D) como la medida importante principal, es posible distinguir entre hipoestereoscopia 36 (una IPD demasiado pequeña), esteresocopia óptima 38 e hiperestereoscopia 42 (una IPD demasiado grande), en hipoestereoscopia, se nota la falta de percepción estereoscópica. La hiperestereoscopia produce confusión y fatiga después de un periodo de tiempo corto. Para optimizar la función estereoscópica, la IPD se reajusta preferiblemente de acuerdo con la distancia que hay al objeto. A diferencia de otros sistemas de vídeo 3D, el sistema que se propone puede manipular de manera dinámica la IPD y el Ángulo de Convergencia para obtener una estereoscopia óptima, con lo cual se optimiza el efecto de profundidad sin los efectos no deseados asociados a la pérdida de concentración o la fatiga.
El sistema emplea dos Dispositivos Acoplados de Carga (CCD) o cámaras Detectoras de Estado Sólido que están integradas en un Módulo de Cámaras. Se podrían usar las cámaras Sony Japan Model EVI 370DG o similares. Las cámaras deben proporcionarse con un DPS integrado (Procesador de Señal Digital) para permitir el funcionamiento de un modo completamente automático o para ser controladas de manera externa a través de un puerto de comunicación en serie tal como el RS232/VISCA usando el protocolo especial de Sony. Todo el conjunto de parámetros operativos de la cámara se puede controlar desde un ordenador alejado (o mediante la unidad interfacial adecuada). El Módulo de Cámaras está diseñado para poder montarlo en diferentes superficies, por ejemplo un casco, un brazo móvil o un brazo estático. Además de las cámaras, el Módulo de Cámaras incluye el mecanismo que se necesita para cambiar la Distancia Interpupilar (IPD) y el Ángulo de Convergencia (DA) entre las cámaras utilizando al menos dos motores eléctricos tales como el Geared Minimotor hecho en Japón.
Refiriéndonos ahora a la figura 5, se muestra una vista más detallada de los componentes del sistema de la figura 2. Dos cámaras 22 y 24 están montadas como un módulo de cámaras. Ambas cámaras están equipadas con un zoom de aproximadamente X12 que proporciona un campo de visión horizontal de entre aproximadamente 48,8º y aproximadamente 4,3º. Las cámaras se controlan usando enlaces de comunicación en serie 54 y 56 con lo cual cada cámara se puede controlar por separado para modificar los parámetros del sistema y equilibrar los canales de vídeo separados asociados con cada cámara. La señal de vídeo S-Vídeo (Super VHS) se transmite como dos componentes Luminancia y Crominancia para formar una imagen con una mejor calidad. Las cámaras del sistema tienen preferiblemente una salida de Vídeo-S. Con miras a conseguir una optimización y un equilibrio de los niveles de vídeo entre las cámaras se usará el canal de Luminancia (y) para controlar el nivel de la señal de vídeo.
Las cámaras 22 y 24 están unidas mecánicamente mediante un brazo mecánico 44 que está conectado a y controlado mediante el mecanismo de IPD/Ángulo de Convergencia 46. La cámara 22 transmite señales de vídeo a través de un conducto 48 y la cámara 24 transmite señales de vídeo a través de un conducto 52 a la IPU 50. Las señales de control que corresponden a los diferentes parámetros operativos de la cámara 22 y la cámara 24 son transmitidas a través de un conducto 54 y 56 respectivamente a la IPU 50. Las señales de control que resultan del procesamiento de señal numérica de la IPU 50 son enviadas desde a IPU 50 al mecanismo de control de IPD/Ángulo de Convergencia a través de un conducto 58 para llevar a cabo el posicionamiento correcto de las cámaras 22 y 24 entre sí. La IPU 50 está unida mediante un conducto de control 80 al Controlador del Operador (OC) 40 y a través de un conducto 82 a la HMD 30. La HMD 30 comprende un par de pantallas 62 y 64 de LCD. Como pantalla, se puede usar la que se conoce como Pantalla de Cabeza, por ejemplo el modelo japonés de Sony LDI-D100BE, o similar. El modelo LDI-D100BE es una pantalla de alta definición adecuada para estereoscopia con la característica de "visualización en transparencia". Las señales de vídeo que se reciben procedentes de la IPU 50 son descodificadas y visualizadas en las pantallas 62 y 64. En la realización preferida de la presente invención, el OC 40 está conectado mediante cables con la IPU 50. En otras realizaciones de la presente invención, el OC 40 puede modificarse para usarse con un controlador de comunicación IR (infrarrojos) (como la televisión de una casa), mediante activación de voz, Radiotransmisión o mediante cualquier otra forma de comunicación presente actualmente o que se desarrolle en el futuro adecuada para este fin.
El Módulo de Cámaras está conectado a una Unidad Interfacial y de Proceso (IPU). La Unidad Interfacial y de Proceso, que es el "cerebro" del sistema, controla las cámaras, el mecanismo que cambia la posición de las cámaras (por ejemplo la IPD y el Ángulo de Convergencia) y la pantalla. La IPU 50 contiene varios componentes funcionales. El control de encendido 67 es el principal control del sistema y el único control manual situado en la IPU 50. El control de encendido 67 es preferiblemente un conmutador de tipo protegido para evitar el apagado accidental. Los otros componentes funcionales de la IPU 50 se describen después en asociación con los dibujos en anexo.
La Unidad de Control del Operador (OC) 40 está conectada a la IPU 50 mediante el conducto 80. El usuario 10 utiliza el OC 40 para transmitir órdenes a la IPU 50 y para recibir de la IPU 50 los datos de ajuste del sistema y el estado general del sistema. El usuario 10 se comunica con el sistema a través de un conjunto de controles que están situados en el OC 40. Cuando el usuario 10 inicia una sesión de observación/manipulación, se activa un control de Inicialización 68 para que se produzca un proceso de arranque-reinicialización con el fin de programar los parámetros básicos del sistema tales como por ejemplo los valores iniciales del Campo de Visión (DA). El control de reajuste 70 se usa cuando el operador quiere asegurarse de que el sistema está bien ajustado o cuando se altera algún parámetro medioambiental tal como por ejemplo la luz ambiente. La activación de reajuste 70 sustituye automáticamente algunos de los ajustes automáticos que se necesitan normalmente para optimizar el sistema en tiempo real.
La "visualización en transparencia" es una característica de avance con respecto a las pantallas conocidas para funcionar en dos modos diferentes:
a)
modo de visualización de imagen, y
b)
modo transparente.
En el modo de visualización de imagen, la pantalla muestra visualmente una imagen que genera y transmite un dispositivo detector de imagen que está conectado de manera adecuada. Mientras que en modo transparente, la imagen se elimina de la pantalla, que se vuelve transparente para permitir que el observador vea a través de la misma la escena real que está detrás. Cuando el control de visualización en transparencia 72 está activado, éste cambia las pantallas 62 y 64 al modo de visualización en transparencia quedándose las pantallas correspondientes transparentes, neutralizando por tanto el dispositivo de enfoque y permitiendo que el observador vea la escena con sus ojos en la línea de visión natural. Otra presión en el control de visualización en transparencia 72 hace que las pantallas vuelvan a la vista que proporciona las imágenes transmitidas desde las cámaras 22 y 24 a través de los canales de vídeo correspondientes. Cuando las pantallas 62 y 64 están en el modo de visualización en transparencia, el resto del sistema, incluidas las cámaras 22 y 24, continúa funcionando normalmente.
El control de Modos 74 se propone para que funcione cíclicamente. Con miras a cambiar parámetros específicos que están disponibles para que el usuario 10 los modifique, el control de Modos 74 se activa de manera repetida e intermitente para seleccionar el modo apropiado y los parámetros asociados para ser cambiados. Un control hacia arriba 78 y un control hacia abajo 76 se utilizan para seleccionar el valor del parámetro correspondiente. Por ejemplo, durante el funcionamiento regular del sistema, se programa el modo por defecto en el Campo de Visión (FOV). En el modo (FOV), el operador puede controlar la ampliación de la imagen que se muestra visualmente. Al activar el control hacia arriba 78 y el control hacia abajo 76, se programan los valores adecuados de FOV, se consigue el efecto acercamiento con el zoom o alejamiento con el zoom correspondiente, y se aumenta o disminuye el tamaño de la imagen de manera efectiva. Cuando el operador quiere modificar un parámetro diferente, se activa el control de Modos 74 y el modo en curso cambia a Equilibrado de Blancos Automático (AWB). AWB es un método para equilibrar los componentes del color de la imagen para producir colores naturales. Cuando se cambia al modo deseado, aparece en la pantalla 66 una indicación correspondiente que especifica la nueva selección. Cuando se selecciona el modo AWB, la activación del control hacia arriba 78 o el control hacia abajo 76 efectúa una selección adecuada de los valores paramétricos preseleccionados, tales como por ejemplo Interior, Exterior o Auto. Otra activación del control de Modos 74 realiza la selección del modo Estabilizador y el control hacia arriba 78 y el control hacia abajo 76 fijan el valor del parámetro asociado con el modo Estabilizador tal como ON u OFF. La pantalla 66 puede mostrar además el estado del sistema, el enfoque, el zoom y diferentes mensajes de error.
Se puede apreciar fácilmente que las unidades adicionales se pueden conectar a las unidades principales que se han descrito. Por ejemplo, se pueden añadir pantallas adicionales de cualquier tipo (pantallas de cabeza, monitores o proyectores de vídeo adicionales) a la configuración básica del sistema para que otros miembros del equipo observen las imágenes que ve el usuario 10. Las imágenes también se pueden transmitir fuera del quirófano a través de cables o medios inalámbricos con fines académicos o de consulta. Además, el sistema puede utilizar un codificador de comunicación para transmitir las imágenes de vídeo en un formato comprimido a un sitio alejado para asistentes que están on-line.
Refiriéndonos ahora a la figura 6 que proporciona una ilustración detallada de los componentes de la Unidad Interfacial y de Proceso (IPU) 50, ésta comprende un procesador 88, un dispositivo de memorización 84, una unidad de temporización y control 86, un transformador de AC/ DC; 96, una interfaz de unidad de control 98, una interfaz de mando HMD 100, una servointerfaz 90, una interfaz de mando de cámara 92 y una interfaz de cámara de vídeo 94. El dispositivo de memorización 84 de la figura 6 contiene las funciones de software operativas en archivos binarios ejecutables. Las funciones de software son programas informáticos controlados mediante valores paramétricos predeterminados programados de manera adecuada con antelación, que están almacenados en estructuras de datos adecuadas. Las cámaras 22 y 24 transmiten señales que representan imágenes de vídeo a la interfaz de videocámara 94. Las señales son transmitidas a través de la interfaz de mando HMD 100 a la HMD 30 para ser visualizadas en las pantallas correspondientes. Las cámaras 22 y 24 también transmiten señales numéricas que representan datos luminosos al procesador 88 para ser procesadas y ejecutadas si es necesario. Dependiendo de los datos recibidos de las cámaras 22 y 24, el procesador 88 envía señales a través de la interfaz de mando de cámara 92 y las líneas de mando en serie 54 y 56 a las cámaras 22 y 24 para cambiar los valores de los parámetros con respecto a la calidad de las imágenes, por ejemplo la distancia de enfoque de las cámaras 22 y 24. El procesador 88 también envía órdenes a través de la servointerfaz 90 al mecanismo de IPD/Ángulo de Convergencia 46 para variar de forma adecuada la colocación espacial de las cámaras 22 y 24 entre sí, estableciendo de ese modo una IPD y un ángulo de convergencia asociado óptimos para que el usuario consiga la mejor percepción estereoscópica y una escasa fatiga ocular.
El controlador del operador (OC) está conectado al procesador 88. El OC 40 permite al usuario 10 controlar parámetros específicos del sistema tales como por ejemplo el campo de visión, el enfoque, Equilibrado de Blancos Automático y similares. Las instrucciones del usuario se transmiten al procesador 88, y son transformadas en órdenes específicas mediante el procesador 88 usando funciones de software adecuadas codificadas en un formato binario ejecutable y almacenadas en el dispositivo de memorización 84. Las órdenes se transmiten a través de la interfaz de mando de cámara 92 y la servointerfaz 90 a las cámaras 22 y 24 y al mecanismo de IPD/Ángulo de Convergencia 46.
Las cámaras 22 y 24 tienen varias funciones automáticas incorporadas tales como por ejemplo Control de Luz Automático (ALC) para controlar el nivel de vídeo de una cámara mediante el diafragma del objetivo y la velocidad de obturación. Las posibilidades automáticas incorporadas se utilizan para corregir parámetros operativos importantes tales como la distancia de enfoque, y por lo tanto permiten que el procesador 88 proporcione el equilibrio automático de los canales de imagen en cualquier aspecto. El procesador 88 programa los parámetros correspondientes de las cámaras 22 y 24 después de analizar las señales de control numéricas recibidas. Las dos imágenes se corrigen para que tengan un enfoque, un nivel de vídeo y un equilibrio de colores adecuados. El procesador 88 también se encarga de las diferentes tareas a nivel de sistema, tales como por ejemplo tratamiento de la interrupción, recuperación de errores y similares.
La función del sistema que se propone depende de diferentes parámetros importantes para el funcionamiento eficaz del sistema. Todas las cámaras funcionan cerca del objeto, por lo cual se debe mantener la distancia de enfoque adecuada y la temperatura del color. Las cámaras deben equilibrarse en estos aspectos para que ambas cámaras funcionen de manera uniforme en todo momento durante una sesión dada.
Refiriéndonos a la figura 7, se muestra el organigrama lógico de la función operativa del sistema. En la fase 104 el operador activa el control de encendido 67 de la figura 5. Posteriormente, en la fase 106, se inicializa el sistema. El proceso de inicialización es el arranque del sistema durante el cual se reinicializan todos los parámetros funcionales a valores predefinidos que están almacenados en estructuras de datos específicos tales como por ejemplo tablas y similares del dispositivo de memorización 84. Una descripción detallada del proceso de reinicialización se describe después con referencia a los dibujos en anexo. En la fase 108, se accede al OC 40 de la figura 5 para leer las instrucciones del operador que se han introducido manualmente a través de controles específicos tales como por ejemplo botones pulsadores que se describen en la figura 5. En la fase 110, el procesador 88 de la figura 6 procesa las órdenes del OC. La descripción detallada del proceso se describe después con referencia a los dibujos en anexo. En la fase 112, se lee el nivel medio de vídeo de ambas cámaras y se equilibran las cámaras teniendo en cuenta los niveles de vídeo. La descripción detallada del proceso se describe después con referencia a los dibujos en anexo. En la fase 114, se lee el ajuste de enfoque de ambas cámaras y se equilibran las cámaras con respecto a la distancia de enfoque. La descripción detallada del proceso se describe después con referencia a los dibujos en anexo. En la fase 116, se ajustan la IPD y la DA dependiendo de los valores de enfoque obtenidos previamente. La descripción detallada del proceso se describe después con referencia a los dibujos en anexo.
Refiriéndonos ahora a la figura 8, se ilustra la secuencia de la activación del control del controlador del operador 40. Los procedimientos y modos de funcionamiento básicos del sistema, que son controlados por el operador usando el OC 40, son los siguientes:
a)
modo de inicialización
b)
modo de reajuste
c)
funcionamiento normal (modo automático)
d)
modificación manual de los parámetros del sistema
Mediante el OC 40, el operador tiene la opción de activar todos los procesos y funcionamientos descritos. La inicialización 106 del proceso de la figura 7 funciona en dos situaciones: cuando se pone en marcha después de la activación del conmutador de encendido 67 de la figura 5 o cuando se emplea el control de incialización 68 de la figura 5. Cuando se utiliza el control de inicialización 68 de la figura 5, el operador activa una serie de funciones predefinidas que están almacenadas en los dispositivos de memorización 84 de la figura 6, las cuales ejecuta automáticamente el procesador 88 de la figura 6. En la fase 120, la secuencia de inicialización empieza arrancando el sistema y después se reinicializan todos los parámetros funcionales a unos valores predeterminados definidos de manera específica. Las fases de funcionamiento que se llevan a cabo en el proceso de inicialización son las siguientes:
a)
En la fase 122, se activan las cámaras 22 y 24.
b)
En la fase 124, se ajusta el Equilibrado de Blancos Automático de las cámaras 22 y 24 al valor del Interior.
c)
En la fase 126 se ajusta el campo de visión a unos 35 grados.
d)
En la fase 128 se ajusta la velocidad de obturación a aproximadamente 1/60 segundos.
e)
En la fase 130 se desconecta el Control de Amplificación automática (AGC). El AGC es un sistema de circuitos electrónicos que compensa cualquier cambio de nivel de entrada de audio o vídeo incrementando o haciendo que disminuyan las señales de entrada para que se ajusten a un nivel prefijado. Si se usa el AGC, el cambio de niveles de entrada se puede producir con un único ajuste constante.
f)
En la fase 132 el diafragma se fija en Auto para introducir el modo Prioridad de Obturación.
g)
En la fase 134 el enfoque se ajusta en el valor de aproximadamente 1,5 metros.
h)
En la fase 136 la Distancia Interpupilar (IDP) se ajusta en el valor de aproximadamente 75 mm y el Ángulo de Convergencia entre aproximadamente 2 y 4 grados (preferiblemente 2,9 grados).
i)
En la fase 138 se conectan los Estabilizadores para evitar cambios automáticos de parámetros de corriente.
La función de Inicialización hace que el control vuelva a la función principal y posteriormente introduce la operación de Funcionamiento Normal (Modo Automático) para que empiece el proceso de ajuste continuo de los parámetros del sistema operativo.
El proceso de Reajuste 150 se produce cuando cambian algunos factores medioambientales tales como por ejemplo la intensidad de la luz ambiente, cuando la posición de las cámaras con respecto a la IPD y el Ángulo de Convergencia cambia rápidamente o se desequilibran ambos canales de vídeo asociados a las cámaras 22 y 24. Las fases que se han ejecutado durante el proceso de Reajuste 150 son similares a las del proceso de inicialización 120 aunque sin inicializar todos los parámetros del sistema en unos valores por defecto predefinidos. Durante el proceso de Reajuste 150 el control de visualización en transparencia 72 de la figura 5 se activa preferiblemente para evitar que los cambios rápidos de imagen queden en el campo visual del usuario 10. Después de la activación del control de Reajuste 70 de la figura 5, se carga la función correspondiente del dispositivo de almacenamiento 84 y la ejecuta el procesador 88 de la figura 5. Las fases que realiza la función son las siguientes:
a)
En la fase 152, la velocidad de obturación se ajusta en aproximadamente 1/60 segundos.
b)
En la fase 154 se desconecta el Control de Amplificación.
c)
En la fase 156 el diafragma se ajusta en el modo Automático.
d)
En la fase 157 se equilibran las cámaras con respecto al nivel de vídeo.
e)
En la fase 158 el enfoque se ajusta en automático.
f)
En la fase 159 se equilibran las cámaras con respecto a la distancia de enfoque.
La función de Reajuste hace que el control vuelva a la función lógica principal y como resultado se introduce la operación de Funcionamiento Normal (Modo Automático) para que empiece el ajuste continuo, automático y en línea de los parámetros del sistema operativo.
El operador dispone de la opción de modificar manualmente varios parámetros del sistema usando el control de Modos 74 de la figura 5. Al activar de manera repetida e intermitente el control de Modos 74 en la fase 140, el operador selecciona el modo de funcionamiento deseado en el que se pueden modificar parámetros específicos. Todas las modificaciones son operativas para ambas cámaras. Dependiendo de la selección hecha, aparecerá un indicador visual específico del modo seleccionado en la pantalla 66 de la figura 5. El modo por defecto es el modo FOV o la modificación del campo de visión. El FOV se ajusta en la fase 142 mediante la activación del control hacia Arriba 76 o el control hacia Abajo 78, que en el modo FOV corresponde respectivamente a las operaciones acercamiento con el zoom o alejamiento con el zoom. Como resultado, el cambio del valor del FOV es efectivo para hacer que aumente o disminuya el tamaño de las imágenes recibidas. En consecuencia, la ampliación de la imagen se consigue de este modo.
En la fase 144 se selecciona el modo alternativo AWB. En el modo AWB se ajusta el Equilibrado de Blancos de ambas cámaras. El usuario tiene la opción de cambiar entre tres valores predefinidos de Ajuste de Equilibrado de Blancos. Los valores son los siguientes:
a)
En Interiores: para corregir los colores de las imágenes según la luz artificial.
b)
Al aire libre: los colores de las imágenes se corrigen según la luz natural de aproximadamente 6.500 grados Kelvin.
c)
Auto: se realiza el AWB automático.
En la fase 146, el operador equilibra el enfoque entre las cámaras. Se comprueban y ajustan las distancias de enfoque de ambas cámaras si es necesario. Cuando se modifica la distancia de enfoque de las cámaras, se calcula la IPD y se modifica. Como la visión estereoscópica es óptima cuando el valor medio típico de la IDP es 1/20 de la distancia entre un observador que puede mirar estereoscópicamente y el objeto más cercano que se puede ver claramente situado en el espacio que se observa, se ajusta el valor de la IPD en aproximadamente 1/20 de la distancia de enfoque con un valor mínimo de aproximadamente entre 50 y 60 mm (preferiblemente 53 mm). Después de la modificación de la IPD se obtiene el Ángulo de Convergencia DA accediendo a una estructura de datos adecuada tal como por ejemplo una tabla de consulta y extrayendo el valor adecuado.
Refiriéndonos ahora a la figura 9, se muestra el proceso de equilibrado automático del nivel de vídeo 112. En la fase 166, el nivel de vídeo medio luminoso se lee en ambas cámaras y en la fase 168 se comparan entre sí los valores que se obtienen en las cámaras. En la fase 170 se determina si la diferencia del nivel de vídeo entre las dos cámaras es superior a un valor predefinido tal como por ejemplo un 10%. Si la diferencia es superior al valor predefinido, en la fase 172 se comprueba cada cámara para determinar qué cámara tiene un ajuste diferente a un valor de nivel de vídeo fijado predefinido tal como por ejemplo aproximadamente 1,0 voltios de pico a pico. Dependiendo del resultado, en la fase 176 o la fase 174 se ajusta el diafragma de la cámara correspondiente al valor fijado predefinido. Después, el control vuelve a la fase 168 para que se repita el proceso de equilibrado. Cuando en la fase 168 se encuentra que la diferencia entre los niveles de vídeo de las cámaras es inferior a un valor predefinido, el control vuelve a la fase 166 para obtener de nuevo el nivel de vídeo luminoso de las cámaras.
Refiriéndonos ahora a la figura 10, se muestra el organigrama de control asociado al equilibrado automático del ajuste de enfoque 114 de las cámaras entre sí. En la fase 180, se obtienen los ajustes de la distancia de enfoque de ambas cámaras y se comparan por si hay diferencia en la fase 182. En la fase 184, se determina si existe diferencia entre los ajustes. Si no existe diferencia, el control vuelve a la fase 180 para que se repita el proceso de equilibrado. Si se encuentra que los ajustes son diferentes, en la fase 186 se determina qué cámara tiene un ajuste de enfoque superior al del valor de la otra cámara. Dependiendo del resultado, en la fase 190 o 188, se ajusta el enfoque de la cámara que tiene el valor de enfoque superior al valor de la otra cámara.
Refiriéndonos ahora a la figura 11, se muestra el organigrama lógico asociado al ajuste automático de la IDP y el DA 116. En la fase 194, se lee el ajuste de enfoque de ambas cámaras y en la fase 196 se calcula el IDP. En la fase 198 se fija la IDP y en la fase 202 el valor de la IPD permite extracción del valor del DA de la tabla de consultas que se encuentra en el dispositivo de memorización en la fase 200. En la fase 204 se ajusta el valor del DA. Los resultados se introducen en la servointerfaz 90 de la figura 6, se transforman en señales adecuadas y son enviadas al mecanismo de control de IPD/DA 46 de la figura 6. El control de función vuelve después a la fase 194 para obtener las lecturas de los ajustes de enfoque de ambas cámaras y repetir el proceso.
Refiriéndonos ahora a las figuras 12A, 12B y 12C, se muestra la estructura mecánica del módulo de cámaras 20 de la figura 6 incluidos los motores 216 y 210 con sus partes mecánicas asociadas. Las cámaras 22 y 24 cuelgan de una base 218 donde los puntos de anclaje del mecanismo en la base 218 son pernos que sujetan los motores 210 y 216. El motor frontal 216 está provisto de un eje de dos lados con roscas que se dirigen en direcciones opuestas. Los pernos que sujetan las cámaras 22 y 24 tienen la misma rosca. Por lo tanto, cuando el motor 216 gira en una u otra dirección, los lados frontales 212 y 214 de las cámaras 22 se acercan o alejan respectivamente entre sí. Para hacer que sea posible el movimiento descrito, la conexión entre los pernos y las carcasas de las cámaras 22 y 24 puede girar libremente aunque no cambia de posición. El motor posterior 210 también está provisto de un eje roscado que mueve ambos brazos 206 y 208. En consecuencia, la distancia entre las partes posteriores de las cámaras 22 y 24 aumenta o disminuye dependiendo de la dirección del movimiento del motor 210. El mecanismo descrito proporciona el control de tanto la IPD como el Ángulo de convergencia.
Cualquiera versado en la materia puede apreciar fácilmente que la descripción anterior ilustra únicamente el concepto básico de la presente invención y se refiere sólo a un dispositivo posible entre los muchos diseños que se pueden concebir y que pueden ser eficaces para la fabricación del sistema que se propone.
En otra realización de la presente invención, se añade equipamiento auxiliar tal como por ejemplo grabadoras, reproductoras, equipos de audio y de comunicación que correspondan a una configuración de quirófano típica.
En otra realización preferida de la presente invención, una versión más compacta del sistema está provista de una fuente de luz adicional que funciona a pilas o con un conector de batería de coche. En esta realización, el sistema puede ser usado por militares o servicios de emergencia que trabajan al aire libre.
Aún en otra realización preferida de la presente invención, el sistema que se propone incluye cámaras Reforzadas monocromáticas (ICCD) para uso militar en condiciones de luz escasa.
Cualquiera versado en la materia puede apreciar que la presente invención no se limita a lo que se ha mostrado y descrito en particular. Más bien, el campo de la presente invención se define únicamente en las reivindicaciones que vienen a continuación.

Claims (25)

1. Método para mostrar visualmente en tiempo real a un operador humano imágenes dinámicas, que se pueden ampliar de manera variable, optimizadas y emuladas estereoscópicamente de un espacio de aplicación físico, con el fin de ayudar en el proceso de observación minuciosa y la manipulación de objetos dentro de dicho espacio de aplicación, comprendiendo el método:
la generación de imágenes dinámicas de dicho espacio de aplicación mediante dispositivos generadores de imágenes;
la codificación de imágenes dinámicas en señales eléctricas codificadas;
la transmisión de dichas señales eléctricas que representan las imágenes dinámicas a pantallas que están situadas en alineación óptica con los ojos de dicho operador humano;
la descodificación de las señales codificadas que representan las imágenes dinámicas en imágenes reproducidas; y
la visualización de dichas imágenes reproducidas por los ojos del operador humano,
caracterizado porque se monitorizan los valores paramétricos de control de calidad de imagen de los dispositivos generadores de imágenes; y
se ajustan automáticamente las posiciones físicas relacionadas con la calidad estereoscópica de los dispositivos generadores de imágenes según dichos valores paramétricos de control de calidad de imagen para obtener una calidad estereoscópica optimizada;
e incluyendo dichas posiciones físicas relacionadas con la calidad estereoscópica de los dispositivos generadores de imágenes la distancia interpupilar (IPD) entre dichos dispositivos generadores de imágenes y el ángulo de convergencia (DA) entre las líneas de visión de dichos dispositivos generadores de imágenes.
2. Método según la reivindicación 1, en donde la fase de ajustar automáticamente las posiciones físicas relacionadas con la calidad estereoscópica de los dispositivos generadores de imágenes comprende las fases de:
calcular según dichos valores paramétricos de control de calidad de imagen monitorizada, los valores paramétricos de control de calidad estereoscópica óptimos, incluyendo dichos valores paramétricos de control de calidad estereoscópica óptimos un valor IPD óptimo y por tanto también un valor DA óptimo;
transmitir dichos valores paramétricos de control de calidad estereoscópica óptimos a dispositivos de control espacial;
transformar dichos valores paramétricos de control de calidad estereoscópica óptimos calculados en señales de posicionamiento físico adecuadas;
colocar físicamente los dispositivo generadores de imágenes en emplazamientos espaciales de acuerdo con dichos valores óptimos IPD y DA; y
repetir las mencionadas fases anteriores.
3. Método según la reivindicación 1, que comprende además la fase de equilibrar automáticamente los ajustes paramétricos de control de calidad de imagen de los dispositivos generadores de imágenes.
4. Método según la reivindicación 3, en donde la fase de equilibrar automáticamente los ajustes paramétricos de control de calidad de imagen comprende las fases de:
monitorizar los valores paramétricos de control de calidad de imagen de un primer dispositivo generador de imágenes;
monitorizar los valores paramétricos de control de calidad de imagen de un segundo dispositivo generador de imágenes;
comparar dichos valores paramétricos de control de calidad de imagen de dicho primer dispositivo generador de imágenes y dicho segundo dispositivo generador de imágenes;
ecualizar los valores paramétricos de control de calidad de imagen del primer dispositivo generador de imágenes y del segundo dispositivo generador de imágenes;
repetir las mencionadas fases anteriores.
5. Método según la reivindicación 1, que comprende además la fase de controlar manualmente los parámetros de control de calidad de imagen de los dispositivos generadores de imágenes.
6. Método según la reivindicación 5, en donde la fase de controlar manualmente los parámetros de control de calidad de imagen comprende las fases de:
inicializar los valores paramétricos de control de calidad de imagen de los dispositivos generadores de imágenes;
reajustar de manera selectiva dichos valores paramétricos de control de calidad de imagen de los dispositivos generadores de imágenes;
reinicializar de manera selectiva al menos uno de los valores paramétricos de control de calidad de imagen de los dispositivos generadores de imágenes;
estabilizar los valores paramétricos de control de calidad de imagen de los dispositivos generadores de imágenes;
desconectar de manera selectiva los dispositivos generadores de imágenes de dichas pantallas para permitir la observación de dicho espacio de aplicación a través de las pantallas que están en la línea de visión.
7. Método según la reivindicación 6, en donde la fase de reinicializar de manera selectiva al menos uno de los valores paramétricos de control de calidad de imagen comprende las fases de:
controlar el campo de visión y la ampliación de las imágenes visualizadas;
regular el equilibrio de colores de las imágenes visualizadas;
ajustar la nitidez de las imágenes visualizadas;
ajustar la luminosidad de las imágenes visualizadas.
8. Método para proporcionar a un operador humano imágenes de vídeo coloreadas, de alta definición, ampliadas de manera variable, dinámicas, estereoscópicas, y optimizadas desde el punto de vista cualitativo, de un ambiente operativo físico para ayudar a dicho operador humano durante una sesión de observación y manipulación asociada con objetos que están dentro de dicho ambiente, comprendiendo el método que se reivindica en cualquiera de las reivindicaciones anteriores, y en donde:
los dispositivos generadores de imágenes comprenden videocámaras que producen imágenes de vídeo dinámicas de la sesión de observación y manipulación;
las señales eléctricas codificadas comprenden señales de vídeo;
los dispositivos generadores de imágenes comprenden pantallas de visualización situadas entre el ambiente operativo y los ojos del operador humano;
la fase de monitorizar los valores paramétricos de control de calidad de imagen de los dispositivos generadores de imágenes comprende la monitorización de los cambios que se han producido accidentalmente, manualmente o automáticamente en dichos parámetros de control de calidad de imagen; y
la fase de ajuste automático de las posiciones físicas relacionadas con la calidad estereoscópica comprende la optimización automática de los emplazamientos físicos de las cámaras de vídeo entre si.
9. Método según la reivindicación 8, que comprende además la fase de:
equilibrar dichos valores paramétricos de control de calidad de imagen entre las cámaras de vídeo para conseguir imágenes uniformes en dichas pantallas de visualización.
10. Método según la reivindicación 8, que comprende además la fase de ajuste manual de los valores paramétricos operativos de control de calidad de imagen de las cámaras de vídeo por el operador humano.
11. Método según la reivindicación 10, en donde la fase de ajuste manual comprende las fases de:
inicialización de los ajustes operativos de las cámaras de vídeo a unos valores preseleccionados;
reajuste selectivo de dichos ajustes operativos de las cámaras de vídeo a unos valores preseleccionados;
reajuste selectivo de al menos un ajuste operativo de las cámaras de vídeo a valores determinados;
desactivación del ajuste automático de los ajustes operativos de las cámaras de vídeo;
desactivación de la visualización de las imágenes de vídeo de las pantallas de visualización para proporcionar una visión clara del operador humano en la línea de visión.
12. Método según la reivindicación 11, en donde la fase de inicialización de los ajustes operativos comprende las fases de:
activación de las videocámaras;
ajuste del control del equilibrio de colores a un valor predefinido;
ajuste del aumento a un valor predefinido;
ajuste de la velocidad de obturación a un valor predefinido;
desconexión del control automático de amplificación;
activación del control automático del diafragma;
ajuste de la distancia de enfoque a un valor predefinido;
cálculo del valor de la distancia interpupilar según la distancia de enfoque;
obtención del valor del ángulo de convergencia según el valor de la distancia interpupilar;
realización de movimientos de las cámaras de vídeo correspondientes a la distancia interpupilar y al ángulo de convergencia;
estabilización de los controles de las videocámaras.
13. Método según la reivindicación 13, en donde la fase de reajuste selectivo comprende las fases de:
ajuste de la velocidad de obturación a un valor predefinido;
desconexión del control automático de amplificación;
activación del control automático del diafragma;
activación del control automático de enfoque;
equilibrado de las videocámaras en función del nivel de luminancia;
equilibrado de las videocámaras en función de la distancia de enfoque.
14. Método según la reivindicación 8, en donde la fase de optimización automática de los emplazamientos físicos de las cámaras de vídeo entre si comprende las fases de:
monitorización de los ajustes de la distancia de enfoque de las cámaras de vídeo;
cálculo del valor óptimo de la distancia interpupilar y del ángulo de convergencia correspondiente;
transformación de los valores resultantes en señales de control eléctricas adecuadas mediante una interfaz de servomotor operativa;
activación de dispositivos de servomotor adecuados operativos en la posición de las cámaras de vídeo entre si;
repetición de dichas fases anteriores.
15. Método según la reivindicación 14, en donde el resultado de dicho cálculo de la distancia interpupilar se obtiene dividiendo la distancia de enfoque entre el valor predefinido.
16. Método según la reivindicación 14, en donde el resultado de calcular el ángulo de convergencia se obtiene extrayendo el valor deseado de una tabla predefinida de acuerdo con la distancia interpupilar calculada.
17. Sistema de observación y de ampliación videoestereoscópica que comprende:
dos cámaras de vídeo (22, 24) unidas mecánicamente, integradas en un módulo de cámaras (20) que puede llevar encima un operador humano (10);
dos pantallas de visualización (62, 64) integradas en una unidad de visualización (30) de cabeza, que puede llevar encima el operador humano;
una unidad de control de operador (40) que puede llevar encima el operador humano;
una interfaz y una unidad de proceso (50); y
un circuito de vídeo adecuado que conecta las dos cámaras mencionadas (22, 24) y las dos pantallas de visualización mencionadas (62, 64), a través del cual las cámaras de vídeo transmiten señales eléctricas adecuadas que representan imágenes dinámicas del ambiente operativo a visualizar en las pantallas de visualización;
caracterizado por unos enlaces de comunicación en serie y un circuito en serie a través de los cuales las señales numéricas que representan los valores paramétricos de control de calidad de imagen de las cámaras de vídeo son enviadas a la interfaz y a la unidad de proceso (50), y al controlador del operador (40) para permitir la monitorización y por tanto el equilibrado automático y la optimización de las imágenes reproducidas;
y en donde el módulo de cámaras comprende:
un primer servomotor (210) acoplado en las cámaras de vídeo para llevar a cabo el posicionamiento de las cámaras con respecto a la distancia entre las dos cámaras;
y un segundo servomotor (216) acoplado en las dos cámaras de vídeo para llevar a cabo el posicionamiento de las cámaras con respecto al ángulo de convergencia formado por las líneas de visión correspondientes a los objetos que están en el espacio de operación;
formando así un mecanismo de distancia Interpupilar/ángulo de covergencia controlable.
18. Sistema según la reivindicación 17, en donde la unidad del controlador del operador comprende:
una pantalla de visualización para indicar el estado del sistema, los valores paramétricos de control de calidad de imagen y el modo de operación en curso;
un control de inicialización para proporcionar al operador humano la opción de ajustar el parámetro de control de calidad de imagen a unos valores predefinidos;
un control de reajuste para proporcionar al operador la opción de reajustar los valores paramétricos de control de calidad de imagen;
un control de Modos para seleccionar manualmente los parámetros de control de calidad de imagen;
un control hacia arriba y un control hacia abajo para ajustar manualmente los valores paramétricos correspondientes al modo en curso; y
un control de visualización en transparencia para desconectar las señales de vídeo transmitidas por las cámaras de vídeo a la pantalla de visualización para permitir al operador ver el espacio de operación por la línea de visión natural.
19. Sistema según la reivindicación 18, en donde los controles son botones pulsadores.
20. Sistema según la reivindicación 17, en donde la interfaz y la unidad de proceso comprenden:
un dispositivo de control principal para encender y apagar el sistema;
una interfaz de videocámaras para manipular las señales de vídeo recibidas de las cámaras de vídeo;
una interfaz de control de cámaras para manipular las señales numéricas que corresponden a los valores paramétricos de control de calidad de imagen recibidas de las cámaras de vídeo y transmitir señales numéricas procesadas desde el procesador a las cámaras correspondientes;
una interfaz de visualización montada en la cabeza para transmitir señales eléctricas correspondientes a las imágenes de vídeo a las pantallas de visualización;
una servointerfaz para traducir las señales de control relativas al posicionamiento de las cámaras de vídeo a servoórdenes adecuadas y enviar dichas servoórdenes al mecanismo de ajuste de emplazamiento;
un dispositivo de memorización para contener funciones de control ejecutables, tablas de control y valores paramétricos de control de calidad de imagen predefinidos;
un procesador para procesar señales numéricas en función de los valores paramétricos de control de calidad de imagen;
una interfaz de unidad de control para recibir órdenes del operador;
un dispositivo de alimentación eléctrica/converti-
dor DC;
una unidad de temporización y de control.
21. Sistema según la reivindicación 20, en donde el dispositivo de control principal es un conmutador protegido.
22. Sistema según la reivindicación 17, en donde las pantallas de visualización son Dispositivos de Cristal Líquido.
23. Sistema según la reivindicación 17, en donde las cámaras de vídeo tienen una salida S-VHS.
24. Sistema según la reivindicación 17, en donde las pantallas de visualización tienen una capacidad de visualización en transparencia integrada.
25. Sistema según la reivindicación 17, que comprende además capacidades de grabación y de reproducción que corresponden a las imágenes dinámicas generadas.
ES00942345T 1999-07-13 2000-07-06 Sistema de observacion vedeoestereoscopica y de ampliacion de imagen. Expired - Lifetime ES2218177T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14344399P 1999-07-13 1999-07-13
US143443P 1999-07-13

Publications (1)

Publication Number Publication Date
ES2218177T3 true ES2218177T3 (es) 2004-11-16

Family

ID=22504108

Family Applications (1)

Application Number Title Priority Date Filing Date
ES00942345T Expired - Lifetime ES2218177T3 (es) 1999-07-13 2000-07-06 Sistema de observacion vedeoestereoscopica y de ampliacion de imagen.

Country Status (9)

Country Link
EP (1) EP1197094B1 (es)
JP (1) JP2003504976A (es)
CN (1) CN1373969A (es)
AT (1) ATE259571T1 (es)
AU (1) AU5703400A (es)
DE (1) DE60008247T2 (es)
ES (1) ES2218177T3 (es)
IL (1) IL147530A0 (es)
WO (1) WO2001005161A1 (es)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1340470B1 (de) * 2002-03-01 2004-09-15 BrainLAB AG Operationslampe mit Kamerasystem zur 3D-Referenzierung
US7567833B2 (en) 2004-03-08 2009-07-28 Stryker Leibinger Gmbh & Co. Kg Enhanced illumination device and method
JP4767550B2 (ja) * 2005-02-10 2011-09-07 オリンパス株式会社 医療用撮影装置
BRPI0506340A (pt) * 2005-12-12 2007-10-02 Univ Fed Sao Paulo Unifesp sistema de visualização de realidade aumentada com computação pervasiva
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US20090214436A1 (en) 2008-02-18 2009-08-27 Washington University Dichromic fluorescent compounds
KR101190265B1 (ko) 2009-06-30 2012-10-12 고려대학교 산학협력단 헤드 마운트 수술용 확대 장치
EP2372999A1 (en) * 2010-03-23 2011-10-05 Eliyahu Mashiah Wearable system for filming, recording and communicating during sport activity
JP5704833B2 (ja) * 2010-05-10 2015-04-22 オリンパス株式会社 操作入力装置およびマニピュレータシステム
CN102137269B (zh) * 2011-04-21 2013-02-13 江苏惠通集团有限责任公司 快门式3d眼镜的同步系统及方法
EP3553075B1 (en) 2012-01-23 2025-01-08 Washington University Goggle imaging systems and methods
FR2997810B1 (fr) * 2012-11-07 2016-01-29 Stereolabs Alignement automatique des cameras dans un systeme 3d
CN103986897B (zh) * 2013-05-13 2017-12-19 段然 医用影像系统和获取医用影像的方法
US10424115B2 (en) 2014-04-24 2019-09-24 Christof Ellerbrock Head-worn platform for integrating virtuality with reality
CA2949241A1 (en) * 2014-05-20 2015-11-26 University Of Washington Through Its Center For Commercialization Systems and methods for mediated-reality surgical visualization
US10806804B2 (en) 2015-05-06 2020-10-20 Washington University Compounds having RD targeting motifs and methods of use thereof
US10222619B2 (en) 2015-07-12 2019-03-05 Steven Sounyoung Yu Head-worn image display apparatus for stereoscopic microsurgery
EP3337385A4 (en) 2015-08-21 2019-04-03 Magic Leap, Inc. EYELIDE FORMALIZATION USING EYE POST MEASUREMENT
EP3761232B1 (en) 2015-10-16 2025-12-03 Magic Leap, Inc. Eye pose identification using eye features
TWI791236B (zh) * 2015-12-30 2023-02-01 美商艾倫神火公司 光學窄播
US10973391B1 (en) 2017-05-22 2021-04-13 James X. Liu Mixed reality viewing of a surgical procedure
TWI650100B (zh) * 2017-07-31 2019-02-11 銘異科技股份有限公司 擴增呼吸道檢查系統
CN109992100B (zh) * 2017-12-30 2022-11-29 深圳多哚新技术有限责任公司 一种头戴显示系统及其显示方法
JP7139548B2 (ja) * 2018-04-10 2022-09-21 株式会社シンクアウト ヘッドマウントディスプレイ
US10623660B1 (en) 2018-09-27 2020-04-14 Eloupes, Inc. Camera array for a mediated-reality system
FR3091328A1 (fr) * 2018-12-31 2020-07-03 Zedel Dispositif d’équilibrage améliorant le maintien sur la tête d’une lampe frontale
EP4072598A4 (en) 2019-12-13 2024-02-21 Washington University Near infrared fluorescent dyes, formulations and related methods
US11166006B2 (en) 2020-01-22 2021-11-02 Photonic Medical Inc. Open view, multi-modal, calibrated digital loupe with depth sensing
CN113238700B (zh) * 2021-06-03 2024-04-05 艾视雅健康科技(苏州)有限公司 一种头戴式电子辅助视觉设备及其图像自动放大方法
CN115147269A (zh) * 2021-06-28 2022-10-04 平湖莱顿光学仪器制造有限公司 一种二维显微拼接视频处理方法及装置
US12261988B2 (en) 2021-11-08 2025-03-25 Proprio, Inc. Methods for generating stereoscopic views in multicamera systems, and associated devices and systems

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6011581A (en) * 1992-11-16 2000-01-04 Reveo, Inc. Intelligent method and system for producing and displaying stereoscopically-multiplexed images of three-dimensional objects for use in realistic stereoscopic viewing thereof in interactive virtual reality display environments
US5748199A (en) * 1995-12-20 1998-05-05 Synthonics Incorporated Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture
DE69733233T2 (de) * 1996-09-11 2006-01-19 Canon K.K. Bildverarbeitung zur dreidimensionalen Wiedergabe von Bilddaten auf der Anzeige eines Bildaufnahmegeräts

Also Published As

Publication number Publication date
ATE259571T1 (de) 2004-02-15
DE60008247T2 (de) 2004-12-02
EP1197094A1 (en) 2002-04-17
IL147530A0 (en) 2002-08-14
EP1197094B1 (en) 2004-02-11
DE60008247D1 (de) 2004-03-18
JP2003504976A (ja) 2003-02-04
AU5703400A (en) 2001-01-30
CN1373969A (zh) 2002-10-09
WO2001005161A1 (en) 2001-01-18

Similar Documents

Publication Publication Date Title
ES2218177T3 (es) Sistema de observacion vedeoestereoscopica y de ampliacion de imagen.
US11856178B2 (en) Stereoscopic video imaging
US6414708B1 (en) Video system for three dimensional imaging and photogrammetry
ES2899353T3 (es) Sistema digital para captura y visualización de video quirúrgico
JP6396658B2 (ja) 立体視ビデオ画像を観察および追跡するためのシステムおよび方法
US12462924B2 (en) AXR visualization system
US5751341A (en) Stereoscopic endoscope system
US20020163499A1 (en) Method and apparatus for augmented reality visualization
JP2001117049A (ja) 立体観察装置および電子画像表示装置
JP2022048245A (ja) 撮像システムおよび観察方法
WO2021226134A1 (en) Surgery visualization theatre
JP7453403B2 (ja) ヘッドマウント可視化システム
JP2004320722A (ja) 立体観察システム
JPH0662438A (ja) 立体像観察システム
EP0703747A1 (en) Medical video endoscope system
JP2022523670A (ja) 電子ルーペ
Southern et al. Video microsurgery: early experience with an alternative operating magnification system
JP3766598B2 (ja) 観察システム
US20230179755A1 (en) Stereoscopic imaging apparatus with multiple fixed magnification levels
JPH09266919A (ja) 画像表示装置および方法
EP4146115A1 (en) Surgery visualization theatre
MXPA00005695A (es) Sistema de endoscopia y video tridimensionales.