[go: up one dir, main page]

ES2818174T3 - Mejora de imagen endoscópica usando ecualización de histograma adaptativo limitado por contraste (CLAHE) implementada en un procesador - Google Patents

Mejora de imagen endoscópica usando ecualización de histograma adaptativo limitado por contraste (CLAHE) implementada en un procesador Download PDF

Info

Publication number
ES2818174T3
ES2818174T3 ES16797096T ES16797096T ES2818174T3 ES 2818174 T3 ES2818174 T3 ES 2818174T3 ES 16797096 T ES16797096 T ES 16797096T ES 16797096 T ES16797096 T ES 16797096T ES 2818174 T3 ES2818174 T3 ES 2818174T3
Authority
ES
Spain
Prior art keywords
lab
color space
streams
ycbcr
fpga
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16797096T
Other languages
English (en)
Inventor
Itay Sidar
Tal Davidson
Achia Kronman
Lior Mor
Idan Levy
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EndoChoice Inc
Original Assignee
EndoChoice Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EndoChoice Inc filed Critical EndoChoice Inc
Application granted granted Critical
Publication of ES2818174T3 publication Critical patent/ES2818174T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Processing (AREA)

Abstract

Un procedimiento para mejorar imágenes obtenidas por al menos dos elementos de visualización en un sistema de endoscopio (100, 210) usando un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE) en el que dicho sistema de endoscopio (100, 210) incluye un controlador (230, 320) que tiene un módulo de placa base que comprende una matriz de puertas programable en campo (FPGA) (323, 402) configurada para implementar dicho algoritmo, comprendiendo dicho procedimiento las etapas de: introducir flujos de vídeo del espacio de color YCbCr a un adaptador en dicha FPGA; convertir dichos flujos de vídeo del espacio de color YCbCr en flujos de vídeo del espacio de color de Lab dentro de dicho adaptador; enviar dichos flujos de vídeo del espacio de color de Lab a un capturador de fotogramas en dicha FPGA; capturar dichos flujos de vídeo del espacio de color de Lab como fotogramas del espacio de color de Lab dentro de dicho capturador de fotogramas; extraer dichos fotogramas del espacio de color de Lab del capturador de fotogramas utilizando un módulo de recuperación en dicha FPGA; reorganizar los datos del fotograma del espacio de color de Lab dentro de dicho módulo de recuperación para generar flujos de Lab retardados; enviar dichos flujos de Lab retardados para separar módulos dentro de un algoritmo de interpolación en dicha FPGA; y procesar dichos flujos de Lab retardados con dicho algoritmo CLAHE dentro de dichos módulos separados para generar flujos de Lab con contraste mejorado.

Description

DESCRIPCIÓN
Mejora de imagen endoscópica usando ecualización de histograma adaptativo limitado por contraste (CLAHE) implementada en un procesador
Campo
La presente memoria descriptiva se refiere en general a sistemas de endoscopia y, más en particular, a un sistema de endoscopia de múltiples elementos de visualización que mejora la imagen mediante la implementación de un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE) en un procesador, preferentemente una matriz de puertas programable en campo (FPGA).
Antecedentes
Los endoscopios han logrado una gran aceptación dentro de la comunidad médica, ya que proporcionan un medio para realizar procedimientos con un trauma mínimo para el paciente al tiempo que permiten al médico ver la anatomía interna del paciente. A lo largo de los años, se han desarrollado y categorizado numerosos endoscopios de acuerdo con aplicaciones específicas, tales como cistoscopia, colonoscopia, laparoscopia, endoscopia digestiva alta y otras. Los endoscopios pueden insertarse en los orificios naturales del cuerpo o mediante una incisión en la piel. Un endoscopio suele ser un eje tubular alargado, rígido o flexible, que tiene una cámara de vídeo o un conjunto de lentes de fibra óptica en su extremo distal. El eje está conectado a un mango que a veces incluye un ocular para una visualización directa. La visualización también suele ser posible a través de una pantalla externa. Se pueden insertar varias herramientas quirúrgicas a través de un canal de trabajo en el endoscopio para realizar diferentes procedimientos quirúrgicos.
Los endoscopios, como los colonoscopios, que se utilizan actualmente, suelen tener una cámara frontal para ver el órgano interno, tal como el colon, un iluminador, un inyector de líquido para limpiar la lente de la cámara y, a veces, también el iluminador, y un canal de trabajo para la inserción. de herramientas quirúrgicas, por ejemplo, para extirpar pólipos que se encuentran en el colon. A menudo, los endoscopios también tienen inyectores de líquido ("chorro") para limpiar una cavidad del cuerpo, tal como el colon, en la que se insertan. Los iluminadores utilizados habitualmente son fibras ópticas que transmiten luz, generada de forma remota, a la sección de la punta del endoscopio. También se conoce el uso de diodos emisores de luz (LED) para iluminación.
Los endoscopios actuales ofrecen opciones limitadas para controlar las características de las imágenes de vídeo que muestran. La ecualización de histograma adaptativo limitado por contraste limitado (CLAHE) es un algoritmo de procesamiento de imágenes que se utiliza para intensificar el contraste tanto de la luminancia como del color en las regiones de la imagen, dependiendo de un umbral de procesamiento definido por el usuario. Como resultado de la intensificación, se mejoran los detalles finos y, por lo tanto, un médico puede detectarlos y diagnosticarlos mejor. El documento US 2012/209287 A1 desvela un procedimiento de mejora del contraste local que transforma una primera pluralidad de componentes de color de una primera imagen de color visual en un componente de brillo modificado mediante el uso de una primera transformación. La primera pluralidad de componentes de color está en un primer espacio de color. El componente de brillo modificado es un componente de brillo de un segundo espacio de color. El segundo espacio de color también incluye una pluralidad de componentes cromáticos. El procedimiento transforma todos los componentes de color del primer espacio de color en los componentes cromáticos del segundo espacio de color. A continuación, el procedimiento transforma el componente de brillo modificado y los componentes cromáticos del segundo espacio de color en una pluralidad de nuevos componentes de color, en el primer espacio de color, de una segunda imagen de color visual. El procedimiento transmite la pluralidad de nuevos componentes de color a un dispositivo, tal como un dispositivo de visualización.
Existe la necesidad en la técnica de procedimientos de procesamiento de imágenes que se puedan implementar dentro de las limitaciones de tamaño y hardware de los dispositivos médicos, tales como los endoscopios, y que también proporcionen una opción para controlar el contraste y/o el ruido en el color y las imágenes de vídeo y así mejorar las imágenes.
Sumario
A continuación se describen las realizaciones tratadas en la presente memoria descriptiva. Estas realizaciones no son necesariamente realizaciones de la invención. La invención se define únicamente por las reivindicaciones. En algunas realizaciones, la presente memoria descriptiva desvela un controlador para un sistema de endoscopio de múltiples elementos de visualización, que comprende: un módulo de placa base; una matriz de puertas programable en campo (FPGA) configurada para implementar un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE) para mejorar las imágenes obtenidas por dicho sistema de múltiples elementos de visualización. Opcionalmente, dicha FPGA comprende un adaptador que tiene módulos de conversión. Aún opcionalmente, dicha FPGA comprende un capturador de fotogramas. Opcionalmente, dicha FPGA comprende un módulo de recuperación. Aún opcionalmente, dicha FPGA comprende un algoritmo de interpolación. Aún opcionalmente, dicha FPGA comprende además un controlador de histograma.
Opcionalmente, dicho módulo de placa base comprende además memoria DDR3 en comunicación con dicho capturador de fotogramas.
En algunas realizaciones, la presente memoria desvela un procedimiento para mejorar imágenes obtenidas por un sistema de endoscopio de múltiples elementos de visualización que usa un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE) en el que dicho sistema de endoscopio incluye un controlador que tiene un módulo de placa base que comprende un procesador, tal como un unidad de procesamiento general o matriz de puertas programable en campo (FPGA), configurada para implementar dicho algoritmo, comprendiendo dicho procedimiento las etapas de: introducir flujos de vídeo de espacio de color YCbCr en un adaptador en dicho procesador; convertir dichos flujos de vídeo de espacio de color YCbCr en flujos de vídeo de espacio de color Lab dentro de dicho adaptador; empujar dichos flujos de vídeo de espacio de color Lab a un capturador de fotogramas en dicho procesador; capturar dichos flujos de vídeo del espacio de color Lab como fotogramas del espacio de color Lab dentro de dicho capturador de fotogramas; extraer dichos fotogramas del espacio de color Lab del capturador de fotogramas usando un módulo de recuperación en dicho procesador; reorganizar los datos del fotograma del espacio de color Lab dentro de dicho módulo de recuperación para generar flujos Lab retardados; empujar dichos flujos Lab retardados para separar módulos dentro de un algoritmo de interpolación en dicho procesador; y procesar dichos flujos Lab retardados con dicho algoritmo CLAHE dentro de dichos módulos separados para generar flujos Lab con contraste mejorado.
Opcionalmente, la conversión de dichos flujos de espacio de color YCbCr en flujos de vídeo de espacio de color Lab comprende las etapas de: realizar la conversión de YCbCr a RGB utilizando la instancia MAD; realizar una función similar a Y (x) = x A 2,40 usando una LUT; realizar la conversión de RGB a XYZ mediante la instancia MAD; ejecutar una función similar a Y (x) = x a 0,33 usando una LUT; y realizar la conversión de XYZ a Lab mediante la instancia MAD.
Opcionalmente, dicho procedimiento comprende además convertir dichos flujos LAB con contraste mejorado en flujos YCbCr con contraste mejorado. Aún opcionalmente, dicha conversión de los flujos Lab con contraste mejorado en flujos YCbCr con contraste mejorado comprende las etapas de: realizar la conversión Lab a XYZ usando la instancia MAD; ejecutar una función similar a Y (x) = x a 0,33 usando una LUT; realizar la conversión de XYZ a RGB mediante la instancia MAD; realizar una función similar a Y (x) = x a (1/2,40) usando una LUT; y realizar la conversión de RGB a YCbCr utilizando la instancia MAD.
En algunas realizaciones, la presente memoria descriptiva desvela un procedimiento para mejorar imágenes obtenidas por al menos dos elementos de visualización en un sistema de endoscopio usando un procedimiento de ecualización de histograma adaptativo limitado por contraste (CLAHE) en el que dicho sistema de endoscopio incluye un controlador que tiene un módulo de placa base que comprende una matriz de puertas programable en campo (FPGA) configurada para implementar dicho procedimiento, comprendiendo dicho procedimiento las etapas de: introducir dos flujos de vídeo de espacio de color YCbCr desde al menos dos elementos de visualización a un adaptador en dicha FPGA, proporcionando cada elemento de visualización un flujo de vídeo de espacio de color YCbCr; convertir los al menos dos flujos de vídeo de espacio de color YCbCr en al menos dos flujos de vídeo de espacio de color Lab correspondientes dentro de dicho adaptador; enviar los al menos dos flujos de vídeo de espacio de color Lab a un capturador de fotogramas en dicha FPGA; capturar los al menos dos flujos de vídeo de espacio de color Lab como correspondientes a al menos dos fotogramas de espacio de color Lab dentro de dicho capturador de fotogramas; extraer los al menos dos fotogramas del espacio de color Lab del capturador de fotogramas utilizando un módulo de recuperación en dicha FPGA; reorganizar los datos del fotograma del espacio de color Lab dentro de dicho módulo de recuperación para generar al menos dos flujos Lab retardados correspondientes a los al menos dos fotogramas del espacio de color Lab extraídos por el módulo de recuperación; empujar los al menos dos flujos Lab retardados para que correspondan al menos con dos módulos separados dentro de un algoritmo de interpolación en dicha FPGA; y procesar cada flujo Lab retardado con dicho algoritmo CLAHE dentro de dichos módulos separados para generar al menos dos flujos Lab con contraste mejorado.
Opcionalmente, la conversión de un flujo de espacio de color YCbCr en un flujo de vídeo de espacio de color Lab comprende las etapas de: realizar la conversión de YCbCr a RGB usando la instancia MAD; realizar una función similar a Y (x) = x a 2,40 usando una LUT; realizar la conversión de RGB a XYZ mediante la instancia MAD; ejecutar una función similar a Y (x) = x a 0,33 usando una LUT; y realizar la conversión de XYZ a Lab mediante la instancia MAD.
Opcionalmente, el procedimiento de mejorar las imágenes obtenidas por al menos dos elementos de visualización comprende además convertir cada uno de los al menos dos flujos Lab con contraste mejorado en al menos dos flujos YCbCr con contraste mejorado correspondientes.
Opcionalmente, convertir cada flujo Lab con contraste mejorado en un flujo YCbCr con contraste mejorado comprende las etapas de: realizar la conversión Lab a XYZ usando la instancia MAD; ejecutar una función similar a Y (x) = x a 0,33 usando una LUT; realizar la conversión de XYZ a RGB mediante la instancia MAD; realizar una función similar a Y (x) = x A (1/2,40) usando una LUT; y realizar la conversión de RGB a YCbCr utilizando la instancia MAD.
Opcionalmente, el procedimiento de mejora de imágenes en el que las imágenes se obtienen a partir de tres elementos de visualización comprende las etapas de: introducir tres flujos de vídeo de espacio de color YCbCr desde los tres elementos de visualización a un adaptador en dicha FPGA; convertir los tres flujos de vídeo del espacio de color YCbCr en los correspondientes tres flujos de vídeo del espacio de color Lab dentro de dicho adaptador; empujar los tres flujos de vídeo del espacio de color Lab a un capturador de fotogramas en dicha FPGA en forma de un flujo de vídeo obtenido de un solo elemento de visualización, estando una entrada Y del capturador de fotogramas alimentada por un flujo de vídeo de espacio de color Lab del primer elemento de visualización, estando una entrada Cb del capturador de fotogramas alimentada por un flujo de vídeo del espacio de color Lab del segundo elemento de visualización y estando una entrada Cr del capturador de fotogramas alimentada por un flujo de vídeo de espacio de color Lab del tercer elemento de visualización; capturar los tres flujos de vídeo del espacio de color Lab como correspondientes tres fotogramas del espacio de color Lab dentro de dicho capturador de fotogramas; extraer los tres fotogramas del espacio de color Lab del capturador de fotogramas utilizando un módulo de recuperación en dicha FPGA; reorganizar los datos del fotograma del espacio de color Lab de los tres fotogramas del espacio de color Lab dentro de dicho módulo de recuperación para generar tres flujos Lab retardados correspondientes a los tres marcos del espacio de color Lab extraídos por el módulo de recuperación; empujar los tres flujos Lab retardados a los tres módulos separados correspondientes dentro de un algoritmo de interpolación en dicha FPGA; y procesar cada flujo Lab retardado con dicho algoritmo CLAHE dentro de dichos módulos separados para generar tres flujos Lab con contraste mejorado, siendo un primero, un segundo y un tercer flujo Lab con contraste mejorado, correspondiendo cada flujo Lab con contraste mejorado a un elemento de visualización del endoscopio.
Opcionalmente, el primer elemento de visualización es un elemento de visualización izquierdo del endoscopio, el segundo elemento de visualización es un elemento de visualización central del endoscopio y el tercer elemento de visualización es un elemento de visualización derecho del endoscopio.
Opcionalmente, el primero de los tres flujos Lab con contraste mejorado se muestra como una primera imagen en una o más pantallas de visualización acopladas al controlador, el segundo de los tres flujos Lab con contraste mejorado se muestra como una segunda imagen en una o más pantallas de visualización acopladas al controlador, y el tercero de los tres flujos Lab con contraste mejorado se muestra como una tercera imagen en una o más pantallas de visualización acopladas al controlador.
Opcionalmente, cada flujo Lab con contraste mejorado se muestra como una imagen con contraste mejorado en un dispositivo de visualización acoplado con el controlador, comprendiendo cada imagen mejorada con contraste una pluralidad de fotogramas que tienen un mayor grado de contraste en comparación con la correspondiente pluralidad de fotogramas en la imagen correspondiente obtenida a partir de un elemento de visualización del endoscopio antes de ser procesado usando el procedimiento de mejora de imagen de la presente memoria descriptiva.
Las realizaciones mencionadas anteriormente y otras realizaciones de la presente memoria descriptiva se describirán con mayor profundidad en los dibujos y la descripción detallada que se proporciona a continuación. Breve descripción de los dibujos
Se apreciarán estas y otras características y ventajas, a medida que se entiendan mejor con referencia a la siguiente descripción detallada cuando se considere en relación con los dibujos adjuntos, en los que:
La figura 1 ilustra un sistema de endoscopia de múltiples cámaras, de acuerdo con algunas realizaciones de la presente memoria descriptiva;
la figura 2 representa esquemáticamente un diseño e ejemplo de un sistema de endoscopia y una unidad de interfaz desplegados en un quirófano, de acuerdo con una realización de la presente memoria descriptiva; la figura 3 es un diagrama de bloques que ilustra una arquitectura de procesamiento de vídeo de ejemplo, de acuerdo con una realización de la presente memoria descriptiva;
la figura 4A ilustra los componentes de una matriz de puertas programable en campo (FPGA) y su periferia, de acuerdo con una realización de la presente memoria descriptiva;
la figura 4B ilustra la derivación de una función de distribución acumulativa (CDF) lograda recortando un histograma usando un umbral bajo, de acuerdo con una realización de la presente memoria descriptiva;
la figura 4C ilustra la derivación de una CDF lograda recortando un histograma, usando un umbral más alto que el mostrado en la Figura 4B, de acuerdo con una realización de la presente memoria descriptiva;
la figura 5A es un diagrama de flujo que ilustra las etapas de mejora de imágenes obtenidas mediante un sistema de endoscopio de múltiples elementos de visualización que usa un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE), de acuerdo con una realización de la presente memoria descriptiva; la figura 5B es un diagrama de flujo que ilustra las etapas de mejora de imágenes obtenidas por un sistema de endoscopio que tiene tres elementos de visualización, utilizando un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE), de acuerdo con una realización de la presente memoria descriptiva; la figura 6A ilustra una canalización de procedimiento que convierte el espacio de color YCbCr en espacio de color Lab, de acuerdo con las realizaciones de la memoria descriptiva;
la figura 6B es un diagrama de flujo que ilustra las etapas realizadas por la canalización de procedimiento mostrada en la figura 6A;
la figura 7A ilustra una canalización de procedimiento que convierte el espacio de color Lab en espacio de color YCbCr, de acuerdo con realizaciones de la memoria descriptiva;
la figura 7B es un diagrama de flujo que ilustra las etapas realizadas por la canalización de procedimiento mostrada en la figura 7A;
la figura 8A ilustra una imagen tradicional capturada por un endoscopio colocado dentro de una cavidad corporal; y
la figura 8B ilustra la imagen de la figura 8A mejorada utilizando el procedimiento de la presente memoria descriptiva.
Descripción detallada
La presente memoria descriptiva desvela sistemas y procedimientos para mejorar imágenes mediante el uso de un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE) en un procesador, tal como una matriz de puertas programable en campo (FPGA). Las imágenes pueden obtenerse mediante los elementos de formación de imágenes de un endoscopio de múltiples elementos de formación de imágenes de un sistema de endoscopia.
La presente memoria descriptiva se refiere a múltiples realizaciones.
Como se usan en el presente documento, los artículos indefinidos "un" y "una" significan "al menos uno" o "uno o más" a menos que el contexto indique claramente lo contrario.
Cabe señalar en el presente documento que cualquier característica o componente descrito en asociación con una realización específica puede usarse e implementarse con cualquier otra realización a menos que se indique claramente lo contrario.
Las realizaciones de procedimientos y/o dispositivos de la memoria descriptiva pueden implicar realizar o completar tareas seleccionadas de forma manual, automática o una combinación de las mismas. Algunas realizaciones de la memoria descriptiva se implementan con el uso de componentes que comprenden hardware, software, firmware o combinaciones de los mismos. En algunas realizaciones, algunos componentes son componentes de uso general, como ordenadores u osciloscopios de uso general. En algunas realizaciones, algunos componentes son componentes dedicados o personalizados, tal como circuitos, circuitos integrados o software.
Por ejemplo, en algunas realizaciones, al menos una parte de los procedimientos puede implementarse como una pluralidad de instrucciones de software ejecutadas por un procesador de datos, que puede ser parte de un ordenador de uso general o personalizado. En algunas realizaciones, el procesador de datos u ordenador comprende una memoria volátil para almacenar instrucciones y/o datos y/o un almacenamiento no volátil, por ejemplo, un disco duro magnético y/o un medio extraíble, para almacenar instrucciones y/o datos. En algunas realizaciones, la implementación incluye una conexión de red. En algunas realizaciones, la implementación incluye una interfaz de usuario, que generalmente comprende uno o más dispositivos de entrada (por ejemplo, que permite la entrada de comandos y/o parámetros) y dispositivos de salida (por ejemplo, que permite informar parámetros de funcionamiento y resultados).
Debe apreciarse que ciertas características de la memoria descriptiva que, por motivos de claridad, se describen en el contexto de realizaciones distintas, pueden también combinarse en una única realización. A la inversa, diversas características de la memoria descriptiva, que, por brevedad, se describen en el contexto de una única realización, también pueden proporcionarse por separado o en cualquier subcombinación adecuada o según sea adecuado en cualquier otra realización descrita de la memoria descriptiva. Ciertas características descritas en el contexto de diversas realizaciones no deben considerarse características esenciales de esas realizaciones, a menos que la realización no funcione sin esos elementos.
Se observa que el término "endoscopio" como se menciona en el presente documento puede hacer referencia, particularmente, a un colonoscopio, de acuerdo con algunas realizaciones, pero no se limita solo a colonoscopios. El término "endoscopio" puede referirse a cualquier instrumento utilizado para examinar el interior de un órgano hueco o cavidad del cuerpo.
También debe tenerse en cuenta que una pluralidad de términos, como sigue, que aparecen en esta memoria descriptiva, se usan indistintamente para aplicar o hacer referencia a componentes similares y de ninguna manera deben interpretarse como limitantes:
• "Tubo/cable de servicio" también puede denominarse "tubo/cable umbilical"
• Una "unidad de control principal" también puede denominarse "unidad de control", "controlador principal" o "caja de fusibles".
• Un "elemento de visualización" también puede denominarse dispositivo/componente de captura de imágenes, componentes de visualización, cámara, cámara de televisión o cámara de vídeo.
• Un "canal de trabajo" también puede denominarse "canal de servicio".
• Un "iluminador" también puede denominarse "fuente de iluminación" y, en algunas realizaciones, un LED.
• Un "eje flexible" también puede denominarse sección de flexión o mecanismo de vértebra.
• Un "flujo de vídeo" se refiere a una serie de fotogramas individuales. Debería apreciarse que, cuando los procedimientos y sistemas de la presente realización se aplican a un flujo de vídeo, se aplican a cada fotograma individual, según fotograma por fotograma o grupo de fotogramas.
Además, como se usa en esta memoria descriptiva, el término "cámara" se usa para describir un dispositivo para capturar luz. Por tanto, una cámara, en algunas realizaciones, comprende al menos un conjunto de lente óptica. En algunas realizaciones, el término "cámara" se usa para describir un conjunto de lente óptica y su sensor de imagen asociado. En algunas realizaciones, el término "cámara" se usa para describir un sistema de formación de imágenes ópticas, tal como un conjunto o conjuntos de lentes y conjuntos de detectores de estado sólido asociados. En algunas realizaciones, las expresiones "elemento de visualización" y "cámara" pueden usarse indistintamente.
Como se usa en la memoria descriptiva, la expresión "conjunto óptico" se usa para describir un conjunto de componentes que permite que el dispositivo endoscópico capture la luz y transforme esa luz en al menos una imagen. En algunas realizaciones, se emplean lentes/elementos ópticos para capturar LA luz y se emplean dispositivos de captura de imágenes, tales como sensores, para transformar esa luz en al menos una imagen.
Los dispositivos de captura de imágenes pueden ser Dispositivos de Carga Acoplada (CCD) o sensores de imagen de semiconductores complementarios de óxido metálico (CMOS), u otros dispositivos adecuados que tengan una superficie sensible a la luz que se pueda utilizar para capturar una imagen. En algunas realizaciones, se emplea un sensor tal como un Dispositivo de Carga Acoplada (CCD) o un sensor de imágenes de semiconductor complementario de óxido metálico (CMOS) (para detectar la luz reflejada recibida por un elemento óptico).
En algunas realizaciones, un elemento óptico comprende una pluralidad de elementos ópticos tales como conjuntos de lentes, lentes y vidrio protector, y está configurado para recibir la luz reflejada desde los objetos objetivo.
Un conjunto óptico, como se usa en la memoria descriptiva, comprende al menos un conjunto de lentes, su o sus sensores asociados y su placa de circuito asociada. En algunas realizaciones, un "conjunto óptico" puede comprender más de un elemento de visualización o cámara, uno más sensores asociados y una o más placas de circuito asociadas. En algunas realizaciones, un "conjunto óptico" puede comprender un elemento de visualización frontal, su sensor asociado y su placa de circuito asociada. En algunas realizaciones, un "conjunto óptico" puede comprender un elemento de visualización frontal, sus sensores asociados y su placa de circuito asociada y/o al menos un elemento de visualización lateral, sus sensores asociados y sus placas de circuito asociadas. Además, el conjunto óptico normalmente está asociado con al menos un iluminador para iluminar el campo de visión. Por tanto, por ejemplo, un conjunto óptico que apunta hacia el frente incluye un elemento de visualización que apunta al frente con un sensor asociado, una placa de circuito asociada y está asociado con al menos un iluminador.
Los endoscopios que se utilizan actualmente suelen tener elementos de visualización frontal y lateral para visualizar los órganos internos, iluminadores, un inyector de fluido para limpiar la lente de los elementos de visualización y, a veces, también iluminadores y un canal de trabajo para la inserción de herramientas quirúrgicas. Los iluminadores utilizados normalmente son fibras ópticas que transmiten luz, generada de forma remota, a la sección de la punta del endoscopio. También se conoce el uso de diodos emisores de luz (LED) para iluminación.
Se puede insertar una sección de la punta del conjunto de endoscopio en el cuerpo de un paciente a través de un orificio corporal natural, tal como la boca, la nariz, la uretra, la vagina o el ano.
De acuerdo con una realización de la presente memoria descriptiva, un capuchón en la punta puede alojar la sección de la punta. La sección de la punta, con el capuchón de la punta, se puede girar o maniobrar por medio de un eje flexible, que también puede denominarse sección de flexión, por ejemplo, un mecanismo de vértebra. El capuchón de la punta puede configurarse para que encaje sobre las partes internas de la sección de la punta, incluido un conjunto de placa de circuito electrónico y un componente de canalización de fluido, y para proporcionar protección a los componentes internos en las partes internas, tal como una cavidad corporal. A continuación, el endoscopio puede realizar procedimientos de diagnóstico o quirúrgicos dentro de la cavidad corporal. La sección de la punta lleva uno o más elementos de visualización, tales como cámaras, para ver áreas dentro de las cavidades corporales que son el objetivo de estos procedimientos.
El capuchón de la punta puede incluir paneles que tengan una superficie transparente, ventana o abertura para conjuntos de lentes ópticas de elementos de visualización. Los paneles y los elementos de visualización se pueden ubicar en la parte frontal y en los lados de la sección de la punta. Los conjuntos de lentes ópticas pueden incluir una pluralidad de lentes, estáticas o móviles, que proporcionan diferentes campos de visión.
Puede configurarse un conjunto de placa de circuito electrónico para transportar los elementos de visualización, que pueden verse a través de las aberturas de los paneles. Los elementos de visualización pueden incluir un sensor de imágenes, tal como, entre otros, un Dispositivo de Carga Acoplada (CCD) o un sensor de imágenes de Semiconductor complementario de óxido metálico (CMOS).
El conjunto de placa de circuito electrónico puede configurarse para llevar iluminadores que pueden proporcionar iluminación a través de las ventanas ópticas del iluminador. Los iluminadores pueden estar asociados con elementos de visualización y pueden colocarse para iluminar los campos de visión de los elementos de visualización.
Uno o más iluminadores pueden iluminar los campos de visualización de los elementos de visualización. En una realización, los iluminadores pueden ser iluminadores de fibra óptica que transportan luz de fuentes remotas. Las fibras ópticas son portadores de luz que transportan luz desde una fuente de luz ubicada remotamente a los iluminadores. Las fibras ópticas se extienden a lo largo de un tubo de inserción entre la sección de la punta en un extremo distal del endoscopio y un mango en un extremo proximal. Un tubo umbilical/auxiliar conecta el mango a una unidad de control principal. La unidad de control principal permite controlar varias funciones del conjunto del endoscopio, incluida la energía suministrada y la comunicación de señales entre el endoscopio y su pantalla, entre otras.
A continuación se hace referencia a la Figura 1, que muestra un sistema 100 de endoscopia de múltiples elementos de visualización. El sistema 100 puede incluir un endoscopio 102 de múltiples elementos de visualización. El endoscopio 102 de múltiples elementos de visualización puede incluir un mango 104, del cual emerge un eje alargado 106. El eje 106 alargado termina con una sección 108 de punta que se puede girar por medio de una sección 110 de flexión. El mango 104 puede usarse para maniobrar el eje 106 alargado dentro de una cavidad corporal. El mango puede incluir uno o más botones y/o perillas y/o interruptores 105 que controlan la sección 110 de flexión así como funciones tales como la inyección y la succión de fluido. El mango 104 puede incluir además al menos una, y en algunas realizaciones, una o más aberturas 112 del canal de trabajo a través de las cuales se pueden insertar herramientas quirúrgicas, así como una o más aberturas laterales del canal de servicio.
Un cable 114 de servicio, también denominado tubo umbilical, puede conectarse entre el mango 104 y una Unidad 199 de Control Principal. El cable 114 de servicio puede incluir en él uno o más canales de fluido y uno o más canales eléctricos. El canal o canales eléctricos pueden incluir al menos un cable de datos para recibir señales de vídeo de los elementos de visualización frontales y laterales, así como al menos un cable de alimentación para proporcionar energía eléctrica a los elementos de visualización y a los iluminadores discretos.
La unidad 199 de control principal contiene los controles necesarios para visualizar las imágenes de los órganos internos capturadas por el endoscopio 102. La unidad 199 de control principal puede gobernar la transmisión de energía a la sección 108 de la punta del endoscopio 102, tal como para los elementos de visualización de la sección de punta e iluminadores. La unidad 199 de control principal puede controlar además una o más bombas de fluido, líquido y/o succión que suministran las funciones correspondientes al endoscopio 102. Uno o más dispositivos 118 de entrada, tales como un teclado, una pantalla táctil y similares, pueden conectarse a la unidad 199 de control principal con el fin de que se produzca la interacción humana con la unidad 199 de control principal. En la realización mostrada en la figura 1, la unidad 199 de control principal comprende una pantalla/visualización 120 para mostrar información operativa relativa a un procedimiento de endoscopia cuando el endoscopio 102 está en uso. La pantalla 120 puede configurarse para mostrar imágenes y/o flujos de vídeo recibidos de los elementos de visualización del endoscopio 102 de múltiples elementos de visualización. La pantalla 120 puede ser operativa además para mostrar una interfaz de usuario para permitir que un operador humano establezca varias características del sistema de endoscopia.
Opcionalmente, los flujos de vídeo recibidos de los diferentes elementos de visualización del endoscopio 102 de múltiples elementos de visualización pueden mostrarse por separado en al menos un monitor (no visto) cargando información desde la unidad 199 de control principal, ya sea en paralelo o de manera intercambiable (es decir, el operador puede cambiar entre vistas de diferentes elementos de visualización manualmente). Alternativamente, estos flujos de vídeo pueden ser procesados por la unidad 199 de control principal para combinarlos en un solo fotograma de vídeo panorámico, basado en una superposición entre los campos de visión de los elementos de visualización. En una realización, se pueden conectar dos o más pantallas a la unidad 199 de control principal, cada una para mostrar un flujo de vídeo desde un elemento de visualización diferente del endoscopio 102 de múltiples elementos de visualización. La unidad 199 de control principal se describe en la solicitud de patente de Estados Unidos número 14/263,896, titulada "Procesamiento de vídeo en un sistema de endoscopio compacto de múltiples elementos de visualización" y presentada el 28 de abril de 2014.
La figura 2 representa esquemáticamente un diseño de un sistema 210 de endoscopio y una unidad 2900 de interfaz asociada desplegada en una sala de operaciones, según algunas realizaciones. Un paciente 280 está apoyado en una cama 282 y un médico 284 puede emplear un endoscopio 220 del sistema 210 de endoscopio en un procedimiento endoscópico. Un asistente 286 ayuda al médico 284 al otro lado de la cama 282 frente al médico 284. El endoscopio 220 está conectado a un controlador principal 230 mediante un cable 232 de servicio. En realizaciones, el endoscopio 220 proporciona tres vistas endoscópicas simultáneas usando tres cámaras alojadas en la punta del endoscopio 220. El controlador 230 principal está conectado a tres pantallas 240a, 240b y 240c de visualización, en las que cada pantalla de visualización puede configurarse para mostrar una vista correspondiente de las tres vistas endoscópicas proporcionadas por el sistema 210 de endoscopio, sustancialmente como se HA descrito anteriormente. Las pantallas 240a, 240b y 240c de visualización están colocadas de cara al médico 284 y posiblemente elevadas de modo que el médico 284 pueda realizar el procedimiento endoscópico mirando las pantallas de visualización y teniendo una línea de visión sin perturbaciones a las mismas. En algunas realizaciones, las pantallas 240a, 240b y 240c de visualización tienen la forma de una única pantalla grande.
La unidad 2900 de interfaz comprende un procesador de imágenes encerrado con el controlador 230 principal y una unidad 2920 de pantalla de interfaz asociada funcionalmente con el procesador de imágenes. El procesador de imágenes recibe simultáneamente datos de imagen asociados con las tres vistas proporcionadas por el endoscopio 220 desde tres canales de imagen respectivos y genera imágenes que comprenden datos de imagen de las tres vistas, en las que las imágenes se pueden visualizar en la pantalla 2920 de la unidad de interfaz. Por ejemplo, las tres cámaras del endoscopio 220 pueden proporcionar tres flujos de vídeo entrantes, respectivamente, y el procesador de imágenes puede generar entonces un solo flujo de vídeo que comprende datos de imagen de los tres flujos de vídeo entrantes, sustancialmente como se ha descrito anteriormente.
De acuerdo con algunas realizaciones, la pantalla 2920 de la unidad de interfaz está asociada funcionalmente con el procesador de imágenes encerrado con el controlador 230 principal mediante un cable. En algunas realizaciones, la pantalla 2920 de la unidad de interfaz está asociada de forma inalámbrica con el procesador de imágenes. Según algunas realizaciones, la pantalla 2920 de la unidad de interfaz es sustancialmente portátil y se puede desplegar en una multitud de posiciones dentro del quirófano. Además, según algunas realizaciones, la pantalla 2920 de la unidad de interfaz puede desplazarse fácilmente desde una posición a otra posición dentro del quirófano durante un procedimiento. Por ejemplo, la pantalla 2920b o 2920c de la unidad de interfaz puede colocarse de modo que tanto el médico 284 como el asistente 286 puedan ver su pantalla, o la pantalla 2920a de la unidad de interfaz puede colocarse frente al asistente 286.
En algunas realizaciones, la unidad 2900 de interfaz comprende un ordenador de la unidad de interfaz, asociado funcionalmente con el controlador 230 principal y con el procesador de imágenes incluido en el mismo.
En algunas realizaciones, la unidad 2900 de interfaz comprende un módulo 2922 de interfaz de usuario asociado con la pantalla 2920 de la unidad de interfaz, y el asistente 286 puede emplear el módulo 2922 de interfaz de usuario para ordenar a la unidad 2900 de interfaz y/o al ordenador de la unidad de interfaz y/o el sistema 210 de endoscopio. Por ejemplo, el asistente 286 puede emplear el módulo 2922 de interfaz de usuario para introducir y almacenar, en el ordenador de la unidad de interfaz, información textual relacionada con el paciente, tal como datos biográficos relevantes, antes o durante un procedimiento endoscópico. Según algunas realizaciones, el módulo 2922 de interfaz de usuario comprende una pantalla 2924 táctil.
Según algunas realizaciones, el ordenador de la unidad de interfaz puede comunicarse con una red informática, sustancialmente como se describe anteriormente y utilizando un punto de acceso 290 instalado en el quirófano y permitiendo el acceso a dicha red informática. El punto 290 de acceso puede comprender un conector LAN al que está conectado el ordenador de la unidad de interfaz a través de un cable LAN. Según algunas realizaciones, el punto 290 de acceso puede ser un módem Wi-Fi con el que el ordenador de la unidad de interfaz puede comunicarse de forma inalámbrica.
La figura 3 es un diagrama de circuito/componente que detalla la conexión operativa entre un controlador de vídeo o una placa 320 de circuito de controlador de la unidad de control principal 199 de la figura 1 y el endoscopio 310 y las unidades 350 de visualización. Con referencia a la figura 3, la placa 320 de circuito controlador/controlador de vídeo comprende una placa 321 de cámara que controla las fuentes de alimentación a los LED 311, transmite controles para el funcionamiento de los sensores 312 de imagen (correspondientes a una o más cámaras) en el endoscopio, y convierte las señales 313 de prevídeo de los sensores 312 de imagen en señales de vídeo estándar. Los sensores 312 de imagen pueden ser dispositivos de carga acoplada (CCD) o generadores de imágenes de semiconductores complementarios de óxido metálico (CMOS). La placa 321 de cámara recibe la señal o señales 313 de pre-vídeo generadas por los generadores de imágenes del CCD y también otros comandos 314 remotos desde el endoscopio 310.
La placa 320 de circuito del controlador comprende además elementos para procesar el vídeo obtenido de los sensores 312 de imagen a través de la placa 321 de la cámara, así como otros elementos para la supervisión y el control del sistema. Todos estos elementos están conectados con un Módulo de Placa Base 352, que es una placa de circuito impreso (PCB). En varias realizaciones, algunos de estos elementos son circuitos integrados (IC) que están conectados por soldadura, un elemento 326 (SOM o Sistema en Módulo) se conecta mediante montaje, mientras que todos los demás elementos están conectados por medio de cables.
Varios elementos conectados con el Módulo de Placa Base 352 se describen a continuación:
FPGA (Matriz de Puertas Programable en campo) 323:
Una FPGA 323 es un dispositivo lógico programable que se puede personalizar para los requisitos del sistema y realiza tareas que pueden clasificarse en dos tipos: tareas lógicas que se implementan, preferentemente mediante hardware (en lugar de software) y tareas lógicas relacionadas con el procesamiento de imágenes de vídeo. En una realización, el Módulo de Placa Base 352 puede incluir uno o más módulos de memoria dinámica de acceso aleatorio síncrona (DDR3) 333 del tipo de velocidad de datos doble en comunicación con FP-GA 323.
Las tareas lógicas que se implementan preferentemente por hardware pueden incluir, entre otras:
1. Inicialización de algunos circuitos integrados del Módulo de Placa Base 352 al encender el sistema;
2. Botones 340 de supervisión para el Equilibrio de blancos, encendido/apagado de LED, Flujo de aire y Encendido/apagado en el panel frontal 335;
3. Supervisión del correcto funcionamiento del SOM 326 mediante un mecanismo de vigilancia;
4. Realización de una copia de seguridad de algunos de los parámetros del sistema (ejemplo: nivel del flujo de aire), incluso cuando el sistema está apagado; y
5. Comunicación con la Placa de la Cámara 321.
Las tareas lógicas relacionadas con el procesamiento de imágenes de vídeo (que pueden tener parámetros configurables por software) incluyen, aunque sin limitaciones:
1. Multiplexación de entradas de vídeo: cada uno de los múltiples elementos de imagen tiene varias interfaces de vídeo que se multiplexan a través de una Interfaz 351 de Entrada de Vídeo. Además, en algunas realizaciones, varios auxiliares se multiplexan a través de una interfaz 325 de entrada de vídeo auxiliar.
2. Patrón de prueba interno para salidas de vídeo a través de la interfaz 324 de Salida de Vídeo para múltiples pantallas.
3. Conversión entre el patrón de vídeo de las cámaras para mostrar el patrón de vídeo.
4. Inserción de OSD (Visualización en Pantalla), también conocida como superposición gráfica.
5. PIP (Imagen en Imagen).
6. Unión de imágenes de varias cámaras en una imagen que se muestra en una sola pantalla.
7. Ajustes de imagen, tal como el brillo, el contraste, etc.
interfaz 325 de entrada de vídeo auxiliar:
En una realización opcional, la interfaz 325 de entrada de vídeo auxiliar puede comprender vídeo analógico, tal como en color, vídeo, supresión, sincronización (CVBS), S-Vídeo o formato y PbPr o vídeo digital (DVI), y puede mostrarse como tal.
SOM (Sistema en Módulo) 326:
El SOM 326 puede proporcionar una interfaz para dispositivos de entrada, tal como teclado, ratón y pantalla táctil a través de Touch I/F 327. A través de estos dispositivos de entrada, junto con los botones 340 en el panel frontal 335, el usuario puede controlar la funcionalidad del sistema y los parámetros operativos. En una realización, un bus de interconexión rápida de componentes periféricos (PCIe) conecta el SOM 326 con la FPGA 323. Los tipos de tráfico de datos a través del PCIe pueden incluir:
a. SOM 326 a FPGA 323: Comandos (por ejemplo, cuando el usuario cambia los parámetros operativos); y b. FPGA 323 a SOM 326: Registra valores, que proporcionan una indicación del estado interno y las imágenes capturadas.
Otras funcionalidades:
La placa 320 de circuito del controlador puede controlar además una o más bombas de fluido, líquido y/o succión que suministran las funcionalidades correspondientes al endoscopio a través de una I/F 328 neumática, una bomba 329 y una válvula 330 de retención. La placa 320 de circuito del controlador puede comprender además una fuente 345 de alimentación integrada y un panel 335 frontal que puede proporcionar botones 340 operativos para el usuario.
La placa 321 de la cámara puede recibir una o más señales 313 de vídeo que, en una realización, comprenden tres alimentaciones de vídeo, correspondientes a tomas de vídeo por tres elementos de visualización de la punta del endoscopio (uno frontal y dos elementos de visualización laterales), según lo generado por el o los sensores 312 de la imagen correspondiente. En una realización, las tres tomas de alimentación de vídeo, correspondientes a los tres elementos de visualización (los elementos de visualización de vista frontal, de vista del lado izquierdo y de vista del lado derecho) de una punta endoscópica, se muestran en tres monitores respectivos.
Como se ha tratado anteriormente, la FPGA 323 incluye módulos lógicos para varios fines, de acuerdo con realizaciones de la memoria descriptiva. En algunas realizaciones, la FPGA 323 implementa un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE) para mejorar la formación de imágenes. CLAHE es un algoritmo de procesamiento de imágenes para intensificar el contraste tanto de la luminancia y como el color en regiones de imagen donde las diferencias entre los píxeles vecinos son pequeñas. Como resultado, se mejoran los detalles finos que un médico puede detectar y diagnosticar mejor. En realizaciones, un endoscopio que usa CLAHE puede proporcionar imágenes mejoradas de pólipos o vasos sanguíneos en la pared del intestino. En realizaciones, estas imágenes son imágenes de vídeo en tiempo real capturadas por una o más cámaras del endoscopio.
La figura 4A ilustra los componentes de una FPGA 402, que puede ser similar a la FPGA 323 de la figura 3, de acuerdo con algunas realizaciones de la presente memoria descriptiva. La figura 4A también ilustra un dispositivo 470 de memoria DDR3 en comunicación con la FPGA 402. En algunas realizaciones, la FPGA 402 y el dispositivo 470 de memoria DDR3 están ubicados en un módulo de placa base 401 dentro de un sistema de endoscopio. En realizaciones, la FPGA 402 recibe imágenes capturadas por todos los elementos de visualización en el sistema de endoscopio. En realizaciones alternativas, cada elemento de visualización puede estar en comunicación con una FPGA, similar a la FPGA 402.
En algunas realizaciones, la entrada 403 de YCbCr desde cada elemento de visualización se introduce a través de las canalizaciones 404 a un adaptador 405. En algunas realizaciones, cada entrada YCbCr es de 8 bits, 10 bits o de cualquier otra longitud por componente. En una realización, la entrada YCbCr para el adaptador 405 es de 10 bits por componente. El adaptador 405 incluye módulos 406 "Lab, 10b". El adaptador 405 convierte la entrada 403 de YCbCr utilizada como parte de la canalización de imágenes en color en un espacio de color Lab, de acuerdo con algunas realizaciones. Un espacio de color "Lab" es un espacio de color con la dimensión 'L' para la luminosidad y "a" y "b" para las dimensiones del oponente de color, basado en coordenadas comprimidas no linealmente. El espacio de color Lab incluye todos los colores perceptibles. El espacio de color Lab está diseñado para ser perceptualmente uniforme y permite la correlación de la mejora del contraste de la imagen de un algoritmo utilizado en el presente documento y descrito posteriormente con su calidad de percepción. Una imagen de mapa de bits representada como Lab requiere más datos por píxel para obtener la misma precisión que su mapa de bits YCbCr homólogo. En algunas realizaciones, cada entrada 403 YCbCr que incluye 10 bits por componente de color es convertida por el adaptador 405 en un flujo de vídeo de espacio de color Lab de 12 bits por componente, de los cuales los 12 bits se usan para el componente L, mientras que 10 bits se usan para cada uno de los componentes de color a y b, con un total de 32 bits por píxel Lab.
El flujo de vídeo, es decir, el conjunto de fotogramas, generado por el adaptador 405 puede conducirse a dos destinos diferentes y, por tanto, puede tener al menos dos fines. El primer fin es, en algunas realizaciones, impulsar una línea de retraso que comprende una DDR3470 integrada y un capturador 450 de fotogramas interno de FPGA. En algunas realizaciones, un retraso del fotograma (si el vídeo es progresivo, cuando está entrelazado, como es el caso de los sensores NTSC actuales donde el retraso es un campo de vídeo) puede introducirse a través de la línea de retraso. En realizaciones alternativas, la línea de retraso puede implementarse como una memoria interna de FPGA. Como se ha mencionado anteriormente, la ruta de la línea de retraso DDR3 470, alimentada desde el adaptador 405, usa 12 bits para el componente L y 10 bits para cada uno de los componentes a y b (32 bits en total para un píxel Lab). En algunas realizaciones, DDR3470 admite ocho bancos por memoria, de los cuales dos bancos se utilizan para la línea de retraso de fotograma.
En algunas realizaciones, la FPGA 402 comprende un único capturador 450 de fotogramas interno de FPGA, común a todos los elementos de visualización. Debe apreciarse que la FPGA 402, en algunas realizaciones, comprende una pluralidad de capturadores de fotogramas internos de FPGA, similares al capturador 450 de fotogramas. En algunas realizaciones, hay al menos tres capturadores de fotogramas internos de FPGA, uno correspondiente a cada uno de los tres elementos de visualización o cámaras del endoscopio. Además, cada uno de la pluralidad de capturadores de fotogramas tiene una memoria DDR3 integrada (similar a la DDR3470). Por tanto, la placa 401 base incluye una pluralidad de componentes de memoria DDR3 asociados con la pluralidad de capturadores de fotogramas. En aún otras realizaciones, el uso de la memoria DDR3 integrada, para la línea de retraso, es opcional para reducir la latencia y el hardware de repuesto.
En realizaciones, el capturador 450 de fotogramas se alimenta con tres flujos de vídeo (uno por elemento de visualización), cada uno de los cuales comprende un espacio de color Lab. Los fotogramas individuales de los flujos se convierten mediante el adaptador 405 para formar flujos de vídeo digital compatibles. Una de las funciones implementadas por el adaptador 405 es hacer que el flujo de vídeo que alimenta el capturador 450 de fotogramas parezca como si se introdujera desde un solo elemento de visualización, y no múltiples elementos de visualización (tal como los tres elementos de visualización utilizados para el fin de esta descripción). En algunas realizaciones, la entrada Y del capturador 450 de fotogramas es alimentada por un Lab del elemento de visualización izquierdo, la entrada Cb por un Lab del elemento del elemento de visualización central y la entrada Cr por un Lab del elemento de visualización derecho, lo que significa que el capturador 450 de fotogramas es alimentado por tres elementos de visualización. Este modo de funcionamiento puede ser ventajoso al usar un único capturador de fotogramas (para usar con endoscopios de una cámara de acuerdo con algunas realizaciones) con un endoscopio de múltiples cámaras.
En algunas realizaciones, los fotogramas del espacio de color Lab, correspondientes a los tres elementos de visualización, se recuperan del capturador 450 de fotogramas mediante un módulo 460 de recuperación. El módulo 460 de recuperación puede realizar un seguimiento de la sincronización del fotograma de vídeo de entrada (por ejemplo, el recuento de líneas). En realizaciones, el módulo 460 de recuperación puede instruir al capturador 450 de fotogramas sobre qué filas recuperar desde DDR3 470. Estas filas se calculan a partir de las líneas de vídeo que pueden ser necesario mostrar y que están en un cambio de fase constante en relación con el fotograma de entrada. El módulo 460 de recuperación también reordena los datos de las filas recuperadas a un formato comprendido por un algoritmo 420 de interpolación. Los datos de las filas recuperadas pueden incluir tres flujos de vídeo (uno por cada elemento de visualización) donde cada flujo de vídeo comprende componentes Lab. Los flujos Lab retardados, correspondientes a cada elemento de visualización, se alimentan a módulos separados dentro del algoritmo 420 de interpolación donde se procesan de manera similar de acuerdo con el algoritmo CLA-HE de la presente memoria descriptiva.
Como se ha tratado, el flujo de vídeo generado por el adaptador 405 puede conducirse a dos destinos diferentes y, por lo tanto, puede tener al menos dos fines. Para el segundo fin, una segunda ruta de salida del adaptador 405 usa 6 bits por cada componente Lab para enviar a los elementos 410 que construyen y almacenan información de histograma de acuerdo con varias realizaciones de la presente memoria descriptiva. Se puede percibir que la salida de información de imagen del adaptador 405 está dividida en varios mosaicos por los elementos 410. Las unidades de las alturas de los mosaicos están en líneas de vídeo y las anchuras de los mosaicos están en píxeles. Los mosaicos pueden describirse por atributos, tales como las coordenadas verticales clave, incluido el inicio, el centro y el final. En las realizaciones, cada mosaico se solapa con sus mosaicos vecinos. La superposición puede reducir el efecto de mosaico o de borde. Como entienden los expertos en la técnica, un resultado del efecto de mosaico es que una imagen puede parecer que contiene una o más líneas verticales y/u horizontales que atraviesan los centros de los mosaicos. Las líneas verticales/horizontales pueden parecer que dividen la imagen en distintas regiones rectangulares, correspondientes a los mosaicos. Las regiones rectangulares pueden diferir en su luminancia y/o crominancia.
En las realizaciones, la superposición de mosaicos al máximo (50 % teórico - aproximadamente 48 % en la práctica, en cada lado, por eje) puede mitigar el efecto de mosaico en un grado razonable. Además, el uso de interpolación bicúbica en lugar de bilineal para la interpolación entre mosaicos puede reducir aún más el efecto de mosaico. Debe apreciarse que cuanto mayor sea el porcentaje de superposición, mejor será la reducción o mitigación del efecto de mosaico. Al mismo tiempo, la reducción del porcentaje de superposición puede aumentar el nivel de mejora local de la imagen, ya que los mosaicos pueden volverse más pequeños. Independientemente, tanto la localidad de mejora de la imagen como el efecto de mosaico mejoran a medida que aumenta el número de mosaicos. En algunas realizaciones, se utilizan/disponen 64 mosaicos como una matriz de 8x8, es decir, una estructura de mosaicos horizontales verticales de 8 x 8.
La latencia es necesaria en cualquier implementación de CLAHE en tiempo real, independientemente del tipo de plataforma que ejecute el algoritmo. La latencia práctica está entre el 30 % y el 100 % de los fotogramas, lo que significa que es imperceptible para el ojo humano (en circunstancias normales de 24 fotogramas por segundo o más), siempre que la latencia acumulada debida a otros elementos del sistema no alcance un límite crítico. La latencia CLAHE se debe al hecho de que antes de que el algoritmo 420 de interpolación pueda recuperar valores de CDF (Función de Distribución Acumulativa) de un par (par, debido a la interpolación bilineal en algunas realizaciones) de filas (mosaico) de histograma, se debe disponer de tiempo suficiente para que todos los píxeles cubiertos por dichas dos filas de mosaicos fluyeran hacia la FPGA 402 y construyeran los histogramas relevantes. Con la interpolación entre mosaicos bicúbica más preferible, en diversas realizaciones, se requiere una latencia aún mayor, ya que en lugar de dos filas, es necesario recuperar cuatro filas. Además, la etapa de transformar un histograma en una CDF mediante recorte, integración y normalización (así como otros procedimientos) añade más latencia. Por ejemplo, si hay cuatro filas de histograma (mosaicos) y se necesita un par de filas para la interpolación, el orden de magnitud de latencia se acercará al 50 % del fotograma. Una latencia práctica preferida sería del 100 % de los fotogramas (si el vídeo es progresivo) o del 100 % de campo (si el vídeo está entrelazado); esto se debe a que el ajuste de la gama (es decir, la minimización del problema de fuera de gama) requiere primero capturar un fotograma completo (o campo) para extraer sus estadísticas de ingreso (I) y mejoradas (E) (mínimo, promedio, máximo) como parte de la construcción de las funciones CDF. Cabe señalar que un retaso del 100 % también cubre el caso de recuperar cuatro filas de mosaicos como lo requiere la interpolación bicúbica.
Por línea de vídeo de entrada, el algoritmo CLAHE realiza acciones específicas. Por ejemplo, en una fila 0, las líneas de vídeo cubiertas por los mosaicos de la fila 0 son 0-70. Por lo tanto, en algún momento antes del inicio de estas líneas (línea 238, por ejemplo, el final del fotograma anterior), los histogramas se restablecen. En las líneas 0-70, los histogramas se están construyendo, por lo tanto, inmediatamente después, para reducir la latencia, las líneas 71-75 (76-79 son márgenes de seguridad o de reserva) convierten los histogramas en CDF. Para respaldar el caso en el que la fila 0 participa en una interpolación bilineal (junto con una fila 1), solo después de que la fila 1 finalice su propia generación de CDF (en la línea de entrada 135), puede ser la primera línea de vídeo que participa en la interpolación de la fila 0 1 recuperada y transmitida a la pantalla (línea 36 - centro de la fila 0). Este ejemplo también demuestra la latencia CLAHE: cuando la línea 36 se transmite a la pantalla (o la siguiente etapa de canalización), la línea de vídeo de entrada ya es 136, por lo tanto, la latencia es (136-36)/240 = 42 % de un fotograma (en realidad, un campo NTSC). Sin embargo, este ejemplo se aplica solo en las realizaciones en las que se usa la interpolación entre mosaicos bilineal y no se requiere el ajuste de la gama.
Se pueden asignar tres histogramas para cada mosaico, de modo que cada histograma corresponda a un componente de color (L/a/b). Los histogramas pueden formar funciones de distribución de los valores Lab relacionados con los píxeles de entrada que están cubiertos por el mosaico. La figura 4A ilustra un grupo de elementos de memoria incorporados en elementos 410 que corresponden a un elemento de visualización. Los elementos 410 pueden describir 384 histogramas (1 [elemento de visualización] x 3 [componentes de color de lab] x 8 [filas de histogramas] x 8 [histogramas por fila] x 2 [memoria intermedia]). Las dos memorias intermedias son necesarias en el caso de un retraso del 100 %, lo que requiere que una memoria intermedia de histogramas recopile el vídeo de entrada y se genere, mientras que la otra memoria intermedia contiene los histogramas del fotograma anterior y se convierte en una matriz de CDF. En el siguiente fotograma de vídeo de entrada, las memorias intermedias intercambian funciones. Esta técnica se llama almacenamiento en doble memoria intermedia. En otra realización en la que no se implementa el almacenamiento en doble memoria intermedia, los elementos 410 pueden describir 72 histogramas (3 componentes x 4 filas x 6 mosaicos = 72). De manera similar, en aún otra realización, los elementos 410 pueden describir 192 histogramas (3 componentes x 8 filas x 8 mosaicos = 192).
En algunas realizaciones, cada histograma se basa en un módulo de memoria de 9K bits interno de FPGA que proporciona 512 contenedores de 18 bits cada uno. En realizaciones alternativas, el número de histogramas puede variar, por ejemplo, el número podría ser 8x8 histogramas por componente de color. En realizaciones alternativas, para alcanzar una alta eficiencia de utilización de FPGA, el número de contenedores por histograma (y CDF) se puede reducir de 512 a, por ejemplo, 64 con dicho módulo de memoria de 9K bits que admite 8 histogramas en lugar de 1. En las realizaciones de la representación de CDF de 64 contenedores, la FPGa usa interpolación bilineal entre dos contenedores de CDF adyacentes, para mejorar la precisión a un nivel comparable con el de los CDF de orden superior (256 contenedores, 512 contenedores, etc.).
En algunas formas de realización, un usuario puede establecer un umbral para los contenedores de histograma. En las realizaciones, el usuario da el umbral a través de una GUI ejecutada por SOM con la ayuda de una interfaz de entrada (teclado, ratón, pantalla táctil). En las realizaciones, cuando el médico desconecta el endoscopio y el sistema se vuelve a plegar para mostrar un generador de patrones, la FPGA 402 omite automáticamente los umbrales definidos por el usuario para que sean 0, por lo que la apariencia del generador de patrones parecerá natural para el usuario (el umbral de 0 es equivalente a la desactivación CLAHE). Una vez que se vuelve a conectar un endoscopio, se cancela la derivación; por lo tanto, se restauran los umbrales originales definidos por el usuario. Un medio alternativo de derivación comprende el uso de los píxeles Lab originales en la salida de las líneas de retraso, como la salida de CLAHE, sin reemplazarlos con los valores de CDF; por lo tanto, las CDF se omiten por completo. Los contenedores se pueden recortar más allá del nivel umbral establecido. Además, el exceso de muestras después del recorte se puede distribuir por igual en todos los contenedores del histograma. Como resultado, el usuario puede controlar el contraste y/o el ruido de una imagen que se muestra posteriormente.
Debería apreciarse que los umbrales definidos por el usuario los determina, preferentemente, un usuario basándose en lo que él o ella considera un contraste agradable. El rango de umbral teórico es [0,1], donde cero significa que no hay ninguna mejora, o desactivación del procedimiento CLAHE, y uno significa mejora máxima, que es la mejora máxima de color de CLAHE que es igual al máximo de la diferencia de contenedores CDF. en el mosaico más la interpolación. El valor máximo también se puede normalizar a otros rangos según la profundidad de bits de la imagen y el tamaño del mosaico.
La figura 4B ilustra la derivación de una CDF recortando un histograma, utilizando un umbral bajo, de acuerdo con una realización de la presente memoria descriptiva. Como se muestra, el histograma 4002 está recortado para obtener en primer lugar un gráfico 4004 intermedio que, tras el cálculo, da como resultado CDF 4008. Debido a la aplicación de un umbral más bajo durante el recorte, la CDF 4008 resultante se asemeja a una función de identidad (línea recta, pendiente constante). La figura 4C ilustra la derivación de una CDF recortando un histograma, usando un umbral más alto, de acuerdo con una realización de la presente memoria descriptiva. Como se muestra, el histograma 4010 está recortado para obtener en primer lugar un gráfico 4012 intermedio que, tras el cálculo, da como resultado CDF 4014. Debido a la aplicación de un umbral más alto durante el recorte, la CDF 4014 resultante tiene una pendiente pronunciada en la región donde el histograma alcanza su punto máximo, mientras que en otras regiones, la pendiente es moderada. En realizaciones, un nivel umbral de recorte se determina empíricamente y puede basarse en la preferencia de un médico. Para una medida dada de mejora del contraste, el umbral de recorte puede reducirse a medida que aumenta el número de histogramas (por componente de color). Esto se debe a que el aumento del número de histogramas para la misma resolución da como resultado menos píxeles cubiertos por un histograma. A la inversa, el umbral de recorte se puede aumentar a medida que aumenta la resolución de la imagen para el mismo número de mosaicos. Esto se debe a que ahora hay más píxeles cubiertos por un histograma. Cabe señalar que, en algunas realizaciones, el umbral de recorte se puede establecer por un componente de color específico (L/a/b) de una cámara específica (izquierda, frontal, derecha) de los endoscopios. Esto es útil, por ejemplo, en los casos en que las cámaras laterales (cámaras de visualización de los laterales izquierdo y derecho) pueden tener diferentes requisitos CLAHE de la cámara frontal, o donde la luminancia (L) puede tener diferentes requisitos CLAHE del color (a, b).
Los histogramas modificados, con contraste y ruido opcionalmente controlados, se pueden convertir en Funciones de Distribución Acumulativa (CDF) y normalizar, de modo que el contenido de contenedor de CDF correspondiente a un número de contenedor más alto puede representar el valor de escala completa de un componente L, a o b. Las CDF normalizadas resultantes se pueden utilizar como tablas de búsqueda (LUT) cuya entrada puede ser los valores de píxel L, a y b. La salida de las LUT puede ser valores de píxel L, a y b correspondientes de contraste modificado.
Volviendo a la figura 4A, la salida de los elementos 410 y el flujo 425 Lab retardado de 10 bits pueden alimentarse simultáneamente al módulo 420 de algoritmo de interpolación. El flujo 425 proporciona información relacionada con los valores Lab originales de los píxeles de entrada al módulo 420 de algoritmo de interpolación. La información se proporciona por píxel. El módulo 420 puede utilizar los valores Lab como entrada correspondiente a histogramas relevantes, que pueden estar en forma de CDF como se ha explicado anteriormente. En realizaciones, el módulo 420 puede interpolar desde un caso mínimo de cuatro hasta un caso máximo de treinta y dos (32) CDF por componente de color por cámara para obtener un píxel Lab único final con contraste mejorado. El primer caso, mínimo, se aplica cuando la interpolación entre mosaicos es bilineal y las CDF son amplias (es decir, 256, 512 o incluso más). El último caso, máximo, se aplica cuando la interpolación entre mosaicos es bicúbica y cada una de las 16 CDF es en sí misma una interpolación bilineal de dos CDF estrechas adyacentes (64 contenedores). Para cada píxel Lab de salida, se pueden seleccionar cuatro o dieciséis mosaicos respectivos. El píxel Lab puede residir en un rectángulo formado por puntos centrales de los cuatro (o dieciséis) mosaicos seleccionados. En las realizaciones, los valores Lab del píxel alimentan las LUT de sus respectivos cuatro (o dieciséis) mosaicos. Los valores Lab finales del píxel de salida pueden ser una interpolación bilineal de los cuatro conjuntos de valores Lab (o una interpolación bicúbica de los dieciséis conjuntos de valores Lab). Por tanto, el módulo 420 puede utilizar los valores de Lab para aplicar el algoritmo de interpolación con el fin de generar valores de Lab con contraste mejorado, de acuerdo con las realizaciones tratadas anteriormente. Los píxeles Lab con contraste mejorado se alimentan a los módulos 430 que los convierten en salidas de vídeo 440 de 10 bits YCbCr 4:2:2 con contraste mejorado.
Con referencia de nuevo a la figura 4A, los módulos 430 pueden implementarse con etapas sucesivas de multiplicación de matrices y suma de vectores (MAD) y funciones no lineales (implementadas como tablas de búsqueda, es decir, LUT). Las salidas 440 pueden alimentarse posteriormente a las siguientes etapas de la canalización de vídeo. El formateo de la salida 440 a YCbCr 4:2:2 de 10 bits puede mantener la compatibilidad entre los módulos existentes dentro de la FPGA 402 y puede reducir los esfuerzos de diseño.
En las realizaciones, cada componente dentro de la FPGA 402 puede incluir una combinación de uno o más de los siguientes elementos cuyas propiedades pueden variar según el proveedor de FPGA y la familia de FPGA:
1. tablas de búsqueda (LUT) para funciones combinatorias. Por tal LUT: Salida de 1 bit en función de la entrada de 4 ~ 6 bits.
2. Osciladores para operaciones secuenciales y registros.
3. Procesadores de señales digitales (DSP), es decir, multiplicadores y sumadores.
4. Módulos de memoria interna de 9K bits que se pueden usar, aunque sin limitaciones, como LUT de memoria de solo lectura (ROM), LUT de memoria de acceso aleatorio (RAM) y memorias de primero en entrar, primero en salir (FIFO). En las realizaciones, el tamaño de los módulos de memoria puede variar con otras familias de FPGA. En un ejemplo, se puede generar una salida de datos de 18 bits en respuesta a una dirección de entrada de 9 bits.
Las realizaciones de la presente memoria descriptiva se implementan como firmware, es decir, un módulo lógico instanciado en FPGA 402. La implementación puede operar simultáneamente en vídeo en vivo desde múltiples elementos de visualización, donde cada vídeo puede procesarse de forma independiente. Las realizaciones se pueden implementar en la canalización de procesamiento de vídeo entre la etapa de desmosaico (salidas DSP de los sensores) y la entrada del capturador de fotogramas (una de cuatro, utilizada para reescalar, hacer zoom, etc.). La implementación de acuerdo con varias realizaciones puede omitirse opcionalmente activando un conmutador 480 lógico interno de FPGA o estableciendo umbrales de recorte a cero, o configurando el interpolador para omitir las CDF. A continuación se muestran algunas de las ventajas de utilizar una implementación de FPGA en las realizaciones de la presente memoria descriptiva:
1. Fiabilidad. FPGA es una aplicación de firmware (es decir, hardware) que genera fiabilidad en una o más de las siguientes formas:
• El algoritmo se puede ejecutar incluso cuando el software falla. Esto es beneficioso durante los procedimientos en tiempo real en las clínicas.
• Es menos probable que el hardware/firmware falle en tiempo real que lo haga el software.
• Una vez simulados y probados a fondo, es menos probable que ocurran fallos inesperados, en comparación con el software.
• El algoritmo, así como todos los demás módulos de procesamiento de imágenes, puede comenzar a ejecutarse rápidamente después del encendido del sistema, sin tener que esperar a que el software se inicie mucho más lento. En una realización, pueden comenzar a funcionar en tres segundos.
2. Disponibilidad. Se puede evitar el uso de una Unidad de procesamiento General (GPU) en el sistema. La GPU puede complementar la FPGA pero no puede reemplazarla. Las limitaciones para usar una GPU pueden incluir:
• Un módulo adicional que puede fallar en el funcionamiento en tiempo real, especialmente cuando depende del software para su funcionamiento.
• Mayor coste de BOM.
• Fase de montaje del sistema más larga.
• Mantenimiento del sistema más complejo.
• Ingenieros de software adicionales para programar y depurar la GPU.
• Mayor tamaño del sistema.
• Mayor consumo de energía (aproximadamente 150 W o más, en comparación con los aproximadamente 8,5 W de FPGA en las realizaciones de la memoria descriptiva). Un mayor consumo de energía podría implicar un tamaño y un coste adicionales de la fuente de alimentación del sistema y una mayor disipación de calor, lo que requiere un ventilador más fuerte que da como resultado un mayor ruido acústico.
3. Complementación de la GPU. Incluso si el sistema incluye una GPU, aún vale la pena relevarlo de la tarea de ejecutar el algoritmo (por lo tanto, asignar la tarea a la FPGA) ya que el algoritmo introduce una carga computacional pesada en la GPU hasta el punto en que podría llegar en la forma en que la GPU ejecuta otros algoritmos importantes, tal como, por ejemplo, reconocimiento de patrones, imágenes 3d , OSD en tiempo real, etc.
4. Arquitectura. La experiencia muestra que un ordenador sin GPU tiene una potencia demasiado baja para ejecutar el algoritmo, ya que la velocidad de fotogramas de entrada equivalente máxima que puede manejar cae drásticamente a aproximadamente ~ 1-3 por segundo. En general, la arquitectura interna de una FPGa que permite realizar miles de tareas simultáneamente, en paralelo (incluso a costa de un reloj más lento -aproximadamente ~ 1/20 de un procesador) es más adecuada para este tipo de aplicación.
La figura 5A es un diagrama de flujo que ilustra las etapas de mejora de imágenes obtenidas por un sistema de endoscopio de múltiples elementos de visualización que usa un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE), de acuerdo con una realización de la presente memoria descriptiva. En la etapa 502, uno o más flujos de vídeo de espacio de color YCbCr, cada uno obtenido de uno o más elementos de visualización de un endoscopio, se introducen en un adaptador de una FPGA dentro del circuito controlador principal del endoscopio. En algunas realizaciones, la entrada de YCbCr de cada uno de al menos dos elementos de visualización del endoscopio se introduce en el adaptador. En algunas realizaciones, cada entrada YCbCr es de 8 bits, 10 bits o de cualquier otra longitud por componente. En una realización, la entrada YCbCr es de 10 bits por componente.
En la etapa 504, cada uno de los uno o más flujos de vídeo de espacio de color YCbCr se convierte en el número correspondiente de flujos de vídeo de espacio de color Lab dentro de dicho adaptador. En algunas realizaciones, el adaptador convierte cada entrada YCbCr que incluye 10 bits por componente de color en un flujo de vídeo de espacio de color Lab de 12 bits por componente, de los cuales los 12 bits se usan para el componente L, mientras que 10 bits se usan para cada uno de los componentes de color a y b, con un total de 32 bits por píxel de Lab.
En la etapa 506, cada uno de dichos uno o más flujos de vídeo de espacio de color Lab se envía a un capturador de fotogramas en dicha FPGA y en la etapa 508, dichos uno o más flujos de vídeo de espacio de color Lab se capturan como uno o más fotogramas de espacio de color Lab correspondientes dentro de dicho capturador de fotogramas. En algunas realizaciones, el capturador de fotogramas es alimentado por dos flujos de vídeo del espacio de color Lab, cada uno procedente de un elemento de visualización distinto del endoscopio.
En la etapa 510, dichos uno o más fotogramas de espacio de color Lab se recuperan del capturador de fotogramas usando un módulo de recuperación en dicha FPGA. El módulo de recuperación puede realizar un seguimiento de la temporización de los fotogramas de vídeo de entrada (es decir, el recuento de líneas) y puede indicar al capturador de fotogramas qué filas debe recuperar de un dispositivo de memoria asociado. Estas filas se calculan a partir de las líneas de vídeo que pueden ser necesario mostrar y que están en un cambio de fase constante en relación con el fotograma de entrada. En la etapa 512, los datos de fotogramas del espacio de color Lab de uno o más fotogramas de espacio de color Lab dentro de dicho módulo de recuperación se reorganizan para generar uno o más flujos Lab retardados correspondientes a uno o más fotogramas de espacio de color Lab extraídos por el módulo de recuperación. En la etapa 514, dichos uno o más flujos Lab retardados se envían a uno o más módulos separados dentro de un algoritmo de interpolación en dicha FPGa , y cada flujo Lab retardado se alimenta a un módulo distinto dentro del algoritmo de interpolación. En la etapa 516, el uno o más flujos Lab retardados se procesan con dicho algoritmo CLAHE dentro de dichos módulos separados para generar uno o más flujos Lab correspondientes con contraste mejorado. En diversas realizaciones, el módulo de recuperación reordena los datos de las filas recuperadas a un formato comprendido por el algoritmo de interpolación. En una realización, los datos de las filas recuperadas pueden incluir dos flujos de vídeo (uno por cada elemento de visualización) donde cada flujo de vídeo comprende componentes Lab. Los flujos Lab retardados, correspondientes a cada elemento de visualización, se alimentan a módulos separados dentro del algoritmo de interpolación donde se procesan de manera similar de acuerdo con el algoritmo CLAHE como se describe en la presente memoria descriptiva.
La figura 5B es un diagrama de flujo que ilustra las etapas de mejora de imágenes obtenidas por un sistema de endoscopio que tiene tres elementos de visualización, utilizando un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE), de acuerdo con una realización de la presente memoria descriptiva. En la etapa 520 se introducen tres flujos de vídeo de espacio de color YCbCr, cada uno obtenido de uno de los tres elementos de visualización del endoscopio, en un adaptador de una FPGA dentro del circuito controlador principal del endoscopio. En algunas realizaciones, cada entrada YCbCr es de 8 bits, 10 bits o de cualquier otra longitud por componente. En una realización, la entrada YCbCr es de 10 bits por componente.
En la etapa 522, cada uno de los tres flujos de vídeo del espacio de color YCbCr se convierte en tres flujos de vídeo del espacio de color Lab, respectivamente, dentro de dicho adaptador. En algunas realizaciones, el adaptador convierte cada entrada YCbCr que incluye 10 bits por componente de color en un flujo de vídeo de espacio de color Lab de 12 bits por componente, de los cuales los 12 bits se usan para el componente L, mientras que 10 bits se usan para cada uno de los componentes de color a y b, con un total de 32 bits por píxel de Lab.
En la etapa 524, cada uno de los tres flujos de vídeo del espacio de color Lab se envía a un capturador de fotogramas en dicha FPGA y en la etapa 526, los tres flujos de vídeo del espacio de color Lab se capturan como los correspondientes tres fotogramas del espacio de color Lab dentro de dicho capturador de fotogramas. En algunas realizaciones, la entrada Y del capturador de fotogramas es alimentada por un Lab del elemento de visualización izquierdo, la entrada Cb por un Lab del elemento del elemento de visualización central y la entrada Cr por un Lab del elemento de visualización derecho, es decir, el capturador de fotogramas es alimentado por tres elementos de visualización. Este modo de funcionamiento puede ser ventajoso al usar un único capturador de fotogramas (para usar con endoscopios de una cámara de acuerdo con algunas realizaciones) con un endoscopio de múltiples cámaras.
En la etapa 528, los tres fotogramas del espacio de color Lab se recuperan del capturador de fotogramas utilizando un módulo de recuperación en dicha FPGA. El módulo de recuperación puede realizar un seguimiento de la temporización de los fotogramas de vídeo de entrada (es decir, el recuento de líneas) y puede indicar al capturador de fotogramas qué filas debe recuperar de un dispositivo de memoria asociado. Estas filas se calculan a partir de las líneas de vídeo que pueden ser necesario mostrar y que están en un cambio de fase constante en relación con el fotograma de entrada. En la etapa 530, los datos del fotograma del espacio de color Lab de los tres fotogramas de espacio de color Lab dentro de dicho módulo de recuperación se reorganizan para generar tres flujos Lab retardados, cada uno correspondiente a uno de los tres fotogramas del espacio de color Lab extraídos por el módulo de recuperación. En la etapa 532, los tres flujos Lab retardados se envían a tres módulos separados dentro de un algoritmo de interpolación en dicha FPGA, siendo cada flujo Lab retardado alimentado a un módulo distinto dentro del algoritmo de interpolación. En la etapa 534, los tres flujos Lab retardados se procesan con dicho algoritmo CLAHE dentro de dichos módulos separados para generar tres flujos Lab correspondientes con contraste mejorado. En diversas realizaciones, el módulo de recuperación reordena los datos de las filas recuperadas a un formato comprendido por el algoritmo de interpolación. En una realización, los datos de las filas recuperadas pueden incluir tres flujos de vídeo (uno por cada elemento de visualización) donde cada flujo de vídeo comprende componentes Lab. Los flujos Lab retardados, correspondientes a cada elemento de visualización, se alimentan a módulos separados dentro del algoritmo de interpolación donde se procesan de manera similar de acuerdo con el algoritmo CLAHE como se describe en la presente memoria descriptiva. En la etapa 536, cada flujo Lab con contraste mejorado se muestra como una imagen con contraste mejorado en uno o más dispositivos de visualización acoplados con el controlador.
La figura 6A ilustra una canalización de procedimiento que convierte el espacio de color YCbCr en espacio de color Lab, de acuerdo con las realizaciones de la memoria descriptiva. Esto se hace en los módulos Lab 406 10b (12b, en algunas realizaciones) dentro del adaptador 405 mostrado en la figura 4A. Los componentes YCbCr, o cualquier otro componente del espacio de color, que proceden de la cámara sufren estos procedimientos usando operadores lineales y no lineales. En las realizaciones, las MAD multiplican un vector de tres componentes por una matriz designada de 3x3, después añaden otro vector designado de 3 componentes. Las matrices y los vectores pueden ser únicos para cada instancia de MAD. Asimismo, en las realizaciones, las LUT pueden funcionar de forma independiente y simultánea en los tres componentes del vector de entrada para realizar funciones no lineales. Las funciones no lineales pueden ser únicas para cada instancia de LUT. Dentro de una LUT, se puede aplicar la misma función a los tres componentes.
El procedimiento de conversión de la figura 6A se ilustra para una cámara y se puede explicar en cinco etapas. En la etapa 602, una instancia MAD realiza la conversión de YCbCr en RGB. En 604, una LUT realiza una función similar a Y(x) = x A 2,40 (corrección gamma inversa, conocida por los expertos en la técnica). En 606, una instancia MAD realiza una conversión de RGB en XYZ. En 608, una lUt ejecuta una función similar a Y (x) = x a 0,33 necesaria para la conversión Lab, que es conocida por los expertos en la técnica. En 610, una instancia MAD realiza la conversión de XYZ en Lab excluyendo la función no lineal, realizada ya en la etapa 608 anterior.
La figura 6B es un diagrama de flujo que ilustra las etapas realizadas por la canalización del procedimiento mostrada en la figura 6A. En la etapa 6102, se introduce un flujo de vídeo del espacio de color YCbCr en una instancia MAD para su conversión a un formato RGB. En la etapa 6104 se aplica una corrección de Gama inversa a los datos RGB de salida utilizando una LUT. En una realización, se aplica una función similar a Y (x) = x a 2,40 a los datos RGB. En la etapa 6106, la salida de datos RGB corregidos en la etapa 6104 se introduce en una instancia MAD para su conversión a un formato XYZ. En la etapa 6108 se aplica una función de corrección a los datos XYZ de salida utilizando una LUT. En una realización, se aplica una función similar a Y (x) = x a 0,33 a los datos XYZ. En la etapa 6120, la salida de datos XYZ corregidos en la etapa 6108 se introduce en una instancia MAD y se convierte a un formato LAB.
La figura 7A ilustra una canalización del procedimiento que convierte el espacio de color Lab en espacio de color YCbCr (o cualquier otro), de acuerdo con las realizaciones de la memoria descriptiva. Esto se hace en los módulos 430 que se muestran en la figura 4A. La canalización que se muestra en la figura 7A es la inversa de la canalización que se muestra en la figura 6A. Es posible que un formato Lab no permita que las pantallas muestren imágenes de vídeo de manera efectiva, por lo tanto, se vuelven a convertir en YCbCr (o cualquier otro espacio de color) que puede ser compatible con una o más pantallas utilizadas con el sistema de endoscopio.
El procedimiento de conversión de la figura 7A se ilustra para una cámara y puede explicarse en una pluralidad de etapas y, en una realización, cinco etapas. En la etapa 702, una instancia MAD realiza la conversión de Lab en XYZ, excluyendo la función no lineal, realizada en la siguiente etapa y es conocida por los expertos en la técnica. En la siguiente etapa 704, una LUT ejecuta una función similar a Y (x) = x A 3,00. En la etapa 706, una instancia MAD realiza la conversión de XYZ en RGB. En la etapa 708, una LUT ejecuta una función similar a Y (x) = x a (1/2,40) (corrección de gama). En la etapa 710, una instancia MAD realiza la conversión de RGB en YCbCr. En algunas realizaciones, los módulos 430 de la figura 4A pueden incluir un diezmador para convertir el YCbCr 4:4:4 en la salida de la etapa 520 YCbCr 4:2:2.
La figura 7B es un diagrama de flujo que ilustra las etapas realizadas por la canalización del procedimiento mostrada en la figura 7A. En la etapa 7102, se introduce un flujo de vídeo de espacio de color LAB en una instancia MAD para su conversión a un formato XYZ. En la etapa 7104 se aplica una función de corrección a los datos XYZ de salida utilizando una LUT. En una realización, se aplica una función similar a Y (x) = x a 3,00 a los datos XYZ. En la etapa 7106, la salida de datos XYZ corregidos en la etapa 7104 se introduce en una instancia MAD para su conversión a un formato RGB. En la etapa 7108 se aplica una función de corrección de gama inversa a los datos RGB de salida utilizando una LUT. En una realización, se aplica una función similar a Y (x) = x a (1/2,40) a los datos RGB. En la etapa 7120, los datos RGB corregidos, emitidos en la etapa 7108, se introducen en una instancia MAD y se convierten en un formato YCbCr.
La figura 8A ilustra una imagen 802 tradicional capturada por un endoscopio colocado dentro de una cavidad corporal. la figura 8B ilustra la imagen de la figura 8A mejorada utilizando el procedimiento de la presente memoria descriptiva. La imagen 804 presenta una imagen muy mejorada en comparación con la imagen 802 resultante del control del usuario sobre el contraste y el ruido de acuerdo con las realizaciones de la presente memoria descriptiva. Las ventajas de la implementación del firmware FPGA para la mejora de la imagen se han tratado anteriormente. Las realizaciones de la presente memoria descriptiva permiten la mejora de la imagen durante la captura y visualización de vídeo en tiempo real, además de permitir la mejora de la imagen de imágenes fijas. Además, las realizaciones de la memoria descriptiva operan en el espacio de color Lab, lo que permite una mayor capacidad de mejora del contraste. Además, la superposición de mosaicos, como se describe en las realizaciones anteriores, mejora aún más las implementaciones CLAHE tradicionales. Otra etapa más para la mejora es el uso de interpolación bicúbica para la interpolación entre mosaicos. Las diversas ventajas son aplicables simultáneamente a los vídeos capturados por múltiples elementos de visualización en un sistema de endoscopio.

Claims (11)

REIVINDICACIONES
1. Un procedimiento para mejorar imágenes obtenidas por al menos dos elementos de visualización en un sistema de endoscopio (100, 210) usando un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE) en el que dicho sistema de endoscopio (100, 210) incluye un controlador (230, 320) que tiene un módulo de placa base que comprende una matriz de puertas programable en campo (FPGA) (323, 402) configurada para implementar dicho algoritmo, comprendiendo dicho procedimiento las etapas de:
introducir flujos de vídeo del espacio de color YCbCr a un adaptador en dicha FPGA;
convertir dichos flujos de vídeo del espacio de color YCbCr en flujos de vídeo del espacio de color de Lab dentro de dicho adaptador;
enviar dichos flujos de vídeo del espacio de color de Lab a un capturador de fotogramas en dicha FPGA; capturar dichos flujos de vídeo del espacio de color de Lab como fotogramas del espacio de color de Lab dentro de dicho capturador de fotogramas;
extraer dichos fotogramas del espacio de color de Lab del capturador de fotogramas utilizando un módulo de recuperación en dicha FPGA;
reorganizar los datos del fotograma del espacio de color de Lab dentro de dicho módulo de recuperación para generar flujos de Lab retardados;
enviar dichos flujos de Lab retardados para separar módulos dentro de un algoritmo de interpolación en dicha FPGA; y
procesar dichos flujos de Lab retardados con dicho algoritmo CLAHE dentro de dichos módulos separados para generar flujos de Lab con contraste mejorado.
2. El procedimiento de la reivindicación 1, en el que la conversión de dichos flujos del espacio de color YCb-Cr en flujos de vídeo del espacio de color de Lab comprende las etapas de:
realizar la conversión de YCbCr a RGB de los flujos YCbCr usando etapas de multiplicación de matrices y suma de vectores (MAD) instanciadas en dicha FPGA;
realizar una función de corrección gamma inversa Y (x) = x A 2,40 a los datos RGB usando una tabla de búsqueda (LUT);
realizar la conversión de RGB a XYZ de los datos RGB corregidos por gamma usando etapas MAD instanciadas en dicha FPGA;
ejecutar una función de corrección Y (x) = x a 0,33 en los datos XYZ usando una LUT; y
realizar la conversión de XYZ a Lab de los datos XYZ corregidos utilizando etapas MAD instanciadas en dicha FPGA.
3. El procedimiento de la reivindicación 1, que comprende además convertir dichos flujos de Lab con contraste mejorado en flujos YCbCr con contraste mejorado.
4. El procedimiento de la reivindicación 3, en el que la conversión de dichos flujos de Lab con contraste mejorado en flujos YCbCr con contraste mejorado comprende las etapas de:
realizar la conversión de Lab a XYZ de los flujos de Lab usando las etapas de multiplicación y suma de vectores (MAD) instanciados en dicha FPGA;
ejecutar una función de corrección Y (x) = x a 0,33 en los datos XYZ usando una tabla de búsqueda (LUT); realizar la conversión XYZ a RGB de los datos XYZ corregidos usando etapas MAD instanciadas en dicha FPGA; realizar una función de corrección gamma inversa Y (x) = x a (1/2,40) a los datos RGB usando una LUT; y realizar la conversión de RGB a YCbCr de los datos RGB con corrección gamma utilizando las etapas MAD instanciadas en dicha FPGA.
5. Un procedimiento para mejorar imágenes obtenidas por al menos dos elementos de visualización en un sistema de endoscopio (100, 210) usando un algoritmo de ecualización de histograma adaptativo limitado por contraste (CLAHE) en el que dicho sistema de endoscopio (100, 210) incluye un controlador (230, 320) con un módulo de placa base que comprende un procesador configurado para implementar dicho algoritmo, comprendiendo dicho procedimiento las etapas de:
introducir dos flujos de vídeo del espacio de color YCbCr desde al menos dos elementos de visualización a un adaptador en dicho procesador, proporcionando cada elemento de visualización uno de dichos dos flujos de vídeo del espacio de color YCbCr;
convertir cada uno de los al menos dos flujos de vídeo del espacio de color YCbCr en al menos dos flujos de vídeo del espacio de color de Lab correspondientes dentro de dicho adaptador;
transmitir los al menos dos flujos de vídeo del espacio de color de Lab a un capturador de fotogramas en dicho procesador;
adquirir los al menos dos flujos de vídeo del espacio de color de Lab como correspondientes al menos dos fotogramas del espacio de color de Lab dentro de dicho capturador de fotogramas;
adquirir los al menos dos fotogramas del espacio de color de Lab del capturador de fotogramas usando un módulo de recuperación en dicho procesador;
reorganizar los datos del fotograma del espacio de color de Lab dentro de dicho módulo de recuperación para generar al menos dos flujos de Lab retardados correspondientes a los al menos dos fotogramas del espacio de color de Lab adquiridos por el módulo de recuperación;
transmitir los al menos dos flujos de Lab retardados a al menos dos módulos separados correspondientes que ejecutan un algoritmo de interpolación en dicho procesador; y
procesar cada flujo de Lab retardado con dicho algoritmo de interpolación dentro de dichos módulos separados para generar al menos dos flujos de Lab con contraste mejorado, en el que dicho algoritmo de interpolación es un algoritmo CLAHE.
6. El procedimiento de la reivindicación 5, en el que convertir un flujo del espacio de color YCbCr en un flujo de vídeo del espacio de color de Lab comprende las etapas de:
realizar la conversión de YCbCr a RGB del flujo YCbCr usando etapas de multiplicación y suma de vectores (MAD) instanciadas en dicho procesador;
realizar una función de corrección gamma inversa Y (x) = x A 2,40 a los datos RGB usando una tabla de búsqueda (LUT);
realizar la conversión de RGB a XYZ de los datos RGB con corrección gamma usando etapas MAD instanciadas en dicho procesador;
ejecutar una función de corrección Y (x) = x a 0,33 en los datos XYZ usando una LUT; y
realizar la conversión de XYZ a Lab de los datos XYZ corregidos utilizando etapas MAD instanciadas en dicho procesador.
7. El procedimiento de la reivindicación 5, que comprende además convertir cada uno de los al menos dos flujos de Lab con contraste mejorado en al menos dos flujos YCbCr con contraste mejorado correspondientes.
8. El procedimiento de la reivindicación 7, en el que la conversión de cada flujo de Lab con contraste mejorado en un flujo YCbCr con contraste mejorado comprende las etapas de:
realizar la conversión de Lab a XYZ del flujo de Lab usando las etapas de multiplicación y suma de vectores (MAD) instanciadas en dicho procesador;
ejecutar una corrección Y (x) = x a 0,33 usando una tabla de búsqueda (LUT);
realizar la conversión de XYZ a RGB de las etapas MAD de datos XYZ corregidos instanciadas en dicho procesador;
realizar una función de corrección gamma inversa Y (x) = x a (1/2,40) a los datos RGB a LUT; y
realizar la conversión de RGB a YCbCr de los datos RGB corregidos usando las etapas mAd instanciadas en dicho procesador.
9. El procedimiento para mejorar imágenes de la reivindicación 5, en el que las imágenes se obtienen a partir de tres elementos de visualización.
10. El procedimiento de la reivindicación 9, que comprende las etapas de:
introducir tres flujos de vídeo del espacio de color YCbCr desde los tres elementos de visualización a un adaptador en dicho procesador;
convertir los tres flujos de vídeo del espacio de color YCbCr en los correspondientes tres flujos de vídeo del espacio de color de Lab dentro de dicho adaptador;
transmitir las tres secuencias de vídeo del espacio de color de Lab a un capturador de fotogramas en dicho procesador en forma de un flujo de vídeo obtenido de un solo elemento de visualización, siendo una entrada Y del capturador de fotogramas alimentada por el flujo de vídeo del espacio de color de Lab de un primer elemento de visualización, siendo una entrada Cb del capturador de fotogramas alimentada por un flujo de vídeo del espacio de color de Lab de un segundo elemento de visualización y siendo una entrada Cr del capturador de fotogramas alimentada por el flujo de vídeo del espacio de color de Lab de un tercer elemento de visualización; adquirir los tres flujos de vídeo del espacio de color de Lab como correspondientes tres fotogramas del espacio de color de Lab dentro de dicho capturador de fotogramas;
transmitir los tres fotogramas del espacio de color de Lab desde el capturador de fotogramas utilizando un módulo de recuperación en dicho procesador;
reorganizar los datos del fotograma del espacio de color de Lab de los tres fotogramas del espacio de color de Lab dentro de dicho módulo de recuperación para generar tres flujos de Lab retardados correspondientes a los tres fotogramas del espacio de color de Lab adquiridos por el módulo de recuperación;
transmitir los tres flujos de Lab retardados a los tres módulos separados correspondientes que implementan un algoritmo de interpolación en dicho procesador; y
procesar cada flujo de Lab retardado con dicho algoritmo de interpolación dentro de dichos módulos separados para generar tres flujos de Lab con contraste mejorado, siendo un primer, un segundo y un tercer flujo de Lab con contraste mejorado, correspondiendo cada flujo de Lab con contraste mejorado a un elemento de visualización del endoscopio.
11. El procedimiento de la reivindicación 10, en el que el primer elemento de visualización es un elemento de visualización del lado izquierdo del endoscopio, el segundo elemento de visualización es un elemento de visualización frontal del endoscopio y el tercer elemento de visualización es un elemento de visualización del lado derecho del endoscopio; y/o en el que el primero de los tres flujos de Lab con contraste mejorado se muestra como una primera imagen en una o más pantallas de visualización (120, 240a, 240b, 240c) acopladas al controlador (230, 320), el segundo de los tres flujos de Lab con contraste mejorado se muestra como una segunda imagen en una o más pantallas de visualización acopladas al controlador (230, 320) y el tercero de los tes flujos de Lab con contraste mejorado se muestra como una tercera imagen en una o más pantallas de visualización acopladas al controlador (230, 320); y/o en el que cada flujo de Lab con contraste mejorado se muestra como una imagen con contraste mejorado en un dispositivo de visualización acoplado al controlador (230, 320), comprendiendo cada imagen con contraste mejorado una pluralidad de fotogramas que tienen un mayor grado de contraste en comparación con la correspondiente pluralidad de fotogramas en la imagen correspondiente obtenida de un elemento de visualización del endoscopio antes de ser procesada usando el procedimiento de mejora de imagen de la reivindicación 5.
ES16797096T 2015-05-17 2016-05-16 Mejora de imagen endoscópica usando ecualización de histograma adaptativo limitado por contraste (CLAHE) implementada en un procesador Active ES2818174T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562162788P 2015-05-17 2015-05-17
US201562259683P 2015-11-25 2015-11-25
PCT/US2016/032715 WO2016187124A1 (en) 2015-05-17 2016-05-16 Endoscopic image enhancement using contrast limited adaptive histogram equalization (clahe) implemented in a processor

Publications (1)

Publication Number Publication Date
ES2818174T3 true ES2818174T3 (es) 2021-04-09

Family

ID=57277717

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16797096T Active ES2818174T3 (es) 2015-05-17 2016-05-16 Mejora de imagen endoscópica usando ecualización de histograma adaptativo limitado por contraste (CLAHE) implementada en un procesador

Country Status (4)

Country Link
US (6) US10516865B2 (es)
EP (2) EP3747349A1 (es)
ES (1) ES2818174T3 (es)
WO (1) WO2016187124A1 (es)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3747349A1 (en) * 2015-05-17 2020-12-09 Endochoice, Inc. Endoscopic image enhancement using contrast limited adaptive histogram equalization (clahe) implemented in a processor
EP3539444A4 (en) * 2016-11-10 2019-11-20 Kyocera Corporation SYSTEM FOR OBSERVING A BODY HEIGHT, TROCAR AND METHOD FOR OPERATING A BODY CAVITY OBSERVATION SYSTEM
JP7048628B2 (ja) 2016-11-28 2022-04-05 アダプティブエンドウ エルエルシー 分離可能使い捨てシャフト付き内視鏡
CN107481187B (zh) * 2017-09-29 2022-04-19 康佳集团股份有限公司 一种视频图像处理方法、智能终端及存储介质
KR102524671B1 (ko) * 2018-01-24 2023-04-24 삼성전자주식회사 전자 장치 및 그의 제어 방법
US10955657B2 (en) * 2018-12-20 2021-03-23 Acclarent, Inc. Endoscope with dual image sensors
US10496911B1 (en) 2019-03-18 2019-12-03 Capital One Services, Llc Detection of images in relation to targets based on colorspace transformation techniques and utilizing ultraviolet and infrared light
US10534948B1 (en) 2019-03-18 2020-01-14 Capital One Services, Llc Optimizing detection of images in relation to targets based on colorspace transformation techniques
US10509991B1 (en) 2019-03-18 2019-12-17 Capital One Services, Llc Detection of images in relation to targets based on colorspace transformation techniques and utilizing infrared light
US10496862B1 (en) 2019-03-18 2019-12-03 Capital One Services, Llc Detection of images in relation to targets based on colorspace transformation techniques and utilizing ultraviolet light
US10523420B1 (en) 2019-04-18 2019-12-31 Capital One Services, Llc Transmitting encoded data along transmission mediums based on colorspace schemes
US10504013B1 (en) 2019-04-24 2019-12-10 Capital One Services, Llc Colorspace encoding multimedia data on a physical page
US10529300B1 (en) 2019-06-20 2020-01-07 Capital One Services, Llc Adaptive image display based on colorspace conversions
US10614635B1 (en) 2019-07-25 2020-04-07 Capital One Services, Llc Augmented reality system with color-based fiducial marker
US20220273164A1 (en) * 2019-08-05 2022-09-01 270 Surgical Ltd. System and method for displaying images of a medical imaging endoscope
US10833852B1 (en) 2019-10-03 2020-11-10 Capital One Services, Llc Encoded data along tape based on colorspace schemes
US10715183B1 (en) 2019-10-25 2020-07-14 Capital One Services, Llc Data encoding with error-correcting code pursuant to colorspace schemes
US10867226B1 (en) * 2019-11-04 2020-12-15 Capital One Services, Llc Programmable logic array and colorspace conversions
US10762371B1 (en) 2019-11-14 2020-09-01 Capital One Services, Llc Object detection techniques using colorspace conversions
CN111062897B (zh) * 2019-12-06 2023-09-29 Oppo广东移动通信有限公司 图像均衡方法、终端及存储介质
US10878600B1 (en) 2019-12-10 2020-12-29 Capital One Services, Llc Augmented reality system with color-based fiducial marker utilizing local adaptive technology
US12167829B2 (en) 2019-12-19 2024-12-17 Ambu A/S Image capture selection
CN111010497A (zh) * 2019-12-26 2020-04-14 苏州羿景睿图信息科技有限公司 一种基于fpga的clahe透雾增强并行运算方法
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
US11302036B2 (en) 2020-08-19 2022-04-12 Capital One Services, Llc Color conversion between color spaces using reduced dimension embeddings
TR202013601A1 (tr) * 2020-08-28 2022-03-21 Aselsan Elektroni̇k Sanayi̇ Ve Ti̇caret Anoni̇m Şi̇rketi̇ CLAHE algoritması için değişken kıpma seviyesi hesaplama yöntemi
US11995808B2 (en) 2020-09-04 2024-05-28 Abova, Inc Method for X-ray dental image enhancement
EP4182882A1 (en) 2020-09-22 2023-05-24 Boston Scientific Scimed, Inc. Image processing systems and methods of using the same
US12100127B2 (en) * 2020-09-25 2024-09-24 Boston Scientific Scimed, Inc. Color extrapolation from monochrome image sensor
USD1051380S1 (en) 2020-11-17 2024-11-12 Adaptivendo Llc Endoscope handle
CN112365424B (zh) * 2020-11-17 2023-06-06 昆明物理研究所 基于局部自适应clahe的红外图像去噪增强方法、装置、系统与计算机可读存储介质
DE102021100124A1 (de) * 2021-01-07 2022-07-07 Schölly Fiberoptic GmbH Verfahren zum Übertragen eines Rohbilddatenstromes eines Bildsensors
CA3210708A1 (en) 2021-02-17 2022-08-25 Boston Scientific Scimed, Inc. Image processing systems and methods of using the same
USD1070082S1 (en) 2021-04-29 2025-04-08 Adaptivendo Llc Endoscope handle
USD1031035S1 (en) 2021-04-29 2024-06-11 Adaptivendo Llc Endoscope handle
USD1066659S1 (en) 2021-09-24 2025-03-11 Adaptivendo Llc Endoscope handle
CN115018737B (zh) * 2022-08-04 2023-02-21 四川迪晟新达类脑智能技术有限公司 一种红外热像增强方法及装置
TWI821146B (zh) * 2023-04-26 2023-11-01 國立中正大學 用於偵測組織出血之影像分析方法
CN117152029B (zh) * 2023-10-30 2024-03-08 浦江三思光电技术有限公司 一种基于fpga的clahe图像增强实时处理方法及系统
CN119809911A (zh) * 2024-12-19 2025-04-11 电子科技大学 一种clahe算法的图像增强硬件加速器

Family Cites Families (405)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4084401A (en) 1975-07-09 1978-04-18 Hughes Aircraft Company Digital watch with two buttons and improved setting and display control
US4027697A (en) 1975-11-19 1977-06-07 Bonney Roland W Rotary valve
US4027897A (en) 1975-11-25 1977-06-07 Kurt Hildebrand Safety ski binding
JPS54144787A (en) 1978-05-02 1979-11-12 Ouchi Teruo Device for curving endoscope
JPS5675133A (en) 1979-11-22 1981-06-22 Olympus Optical Co Light source apparatus for endoscope
JPS57192547A (en) 1981-05-21 1982-11-26 Olympus Optical Co Ultrasonic diagnostic apparatus for body cavity
US4532918A (en) 1983-10-07 1985-08-06 Welch Allyn Inc. Endoscope signal level control
EP0142152B1 (en) 1983-11-14 1991-03-20 The Dow Chemical Company Novel substituted 1,2,4-triazolo- [1,5-a] pyrimidine-2-sulfonamides and compositions and methods of controlling undesired vegetation and suppressing the nitrification of ammonium nitrogen in soil
JPS60263916A (ja) 1984-06-13 1985-12-27 Olympus Optical Co Ltd 内焦式内視鏡対物レンズ
US4588294A (en) 1984-06-27 1986-05-13 Warner-Lambert Technologies, Inc. Searching and measuring endoscope
US4641635A (en) 1984-08-15 1987-02-10 Olympus Optical Co., Ltd. Endoscope apparatus
JPS62220918A (ja) 1986-03-22 1987-09-29 Olympus Optical Co Ltd 内視鏡光学系
JPH07119893B2 (ja) 1986-09-22 1995-12-20 オリンパス光学工業株式会社 内視鏡光学系
US4727859A (en) 1986-12-29 1988-03-01 Welch Allyn, Inc. Right angle detachable prism assembly for borescope
JP2697822B2 (ja) 1987-05-25 1998-01-14 オリンパス光学工業株式会社 内視鏡対物レンズ
JP2804267B2 (ja) 1988-05-02 1998-09-24 オリンパス光学工業株式会社 内視鏡対物レンズ
US4825850A (en) 1988-05-13 1989-05-02 Opielab, Inc. Contamination protection system for endoscope control handles
JPH0223931A (ja) 1988-07-13 1990-01-26 Asahi Optical Co Ltd 内視鏡の湾曲装置のブレーキ装置
JPH07122692B2 (ja) 1988-09-29 1995-12-25 富士写真光機株式会社 内視鏡用対物レンズ
US5007406A (en) 1988-11-04 1991-04-16 Asahi Kogaku Kogyo Kabushiki Kaisha Bending control device of endoscope
US5193525A (en) 1990-11-30 1993-03-16 Vision Sciences Antiglare tip in a sheath for an endoscope
US5224929A (en) 1990-12-21 1993-07-06 C. R. Bard, Inc. Irrigation/aspiration cannula and valve assembly
JPH0827429B2 (ja) 1991-03-04 1996-03-21 オリンパス光学工業株式会社 内視鏡用対物レンズ
US5359456A (en) 1991-10-15 1994-10-25 Olympus Optical Co., Ltd. Objective lens system for endoscopes
US5630782A (en) 1992-09-01 1997-05-20 Adair; Edwin L. Sterilizable endoscope with separable auxiliary assembly
EP0658090B1 (en) 1992-09-01 1998-11-04 Edwin L. Adair Sterilizable endoscope with separable disposable tube assembly
US5298971A (en) 1992-09-23 1994-03-29 Industrial Technology Research Institute Lateral shear interferometer for testing aspheric surfaces
US5836894A (en) 1992-12-21 1998-11-17 Artann Laboratories Apparatus for measuring mechanical parameters of the prostate and for imaging the prostate using such parameters
JP3372980B2 (ja) 1993-01-22 2003-02-04 オリンパス光学工業株式会社 内視鏡
US5863286A (en) 1993-01-27 1999-01-26 Olympus Optical Company, Ltd. Endoscope system including endoscope and disposable protection cover
US5674182A (en) 1993-02-26 1997-10-07 Olympus Optical Co., Ltd. Endoscope system including endoscope and protection cover
US5460167A (en) 1993-03-04 1995-10-24 Olympus Optical Co., Ltd. Endoscope cover with channel
US5569157A (en) 1993-05-07 1996-10-29 Olympus Optical Co., Ltd. Endoscope
US5447148A (en) 1993-07-08 1995-09-05 Vision Sciences, Inc. Endoscopic contamination protection system to facilitate cleaning of endoscopes
JP3272516B2 (ja) 1993-11-18 2002-04-08 旭光学工業株式会社 内視鏡の先端部
JP3392920B2 (ja) 1993-11-26 2003-03-31 ペンタックス株式会社 内視鏡の先端部
US5746695A (en) 1993-11-18 1998-05-05 Asahi Kogaku Kogyo Kabushiki Kaisha Front end structure of endoscope
US5395329A (en) 1994-01-19 1995-03-07 Daig Corporation Control handle for steerable catheter
US5464007A (en) 1994-02-23 1995-11-07 Welch Allyn, Inc. Fluid insensitive braking for an endoscope
US5575755A (en) 1994-02-23 1996-11-19 Welch Allyn, Inc. Fluid insensitive braking for an endoscope
US5547455A (en) 1994-03-30 1996-08-20 Medical Media Systems Electronically steerable endoscope
US5685823A (en) 1994-03-30 1997-11-11 Asahi Kogaku Kogyo Kabushiki Kaisha End structure of endoscope
US5782751A (en) 1994-05-26 1998-07-21 Asahi Kogaku Kogyo Kabushiki Kaisha Side view endoscope
JP3379821B2 (ja) 1994-05-31 2003-02-24 オリンパス光学工業株式会社 内視鏡
US5518502A (en) 1994-06-08 1996-05-21 The United States Surgical Corporation Compositions, methods and apparatus for inhibiting fogging of endoscope lenses
JP3051035B2 (ja) 1994-10-18 2000-06-12 富士写真光機株式会社 内視鏡用対物レンズ
US5940126A (en) 1994-10-25 1999-08-17 Kabushiki Kaisha Toshiba Multiple image video camera apparatus
US5683538A (en) 1994-12-23 1997-11-04 International Business Machines Corporation Control of etch selectivity
JPH0910170A (ja) 1995-06-29 1997-01-14 Olympus Optical Co Ltd 内視鏡対物光学系
JPH0980305A (ja) 1995-09-11 1997-03-28 Fuji Photo Optical Co Ltd 内視鏡対物レンズ
US5810715A (en) 1995-09-29 1998-09-22 Olympus Optical Co., Ltd. Endoscope provided with function of being locked to flexibility of insertion part which is set by flexibility modifying operation member
US6117068A (en) 1995-10-19 2000-09-12 Elite Genetics, Inc Artificial insemination system
US5725478A (en) 1996-03-14 1998-03-10 Saad; Saad A. Methods and apparatus for providing suction and/or irrigation in a rigid endoscope while maintaining visual contact with a target area through the endoscope
US5860913A (en) 1996-05-16 1999-01-19 Olympus Optical Co., Ltd. Endoscope whose distal cover can be freely detachably attached to main distal part thereof with high positioning precision
JPH1043129A (ja) 1996-08-02 1998-02-17 Olympus Optical Co Ltd 内視鏡
DE19636152C2 (de) 1996-09-06 1999-07-01 Schneider Co Optische Werke Kompaktes Weitwinkelobjektiv
JP4054094B2 (ja) 1996-12-27 2008-02-27 オリンパス株式会社 電子内視鏡
AUPO478397A0 (en) 1997-01-31 1997-02-20 Fairmont Medical Products Pty Ltd Endoscopic drape
US6095970A (en) 1997-02-19 2000-08-01 Asahi Kogaku Kogyo Kabushiki Kaisha Endoscope
JPH10239740A (ja) 1997-02-28 1998-09-11 Toshiba Corp 内視鏡装置
US5924976A (en) 1997-08-21 1999-07-20 Stelzer; Paul Minimally invasive surgery device
US20040052076A1 (en) 1997-08-26 2004-03-18 Mueller George G. Controlled lighting methods and apparatus
JP2003532934A (ja) 1997-08-28 2003-11-05 クァリア・コンピューティング・インコーポレーテッド クラスタ化された微小カルシウム沈着をディジタル乳房x線像から自動検出するための方法およびシステム
US20110034769A1 (en) 1997-10-06 2011-02-10 Micro-Imaging Solutions Llc Reduced area imaging device incorporated within wireless endoscopic devices
JPH11137512A (ja) 1997-11-07 1999-05-25 Toshiba Corp 内視鏡装置
US7598686B2 (en) 1997-12-17 2009-10-06 Philips Solid-State Lighting Solutions, Inc. Organic light emitting diode methods and apparatus
US6277064B1 (en) 1997-12-30 2001-08-21 Inbae Yoon Surgical instrument with rotatably mounted offset endoscope
US6196967B1 (en) 1998-03-18 2001-03-06 Linvatec Corporation Arthroscopic component joining system
US6419626B1 (en) 1998-08-12 2002-07-16 Inbae Yoon Surgical instrument endoscope with CMOS image sensor and physical parameter sensor
JP4014186B2 (ja) 1998-11-30 2007-11-28 フジノン株式会社 内視鏡用対物レンズ
JP3704248B2 (ja) 1999-02-04 2005-10-12 ペンタックス株式会社 内視鏡用操作ワイヤの連結構造
US7015950B1 (en) 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
JP4245731B2 (ja) 1999-06-08 2009-04-02 オリンパス株式会社 液晶レンズユニットと液晶レンズアッセンブリー
IL143258A0 (en) 2001-05-20 2002-04-21 Given Imaging Ltd A method for in vivo imaging of the gastrointestinal tract in unmodified conditions
US20020087047A1 (en) 1999-09-13 2002-07-04 Visionscope, Inc. Miniature endoscope system
US6486889B1 (en) * 1999-12-17 2002-11-26 Xerox Corporation Methods and apparatus for transforming RGB video
JP2001177824A (ja) 1999-12-17 2001-06-29 Asahi Optical Co Ltd 電子内視鏡用信号切替装置
WO2001069919A1 (en) 2000-03-10 2001-09-20 Datacube, Inc. Image processing system using an array processor
US6837846B2 (en) 2000-04-03 2005-01-04 Neo Guide Systems, Inc. Endoscope having a guide tube
US6712760B2 (en) 2000-04-10 2004-03-30 Pentax Corporation Television device of portable endoscope
US6673012B2 (en) 2000-04-19 2004-01-06 Pentax Corporation Control device for an endoscope
US20010055062A1 (en) 2000-04-20 2001-12-27 Keiji Shioda Operation microscope
EP1301118B1 (en) 2000-07-14 2006-09-06 Xillix Technologies Corp. Compact fluorescence endoscopy video system
JP3945133B2 (ja) 2000-08-02 2007-07-18 フジノン株式会社 内視鏡の観察窓洗浄装置
US6717092B2 (en) 2000-08-11 2004-04-06 Pentax Corporation Method of manufacturing treatment instrument of endoscope
US6927769B2 (en) * 2000-11-21 2005-08-09 Vrex, Inc. Stereoscopic image processing on a computer system
WO2002054932A2 (en) 2001-01-16 2002-07-18 Given Imaging Ltd. System and method for wide field imaging of body lumens
JP3939158B2 (ja) 2001-02-06 2007-07-04 オリンパス株式会社 内視鏡装置
JP2002263055A (ja) 2001-03-12 2002-09-17 Olympus Optical Co Ltd 内視鏡先端フード
US6711056B2 (en) 2001-03-12 2004-03-23 Micron Technology, Inc. Memory with row redundancy
DE10121450A1 (de) 2001-04-27 2002-11-21 Storz Endoskop Gmbh Schaffhaus Optisches Instrument, insbesondere Endoskop, mit Wechselkopf
US6618205B2 (en) 2001-05-14 2003-09-09 Pentax Corporation Endoscope objective optical system
DE60228165D1 (de) 2001-05-16 2008-09-25 Olympus Corp Endoskop mit Bildverarbeitungseinrichtung
US7231135B2 (en) 2001-05-18 2007-06-12 Pentax Of American, Inc. Computer-based video recording and management system for medical diagnostic equipment
US6795879B2 (en) 2001-08-08 2004-09-21 Texas Instruments Incorporated Apparatus and method for wait state analysis in a digital signal processing system
US7123288B2 (en) 2001-09-28 2006-10-17 Fujinon Corporation Electronic endoscope eliminating influence of light distribution in optical zooming
US6980227B2 (en) 2001-10-01 2005-12-27 Pentax Corporation Electronic endoscope with light-amount adjustment apparatus
US8038602B2 (en) 2001-10-19 2011-10-18 Visionscope Llc Portable imaging system employing a miniature endoscope
US20070167681A1 (en) 2001-10-19 2007-07-19 Gill Thomas J Portable imaging system employing a miniature endoscope
US6863651B2 (en) 2001-10-19 2005-03-08 Visionscope, Llc Miniature endoscope with imaging fiber system
DE60135559D1 (de) 2001-11-19 2008-10-09 St Microelectronics Srl Verfahren zur Mischung von digitalen Bildern zur Erzeugung eines digitalen Bildes mit erweitertem Dynamikbereich
US6891964B2 (en) * 2001-11-23 2005-05-10 University Of Chicago Computerized method for determination of the likelihood of malignancy for pulmonary nodules on low-dose CT
US20030153897A1 (en) 2002-02-12 2003-08-14 Russo Ronald D. Closed system drainage and infusion connector valve
CA2380105A1 (en) * 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
US8988599B2 (en) 2010-08-31 2015-03-24 University Of Southern California Illumination sphere with intelligent LED lighting units in scalable daisy chain with interchangeable filters
JP4170685B2 (ja) 2002-07-05 2008-10-22 フジノン株式会社 内視鏡の湾曲操作機構
US20040061780A1 (en) 2002-09-13 2004-04-01 Huffman David A. Solid-state video surveillance system
EP1550311B1 (en) 2002-09-13 2011-08-17 Karl Storz Imaging Inc. Video recording and image capture device
US7097632B2 (en) 2002-10-28 2006-08-29 Sherwood Services Ag Automatic valve
US7537561B2 (en) 2002-11-27 2009-05-26 Olympus Corporation Endoscope apparatus
FR2857200B1 (fr) 2003-07-01 2005-09-30 Tokendo Processeur video pour l'endoscopie
US7267647B2 (en) 2003-02-10 2007-09-11 Pentax Corporation Endoscope
US7027231B2 (en) 2003-02-14 2006-04-11 Fujinon Corporation Endoscope objective lens
EP1462076B1 (en) 2003-03-28 2011-07-20 Medical Technology Transfer Holding B.V. Operation unit
US7160249B2 (en) 2003-03-28 2007-01-09 Olympus Corporation Endoscope image pickup unit for picking up magnified images of an object, a focus adjustment apparatus and method, and a focus range check apparatus and method for the same
US8118732B2 (en) 2003-04-01 2012-02-21 Boston Scientific Scimed, Inc. Force feedback control system for video endoscope
JP3914168B2 (ja) * 2003-04-08 2007-05-16 オリンパス株式会社 撮像システム、画像処理プログラム
KR20040087905A (ko) 2003-04-09 2004-10-15 파이오니아 가부시키가이샤 플라즈마 디스플레이 패널
US7801584B2 (en) 2003-05-01 2010-09-21 Given Imaging Ltd. Panoramic field of view imaging device
JP4533695B2 (ja) 2003-09-23 2010-09-01 オリンパス株式会社 処置用内視鏡
US20050251127A1 (en) 2003-10-15 2005-11-10 Jared Brosch Miniature ultrasonic transducer with focusing lens for intracardiac and intracavity applications
WO2005046462A1 (ja) 2003-11-14 2005-05-26 Apricot Co., Ltd. 内視鏡装置及びこれを用いた撮影方法
WO2005053539A1 (ja) 2003-12-02 2005-06-16 Olympus Corporation 超音波診断装置
EP2572627A1 (en) 2004-01-19 2013-03-27 Olympus Corporation Imaging device for endoscope and capsule type endoscope
EP1707102B1 (en) 2004-01-19 2010-05-05 Olympus Corporation Capsule type medical treatment device
JP4448348B2 (ja) 2004-03-10 2010-04-07 Hoya株式会社 内視鏡の送水路
EP4026486A1 (en) 2004-03-23 2022-07-13 Boston Scientific Medical Device Limited In-vivo visualization system
JP2005278762A (ja) 2004-03-29 2005-10-13 Fujinon Corp 穿刺型内視鏡用プローブ
US7976462B2 (en) 2004-04-06 2011-07-12 Integrated Endoscopy, Inc. Endoscope designs and methods of manufacture
US8277373B2 (en) 2004-04-14 2012-10-02 Usgi Medical, Inc. Methods and apparaus for off-axis visualization
US20050272977A1 (en) 2004-04-14 2005-12-08 Usgi Medical Inc. Methods and apparatus for performing endoluminal procedures
US8512229B2 (en) 2004-04-14 2013-08-20 Usgi Medical Inc. Method and apparatus for obtaining endoluminal access
JP4500096B2 (ja) 2004-04-27 2010-07-14 オリンパス株式会社 内視鏡及び内視鏡システム
JP3967337B2 (ja) 2004-05-14 2007-08-29 オリンパス株式会社 内視鏡および内視鏡装置
WO2005112737A1 (ja) 2004-05-24 2005-12-01 Olympus Corporation 内視鏡用光源装置
IL162390A0 (en) 2004-06-07 2005-11-20 Medigus Ltd Multipurpose endoscopy suite
WO2006004083A1 (ja) 2004-07-02 2006-01-12 Osaka University 内視鏡アタッチメントおよび内視鏡
JP4544924B2 (ja) 2004-07-12 2010-09-15 フォルテ グロウ メディカル株式会社 内視鏡用送水チューブ
US7335159B2 (en) 2004-08-26 2008-02-26 Scimed Life Systems, Inc. Endoscope having auto-insufflation and exsufflation
JP4649606B2 (ja) 2004-08-31 2011-03-16 国立大学法人 名古屋工業大学 球状カプセル型全方位内視鏡
EP1791460A1 (en) 2004-09-03 2007-06-06 Stryker Gi Ltd Optical head for endoscope
US8081818B2 (en) 2004-09-15 2011-12-20 Adobe Systems Incorporated Locating a feature in a digital image
US8480566B2 (en) 2004-09-24 2013-07-09 Vivid Medical, Inc. Solid state illumination for endoscopy
JP4636840B2 (ja) 2004-09-27 2011-02-23 アクア化学株式会社 洗浄方法、及び、洗浄装置
EP1799095A2 (en) 2004-09-30 2007-06-27 Boston Scientific Scimed, Inc. Adapter for use with digital imaging medical device
US7621869B2 (en) 2005-05-06 2009-11-24 Nitesh Ratnakar Next generation colonoscope
US20090023998A1 (en) 2007-07-17 2009-01-22 Nitesh Ratnakar Rear view endoscope sheath
US11653816B2 (en) 2004-10-11 2023-05-23 Nitesh Ratnakar Next generation endoscope
US20080275298A1 (en) 2004-10-11 2008-11-06 Novation Science, Llc Dual View Endoscope
US8585584B2 (en) 2004-10-11 2013-11-19 Nitesh Ratnakar Dual view endoscope
US9131861B2 (en) 2004-11-30 2015-09-15 Academisch Medisch Centrum Pulsed lighting imaging systems and methods
US20060149127A1 (en) 2004-12-30 2006-07-06 Seddiqui Fred R Disposable multi-lumen catheter with reusable stylet
US8235887B2 (en) 2006-01-23 2012-08-07 Avantis Medical Systems, Inc. Endoscope assembly with retroscope
US8182422B2 (en) 2005-12-13 2012-05-22 Avantis Medical Systems, Inc. Endoscope having detachable imaging device and method of using
US8289381B2 (en) 2005-01-05 2012-10-16 Avantis Medical Systems, Inc. Endoscope with an imaging catheter assembly and method of configuring an endoscope
US20080021274A1 (en) 2005-01-05 2008-01-24 Avantis Medical Systems, Inc. Endoscopic medical device with locking mechanism and method
US20070293720A1 (en) 2005-01-05 2007-12-20 Avantis Medical Systems, Inc. Endoscope assembly and method of viewing an area inside a cavity
US8197399B2 (en) 2006-05-19 2012-06-12 Avantis Medical Systems, Inc. System and method for producing and improving images
US8872906B2 (en) 2005-01-05 2014-10-28 Avantis Medical Systems, Inc. Endoscope assembly with a polarizing filter
US8797392B2 (en) 2005-01-05 2014-08-05 Avantis Medical Sytems, Inc. Endoscope assembly with a polarizing filter
US20060149129A1 (en) 2005-01-05 2006-07-06 Watts H D Catheter with multiple visual elements
US8029439B2 (en) 2005-01-28 2011-10-04 Stryker Corporation Disposable attachable light source unit for an endoscope
US7668450B2 (en) 2005-01-28 2010-02-23 Stryker Corporation Endoscope with integrated light source
US7827032B2 (en) 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US20060215406A1 (en) 2005-02-18 2006-09-28 William Thrailkill Medical diagnostic instrument with highly efficient, tunable light emitting diode light source
US7998064B2 (en) 2005-03-15 2011-08-16 Olympus Medical Systems Corp. Endoscope insertion portion
US8388523B2 (en) 2005-04-01 2013-03-05 Welch Allyn, Inc. Medical diagnostic instrument having portable illuminator
JP4754871B2 (ja) 2005-05-11 2011-08-24 オリンパスメディカルシステムズ株式会社 内視鏡の先端部
US20060293556A1 (en) 2005-05-16 2006-12-28 Garner David M Endoscope with remote control module or camera
JP4987257B2 (ja) 2005-06-29 2012-07-25 オリンパス株式会社 内視鏡
US20070015989A1 (en) 2005-07-01 2007-01-18 Avantis Medical Systems, Inc. Endoscope Image Recognition System and Method
RU2008106934A (ru) 2005-09-06 2009-10-20 8 Хаешель Ст., Бизнес энд Индастриал Парк (IL) Сменный наконечник для эндоскопа
WO2007034664A1 (ja) 2005-09-22 2007-03-29 Olympus Corporation 内視鏡挿入部
GB0519769D0 (en) 2005-09-28 2005-11-09 Imp College Innovations Ltd Imaging system
US7430682B2 (en) 2005-09-30 2008-09-30 Symbol Technologies, Inc. Processing image data from multiple sources
US7400709B2 (en) 2005-09-30 2008-07-15 Mettler-Toledo Safeline X-Ray Limited X-ray inspection system
US7817997B2 (en) 2005-10-04 2010-10-19 Telefonaktiebolaget Lm Ericsson (Publ) Redirection of IP-connected radio base station to correct control node
US20070162095A1 (en) 2006-01-06 2007-07-12 Ezc Medical Llc Modular visualization stylet apparatus and methods of use
EP1986541A2 (en) 2006-01-23 2008-11-05 Avantis Medical Systems, Inc. Endoscope
CN101374452B (zh) 2006-01-30 2012-10-10 新浪潮外科器械有限公司 在医疗程序前对医用内窥镜白平衡以及应用防雾剂的装置
JP5469867B2 (ja) 2006-02-06 2014-04-16 アヴァンティス メディカル システムズ インコーポレイテッド 撮像カテーテルアセンブリを有する内視鏡および内視鏡を構成する方法
EP1988813A2 (en) 2006-02-09 2008-11-12 Avantis Medical Systems, Inc. Endoscope assembly with a polarizing filter
DE102007038859B4 (de) 2006-02-23 2020-03-12 Atmos Medizintechnik Gmbh & Co. Kg Verfahren und Anordnung zur Erzeugung eines dem Öffnungszustand der Stimmlippen des Kehlkopfes entsprechenden Signals nach Patent DE 10 2006 008 990 B4
WO2007100846A2 (en) 2006-02-28 2007-09-07 Emphasys Medical, Inc. Endoscopic tool
US7834910B2 (en) 2006-03-01 2010-11-16 David M. DeLorme Method and apparatus for panoramic imaging
US9814372B2 (en) 2007-06-27 2017-11-14 Syntheon, Llc Torque-transmitting, variably-flexible, locking insertion device and method for operating the insertion device
US20070225562A1 (en) 2006-03-23 2007-09-27 Ethicon Endo-Surgery, Inc. Articulating endoscopic accessory channel
US8063933B2 (en) 2006-03-27 2011-11-22 Given Imaging Ltd. Battery contacts for an in-vivo imaging device
US7794393B2 (en) 2006-04-13 2010-09-14 Larsen Dane M Resectoscopic device and method
US8287446B2 (en) 2006-04-18 2012-10-16 Avantis Medical Systems, Inc. Vibratory device, endoscope having such a device, method for configuring an endoscope, and method of reducing looping of an endoscope
US20070247867A1 (en) 2006-04-21 2007-10-25 Sunoptic Technologies Llc Portable LED Light Source for an Endoscope or Boroscope
JP4928969B2 (ja) 2006-04-26 2012-05-09 Hoya株式会社 内視鏡の湾曲保持機構
FR2900741B1 (fr) 2006-05-05 2008-07-18 Mauna Kea Technologies Soc Par Tete optique miniaturisee a haute resolution spatiale et haute sensibilite, notamment pour l'imagerie de fluorescence confocale fibree
KR101477738B1 (ko) 2006-06-13 2014-12-31 인튜어티브 서지컬 인코포레이티드 미소절개 수술 시스템
US7621369B2 (en) 2006-06-16 2009-11-24 Graber Curtis E Acoustic energy projection system
US20080025413A1 (en) 2006-07-28 2008-01-31 John Apostolopoulos Selecting bit rates for encoding multiple data streams
EP1884805A1 (en) 2006-08-01 2008-02-06 Varioptic Liquid lens with four liquids
US7927272B2 (en) 2006-08-04 2011-04-19 Avantis Medical Systems, Inc. Surgical port with embedded imaging device
US20080036864A1 (en) 2006-08-09 2008-02-14 Mccubbrey David System and method for capturing and transmitting image data streams
JP2008048160A (ja) 2006-08-16 2008-02-28 Fujitsu Ltd 基地局装置及び移動端末の故障検出装置並びにそれらの故障検出方法
JP4868976B2 (ja) * 2006-08-18 2012-02-01 オリンパスメディカルシステムズ株式会社 内視鏡装置
DE602007007340D1 (de) 2006-08-21 2010-08-05 Sti Medical Systems Llc Computergestützte analyse mit hilfe von videodaten aus endoskopen
US7967745B2 (en) 2006-09-28 2011-06-28 Given Imaging, Ltd. In vivo imaging device and method of manufacture thereof
CN101541225B (zh) 2006-11-24 2012-11-28 奥林巴斯医疗株式会社 胶囊型内窥镜
WO2008065955A1 (en) 2006-11-28 2008-06-05 Olympus Corporation Endoscope device
US7813047B2 (en) 2006-12-15 2010-10-12 Hand Held Products, Inc. Apparatus and method comprising deformable lens element
JP4912141B2 (ja) 2006-12-26 2012-04-11 キヤノン株式会社 撮像表示装置、撮像表示制御方法及びシステム
US20130317295A1 (en) 2006-12-29 2013-11-28 GE Inspection Technologies Light assembly for remote visual inspection apparatus
US7870765B2 (en) 2007-01-04 2011-01-18 Scot Incorporated Safing lock mechanism
US8154663B2 (en) * 2007-01-16 2012-04-10 Sigma Designs, Inc. System and method for adaptive contrast enhancement of video signals
JP5086648B2 (ja) 2007-01-19 2012-11-28 オリンパスメディカルシステムズ株式会社 処置具
CA2675617C (en) 2007-01-19 2016-11-01 Sunnybrook Health Sciences Centre Imaging probe with combined ultrasound and optical means of imaging
DE102007015492B4 (de) 2007-01-30 2011-03-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Beleuchtungsvorrichtung für eine Bilderfassungseinrichtung am distalen Ende eines Endoskops
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
WO2008093322A2 (en) 2007-01-31 2008-08-07 Stryker Gi Ltd. Endoscope stand
US20090231419A1 (en) 2007-02-06 2009-09-17 Avantis Medical Systems, Inc. Endoscope Assembly and Method of Performing a Medical Procedure
EP3035111B1 (en) * 2007-02-13 2017-02-08 Samsung Display Co., Ltd. Subpixel layouts and subpixel rendering methods for directional displays and systems
US20080221388A1 (en) 2007-03-09 2008-09-11 University Of Washington Side viewing optical fiber endoscope
EP2137696A2 (en) * 2007-03-16 2009-12-30 STI Medical Systems, LLC A method to provide automated quality feedback to imaging devices to achieve standardized imaging data
GB0705730D0 (en) 2007-03-26 2007-05-02 Micromass Ltd Mass spectrometer
US8064666B2 (en) 2007-04-10 2011-11-22 Avantis Medical Systems, Inc. Method and device for examining or imaging an interior surface of a cavity
US7813538B2 (en) 2007-04-17 2010-10-12 University Of Washington Shadowing pipe mosaicing algorithms with application to esophageal endoscopy
JP2008301968A (ja) 2007-06-06 2008-12-18 Olympus Medical Systems Corp 内視鏡画像処理装置
EP2157917B1 (en) 2007-06-08 2021-11-10 Medeon Biodesign, Inc. Devices for closure of wounds
JP4806665B2 (ja) 2007-06-19 2011-11-02 株式会社エヌ・ティ・ティ・ドコモ 基地局装置、送信方法、及び通信システム
EP2172146B1 (en) 2007-06-22 2015-03-04 Olympus Medical Systems Corp. Capsule-type medical device
JP5167705B2 (ja) 2007-07-02 2013-03-21 富士電機株式会社 スイッチング電源装置
US20090105538A1 (en) 2007-07-26 2009-04-23 Jacques Van Dam Endoscope System
JP5041925B2 (ja) 2007-08-31 2012-10-03 オリンパスメディカルシステムズ株式会社 撮像ユニット
JP2009047947A (ja) 2007-08-21 2009-03-05 Fujinon Corp 撮像レンズおよび撮像装置
CN100582855C (zh) 2007-08-23 2010-01-20 鸿富锦精密工业(深圳)有限公司 内视镜头及内视镜装置
JP2009056105A (ja) 2007-08-31 2009-03-19 Olympus Medical Systems Corp 焦点距離可変付き内視鏡
JP2009080413A (ja) 2007-09-27 2009-04-16 Fujinon Corp 撮像光学系、内視鏡の撮像装置
JP2009082504A (ja) 2007-09-28 2009-04-23 Fujifilm Corp 撮像装置及びその撮像装置を備えた内視鏡
KR101373727B1 (ko) 2007-10-02 2014-03-13 타이코에이엠피(유) 차량용 로우 프로파일 퓨즈의 결속장치
WO2009049324A1 (en) 2007-10-11 2009-04-16 Avantis Medical Systems, Inc. Method and device for reducing the fixed pattern noise of a digital image
EP2211683A2 (en) 2007-10-11 2010-08-04 Avantis Medical Systems, Inc. Endoscope assembly comprising retrograde viewing imaging device and instrument channel
US8437519B2 (en) * 2007-10-19 2013-05-07 Siemens Medical Solutions Usa, Inc. Automated image data subtraction system suitable for use in angiography
US9118850B2 (en) 2007-11-27 2015-08-25 Capso Vision, Inc. Camera system with multiple pixel arrays on a chip
US20090143647A1 (en) 2007-12-03 2009-06-04 Olympus Medical Systems Corp. Medical appliance, endoscope overtube, and endoscope apparatus
US8360964B2 (en) 2007-12-10 2013-01-29 Stryker Corporation Wide angle HDTV endoscope
US7885010B1 (en) 2008-01-14 2011-02-08 Integrated Medical Systems International Endoscope objective lens and method of assembly
US8723756B2 (en) 2008-01-15 2014-05-13 Synaptics Incorporated System having capability for daisy-chained serial distribution of video display data
US8529441B2 (en) 2008-02-12 2013-09-10 Innurvation, Inc. Ingestible endoscopic optical scanning device
EP2095757A1 (en) 2008-02-26 2009-09-02 FUJIFILM Corporation Endoscopic aspiration device
JP2009213673A (ja) 2008-03-11 2009-09-24 Fujinon Corp 内視鏡システム及び内視鏡の検査方法
CN102036599B (zh) 2008-03-18 2013-06-19 诺瓦达克技术公司 用于组合的全色反射和近红外成像的成像系统
CA2722507C (en) 2008-05-13 2018-05-01 Boston Scientific Scimed, Inc. Steering system with locking mechanism
DE602009001103D1 (de) 2008-06-04 2011-06-01 Fujifilm Corp Beleuchtungsvorrichtung zur Verwendung in Endoskopen
US7630148B1 (en) 2008-06-11 2009-12-08 Ge Inspection Technologies, Lp System for providing zoom, focus and aperture control in a video inspection device
DE102008027905A1 (de) * 2008-06-12 2009-12-17 Olympus Winter & Ibe Gmbh Verfahren und Endoskop zur Verbesserung von Endoskopbildern
JP2010017483A (ja) 2008-07-14 2010-01-28 Olympus Corp 内視鏡湾曲管及び湾曲管を有する内視鏡
JP5435916B2 (ja) 2008-09-18 2014-03-05 富士フイルム株式会社 電子内視鏡システム
JP5558058B2 (ja) 2008-09-19 2014-07-23 オリンパスメディカルシステムズ株式会社 斜視用内視鏡
JP2010069231A (ja) 2008-09-22 2010-04-02 Fujifilm Corp 撮像装置及び内視鏡
MX2011003145A (es) 2008-09-24 2011-05-19 Code 3 Inc Barra de luz.
CA2738044C (en) 2008-09-24 2018-10-02 Dentsply International Inc. Imaging device for dental instruments and methods for intra-oral viewing
JP2012509104A (ja) 2008-11-17 2012-04-19 メイヨ・ファウンデーション・フォー・メディカル・エデュケーション・アンド・リサーチ 診断カプセル、送達/回収システム、キット、及び、方法
US8107170B2 (en) 2008-11-19 2012-01-31 Olympus Corporation Objective optical system
JP2010136032A (ja) 2008-12-04 2010-06-17 Hitachi Ltd 映像監視システム
US8425406B2 (en) 2008-12-19 2013-04-23 Boston Scientific Scimed, Inc. Systems and methods for directing instruments to varying positions at the distal end of a guide tube
JP5235706B2 (ja) 2009-02-03 2013-07-10 Hoya株式会社 処置用内視鏡
US8939894B2 (en) 2009-03-31 2015-01-27 Intuitive Surgical Operations, Inc. Three-dimensional target devices, assemblies and methods for calibrating an endoscopic camera
US8864657B2 (en) 2009-03-31 2014-10-21 Magaw, Llc Laryngoscope and system
WO2010119640A1 (ja) 2009-04-16 2010-10-21 オリンパスメディカルシステムズ株式会社 対物光学系
US9101287B2 (en) 2011-03-07 2015-08-11 Endochoice Innovation Center Ltd. Multi camera endoscope assembly having multiple working channels
US9872609B2 (en) 2009-06-18 2018-01-23 Endochoice Innovation Center Ltd. Multi-camera endoscope
US8926502B2 (en) 2011-03-07 2015-01-06 Endochoice, Inc. Multi camera endoscope having a side service channel
US10524645B2 (en) 2009-06-18 2020-01-07 Endochoice, Inc. Method and system for eliminating image motion blur in a multiple viewing elements endoscope
US20140296866A1 (en) 2009-06-18 2014-10-02 Endochoice, Inc. Multiple Viewing Elements Endoscope Having Two Front Service Channels
US9101268B2 (en) 2009-06-18 2015-08-11 Endochoice Innovation Center Ltd. Multi-camera endoscope
US9642513B2 (en) 2009-06-18 2017-05-09 Endochoice Inc. Compact multi-viewing element endoscope system
EP3811847A1 (en) 2009-06-18 2021-04-28 EndoChoice, Inc. Multi-camera endoscope
US9713417B2 (en) 2009-06-18 2017-07-25 Endochoice, Inc. Image capture assembly for use in a multi-viewing elements endoscope
US9402533B2 (en) 2011-03-07 2016-08-02 Endochoice Innovation Center Ltd. Endoscope circuit board assembly
US9474440B2 (en) 2009-06-18 2016-10-25 Endochoice, Inc. Endoscope tip position visual indicator and heat management system
US9706903B2 (en) 2009-06-18 2017-07-18 Endochoice, Inc. Multiple viewing elements endoscope system with modular imaging units
WO2012120507A1 (en) 2011-02-07 2012-09-13 Peermedical Ltd. Multi-element cover for a multi-camera endoscope
US9901244B2 (en) 2009-06-18 2018-02-27 Endochoice, Inc. Circuit board assembly of a multiple viewing elements endoscope
US20120232345A1 (en) 2011-03-07 2012-09-13 Peer Medical Ltd. Camera assembly for medical probes
WO2012077117A1 (en) 2010-12-09 2012-06-14 Peermedical Ltd. Flexible electronic circuit board multi-camera endoscope
US9492063B2 (en) 2009-06-18 2016-11-15 Endochoice Innovation Center Ltd. Multi-viewing element endoscope
US20120139274A1 (en) 2009-06-18 2012-06-07 Versa-tainer (Pty) Ltd. Container handling arrangement
US8551036B2 (en) 2009-08-10 2013-10-08 Aerosurgical Limited Insufflation system
US8783082B2 (en) 2009-08-12 2014-07-22 Formtek, Inc. Rotary stamper
US8447132B1 (en) 2009-12-09 2013-05-21 CSR Technology, Inc. Dynamic range correction based on image content
CN102687053B (zh) 2009-12-11 2014-11-05 奥林巴斯医疗株式会社 物镜光学系统
DE102009058660A1 (de) 2009-12-16 2011-06-22 Karl Storz GmbH & Co. KG, 78532 Prüfvorrichtung für ein optisches Untersuchungssystem
WO2011087801A1 (en) 2009-12-22 2011-07-21 Integrated Endoscopy, Inc. Endoscope with different color light sources
WO2011083451A2 (en) 2010-01-11 2011-07-14 Motus Gi Medical Technologies Ltd. Systems and methods for cleaning body cavities
US20110169931A1 (en) 2010-01-12 2011-07-14 Amit Pascal In-vivo imaging device with double field of view and method for use
JP2011143029A (ja) 2010-01-13 2011-07-28 Olympus Corp 内視鏡湾曲操作装置
US9434505B2 (en) 2010-01-26 2016-09-06 Rehrig Pacific Company Plastic beer keg
JP4902033B1 (ja) 2010-04-07 2012-03-21 オリンパスメディカルシステムズ株式会社 対物レンズ及びそれを用いた内視鏡
KR101113483B1 (ko) * 2010-04-09 2012-03-06 동아대학교 산학협력단 컬러 영상의 가시성 향상 장치 및 방법
JP5467924B2 (ja) 2010-05-07 2014-04-09 株式会社Pfu 画像読取装置
US20110292258A1 (en) 2010-05-28 2011-12-01 C2Cure, Inc. Two sensor imaging systems
KR101535784B1 (ko) * 2010-09-03 2015-07-10 돌비 레버러토리즈 라이쎈싱 코오포레이션 비디오 코딩 및 프로세싱을 위한 조도 보상 및 변환을 위한 방법 및 시스템
US9560953B2 (en) 2010-09-20 2017-02-07 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
CA2812097A1 (en) 2010-09-20 2012-03-29 Peermedical Ltd. Multi-camera endoscope having fluid channels
US20150208900A1 (en) 2010-09-20 2015-07-30 Endochoice, Inc. Interface Unit In A Multiple Viewing Elements Endoscope System
JP5259882B2 (ja) 2010-09-30 2013-08-07 オリンパスメディカルシステムズ株式会社 撮像装置
US20150320300A1 (en) 2010-10-28 2015-11-12 Endochoice, Inc. Systems and Methods of Distributing Illumination for Multiple Viewing Element and Multiple Illuminator Endoscopes
CN103403605A (zh) 2010-10-28 2013-11-20 恩多巧爱思创新中心有限公司 用于多传感器内窥镜的光学系统
US9706908B2 (en) 2010-10-28 2017-07-18 Endochoice, Inc. Image capture and video processing systems and methods for multiple viewing element endoscopes
WO2012066453A1 (en) 2010-11-16 2012-05-24 Koninklijke Philips Electronics N.V. Control of air treatment device with filter
JP5245010B2 (ja) 2010-11-25 2013-07-24 オリンパスメディカルシステムズ株式会社 内視鏡の湾曲操作装置、内視鏡
US20130303979A1 (en) 2010-11-26 2013-11-14 Universitat Bern Verwaltungsdirektion Suction and irrigation device
JP5728211B2 (ja) 2010-11-29 2015-06-03 矢崎総業株式会社 コネクタ
WO2012075153A2 (en) 2010-12-03 2012-06-07 Research Triangle Institute Ultrasound device, and associated cable assembly
JP5806328B2 (ja) 2010-12-07 2015-11-10 カーディアック ペースメイカーズ, インコーポレイテッド 神経刺激器
CN103348470B (zh) 2010-12-09 2017-05-03 恩多巧爱思创新中心有限公司 用于多摄像头内窥镜的柔性电子电路板
DE202010016900U1 (de) 2010-12-22 2011-05-19 Peer Medical Ltd. Mehrfachkameraendoskop
JP2012135432A (ja) 2010-12-27 2012-07-19 Fujifilm Corp 内視鏡
JP5915543B2 (ja) 2011-01-14 2016-05-11 コニカミノルタ株式会社 診断用包装物
US8712151B2 (en) * 2011-02-14 2014-04-29 Intuitive Surgical Operations, Inc. Method and structure for image local contrast enhancement
KR101964642B1 (ko) 2011-02-15 2019-04-02 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 구동 샤프트에 의해 가동되는 관절식 말단 작동기를 구비한 수술 기구를 위한 시일 및 실링 방법
US9113145B2 (en) * 2011-03-25 2015-08-18 Semiconductor Components Industries, Llc Contrast matching for stereo image
JP5318142B2 (ja) 2011-03-31 2013-10-16 富士フイルム株式会社 電子内視鏡
CA2835081A1 (en) 2011-05-03 2012-11-08 Endosee Corporation Method and apparatus for hysteroscopy and endometrial biopsy
JP5954661B2 (ja) 2011-08-26 2016-07-20 パナソニックIpマネジメント株式会社 撮像素子、及び撮像装置
JP5303015B2 (ja) 2011-08-29 2013-10-02 富士フイルム株式会社 内視鏡診断装置
US9332193B2 (en) 2011-11-14 2016-05-03 Omnivision Technologies, Inc. Synchronization of image acquisition in multiple image sensors with a synchronization clock signal
US8890945B2 (en) 2011-11-14 2014-11-18 Omnivision Technologies, Inc. Shared terminal of an image sensor system for transferring image data and control signals
EP3517018A1 (en) 2011-11-21 2019-07-31 Boston Scientific Scimed, Inc. Endoscopic system for optimized visualization
KR20130059150A (ko) 2011-11-28 2013-06-05 삼성전자주식회사 내시경용 대물 렌즈, 포커싱을 위한 액츄에이터 및 내시경 시스템
JP5863428B2 (ja) 2011-12-05 2016-02-16 Hoya株式会社 電子内視鏡スコープ、ホワイトバランス調整方法、電子内視鏡システム、ホワイトバランス調整治具
CA2798729A1 (en) 2011-12-13 2013-06-13 Peermedical Ltd. Rotatable connector for an endoscope
CA2798716A1 (en) 2011-12-13 2013-06-13 Peermedical Ltd. Removable tip endoscope
JP2013123848A (ja) 2011-12-14 2013-06-24 Mitsubishi Paper Mills Ltd インクジェット記録材料の製造方法
TWI483612B (zh) * 2011-12-22 2015-05-01 Nat Univ Chung Cheng Converting the video plane is a perspective view of the video system
US9434708B2 (en) 2011-12-28 2016-09-06 Furanix Technologies B.V. Process for carrying out a reaction involving a liquid reaction mixture
CA2765550A1 (en) 2012-01-17 2013-07-17 Chrystal Bouvier Guide, comfort dry rubber dam liner
US20130197309A1 (en) 2012-01-31 2013-08-01 Olympus Medical Systems Corp. Endoscope
US9480497B2 (en) 2012-02-01 2016-11-01 Angiodynamics, Inc. Skin nicking device, method and assembly
US20150049177A1 (en) * 2012-02-06 2015-02-19 Biooptico Ab Camera Arrangement and Image Processing Method for Quantifying Tissue Structure and Degeneration
KR101905648B1 (ko) 2012-02-27 2018-10-11 삼성전자 주식회사 카메라 장치의 동영상 촬영방법 및 장치
DE102012205598A1 (de) 2012-04-04 2013-10-10 Henke-Sass, Wolf Gmbh Schutzhülse für ein ein Endoskoprohr aufweisendes Endoskop
US8702647B2 (en) 2012-04-19 2014-04-22 Medtronic Ablation Frontiers Llc Catheter deflection anchor
US9134004B2 (en) 2012-04-27 2015-09-15 Cerno Llc Lighting system for art works
KR101695251B1 (ko) * 2012-05-22 2017-01-12 한화테크윈 주식회사 원격으로 카메라 fpga 배열을 변경하기 위한 시스템 및 카메라 제어 방법
WO2014018682A1 (en) 2012-07-24 2014-01-30 B3 Plastics, Llc Dripless trash bag
US9560954B2 (en) 2012-07-24 2017-02-07 Endochoice, Inc. Connector for use with endoscope
JP6195334B2 (ja) 2012-08-30 2017-09-13 キヤノン株式会社 撮像装置、撮像方法およびプログラム
US20140178875A1 (en) 2012-10-09 2014-06-26 Advandx, Inc. Devices, Compositions and Methods Pertaining To Microscopic Analysis Of Microorganisms and Other Analytes of Interest
EP2908714A4 (en) 2012-10-18 2016-06-29 Endochoice Innovation Ct Ltd MULTI-CAMERA ENDOSCOPE
CA2793716A1 (fr) 2012-10-26 2014-04-26 Daniel Therriault Moteur a maree
US9841280B2 (en) 2012-12-31 2017-12-12 Karl Storz Imaging, Inc. Modular medical imaging system
JP6077340B2 (ja) * 2013-03-06 2017-02-08 富士フイルム株式会社 画像処理装置及び内視鏡システムの作動方法
US20140316204A1 (en) 2013-03-28 2014-10-23 Endochoice Inc. Removably Attachable Endoscopic Water Bottle Assembly and A Flushing Adaptor Thereof
US9636003B2 (en) 2013-06-28 2017-05-02 Endochoice, Inc. Multi-jet distributor for an endoscope
US20140364691A1 (en) 2013-03-28 2014-12-11 Endochoice, Inc. Circuit Board Assembly of A Multiple Viewing Elements Endoscope
US9993142B2 (en) 2013-03-28 2018-06-12 Endochoice, Inc. Fluid distribution device for a multiple viewing elements endoscope
US9986899B2 (en) 2013-03-28 2018-06-05 Endochoice, Inc. Manifold for a multiple viewing elements endoscope
JP2016522006A (ja) 2013-03-28 2016-07-28 エンドチョイス インコーポレイテッドEndochoice, Inc. 小型マルチビュー素子内視鏡システム
DE102013006621A1 (de) 2013-04-17 2014-10-23 Giesecke & Devrient Gmbh Verfahren zum Bereitstellen einer Applikation auf einem Sicherheitsmodul sowie ein solches Sicherheitsmodul
CN105324066B (zh) 2013-04-29 2018-09-18 恩多巧爱思股份有限公司 紧凑的多观察元件内窥镜系统中的视频处理
WO2014182728A2 (en) 2013-05-06 2014-11-13 Endochoice, Inc. Image capture assembly for use in a multi-viewing elements endoscope
US9667935B2 (en) 2013-05-07 2017-05-30 Endochoice, Inc. White balance enclosure for use with a multi-viewing elements endoscope
EP2994033B1 (en) 2013-05-09 2020-06-17 EndoChoice, Inc. Operational interface in a multi-viewing elements endoscope
CN105358042B (zh) 2013-05-13 2018-05-29 恩多巧爱思股份有限公司 内窥镜端头位置视觉指示器和热量管理系统
WO2014186621A1 (en) 2013-05-15 2014-11-20 Ripple Llc Systems and methods for electrical stimulation of neural tissue
US20140343361A1 (en) 2013-05-16 2014-11-20 Endochoice, Inc. Tip Protector for a Multi-Viewing Elements Endoscope
EP2996541B1 (en) 2013-05-17 2020-07-08 EndoChoice, Inc. Interface unit in a multiple viewing elements endoscope system
US9949623B2 (en) 2013-05-17 2018-04-24 Endochoice, Inc. Endoscope control unit with braking system
EP2996536A2 (en) 2013-05-17 2016-03-23 EndoChoice, Inc. Endoscope control unit with braking system
CN109549613A (zh) 2013-05-17 2019-04-02 恩多巧爱思股份有限公司 具有两个前服务通道的多观察元件内窥镜
CN105431074B (zh) 2013-05-17 2017-12-05 安万特医疗系统公司 次级成像内窥镜装置
US20150313450A1 (en) 2013-05-17 2015-11-05 Endochoice, Inc. Stopper for the Cables of a Bending Section of An Endoscope
US9144726B2 (en) 2013-06-26 2015-09-29 Swingrite, Llc. Bat swing training device
EP3756533B1 (en) 2013-06-28 2023-09-20 EndoChoice, Inc. Multiple viewing elements endoscope system with modular imaging units
EP3827728B1 (en) 2013-07-01 2023-06-07 EndoChoice, Inc. Circuit board assembly of a multiple viewing elements endoscope
US10210599B2 (en) * 2013-08-09 2019-02-19 Intuitive Surgical Operations, Inc. Efficient image demosaicing and local contrast enhancement
US10064541B2 (en) 2013-08-12 2018-09-04 Endochoice, Inc. Endoscope connector cover detection and warning system
US20150057500A1 (en) 2013-08-26 2015-02-26 Endochoice Inc. System for Connecting and Disconnecting A Main Connector and A Main Control Unit of An Endoscope
JP6411474B2 (ja) 2013-09-24 2018-10-24 エンドチョイス インコーポレイテッドEndochoice, Inc. 複数ビュー素子内視鏡の回路基板アセンブリ
US9292454B2 (en) 2013-09-27 2016-03-22 Microsoft Technology Licensing, Llc Data caching policy in multiple tenant enterprise resource planning system
DE102013110860A1 (de) 2013-10-01 2015-04-02 Endochoice Gmbh Endoskop mit einem am Endoskop befestigten Versorgungskabel
US9943218B2 (en) 2013-10-01 2018-04-17 Endochoice, Inc. Endoscope having a supply cable attached thereto
US20150099926A1 (en) 2013-10-03 2015-04-09 Endochoice, Inc. Endoscope with Integrated Sensors
US9982094B2 (en) 2013-10-22 2018-05-29 Empire Technology Development Llc Compounds and methods for producing nylon 6
CN110151102B (zh) 2013-12-02 2022-04-01 安都乔斯公司 用于观察内窥镜的流体分配设备
KR101537174B1 (ko) * 2013-12-17 2015-07-15 가톨릭대학교 산학협력단 스테레오스코픽 영상에서의 주요 객체 검출 방법
KR101510020B1 (ko) 2013-12-18 2015-04-07 현대자동차주식회사 로봇팔
US9968242B2 (en) 2013-12-18 2018-05-15 Endochoice, Inc. Suction control unit for an endoscope having two working channels
US9360035B2 (en) 2014-01-13 2016-06-07 Jeffrey D. Carnevali Rod-to-tube adapter
WO2015112747A2 (en) 2014-01-22 2015-07-30 Endochoice, Inc. Image capture and video processing systems and methods for multiple viewing element endoscopes
EP3096675B1 (en) 2014-01-25 2020-09-02 EndoChoice, Inc. System for eliminating image motion blur in a multiple viewing elements endoscope
JP5968928B2 (ja) * 2014-02-14 2016-08-10 富士フイルム株式会社 医用画像表示制御装置およびその作動方法並びに医用画像表示制御プログラム
WO2015134060A1 (en) 2014-03-04 2015-09-11 Endochoice, Inc. Manifold for a multiple viewing elements endoscope
WO2015168066A1 (en) 2014-05-01 2015-11-05 Endochoice, Inc. System and method of scanning a body cavity using a multiple viewing elements endoscope
US11234581B2 (en) 2014-05-02 2022-02-01 Endochoice, Inc. Elevator for directing medical tool
WO2015168664A1 (en) 2014-05-02 2015-11-05 Endochoice, Inc. Stopper for the cables of a bending section of an endoscope
WO2015171732A1 (en) 2014-05-07 2015-11-12 Endochoice, Inc. Endoscope illumination with multiple viewing elements and illuminators
US9532870B2 (en) 2014-06-06 2017-01-03 Edwards Lifesciences Corporation Prosthetic valve for replacing a mitral valve
US20150374206A1 (en) 2014-06-26 2015-12-31 Endochoice, Inc. Methods and Systems for Managing Information Generated From and Transmitted To An Endoscopic System
JP2016016050A (ja) * 2014-07-07 2016-02-01 ソニー株式会社 画像処理装置および方法、プログラム、並びに内視鏡システム
CN111436896A (zh) 2014-07-21 2020-07-24 恩多巧爱思股份有限公司 多焦、多相机内窥镜系统
WO2016033403A1 (en) 2014-08-29 2016-03-03 Endochoice, Inc. Systems and methods for varying stiffness of an endoscopic insertion tube
CH710098B1 (de) 2014-09-15 2018-05-31 Killer Andreas Fahrzeug mit tetraederförmigem Fahrgestell.
US10316753B2 (en) 2014-09-19 2019-06-11 The Boeing Company Pre-cooler inlet ducts that utilize active flow-control and systems and methods including the same
AU2014277853A1 (en) * 2014-12-22 2016-07-07 Canon Kabushiki Kaisha Object re-identification using self-dissimilarity
EP3747349A1 (en) * 2015-05-17 2020-12-09 Endochoice, Inc. Endoscopic image enhancement using contrast limited adaptive histogram equalization (clahe) implemented in a processor
KR101718868B1 (ko) * 2015-09-21 2017-03-22 한국과학기술연구원 자동 의료영상 분할에 의한 3차원 악안면 모델 형성 방법, 이를 수행하는 자동 영상 분할과 모델 형성 서버 및 이를 저장하는 기록매체
CN105353042B (zh) 2015-10-09 2019-04-12 西京学院 一种基于saft的单晶硅内部缺陷时域检测成像方法

Also Published As

Publication number Publication date
US20230362340A1 (en) 2023-11-09
US20200092526A1 (en) 2020-03-19
WO2016187124A1 (en) 2016-11-24
EP3297515A1 (en) 2018-03-28
US12231829B2 (en) 2025-02-18
US20250159121A1 (en) 2025-05-15
US20220239878A1 (en) 2022-07-28
EP3297515B1 (en) 2020-07-01
US10516865B2 (en) 2019-12-24
EP3297515A4 (en) 2019-01-23
US11750782B2 (en) 2023-09-05
EP3747349A1 (en) 2020-12-09
US10791308B2 (en) 2020-09-29
US11330238B2 (en) 2022-05-10
US20160335751A1 (en) 2016-11-17
US20200374499A1 (en) 2020-11-26

Similar Documents

Publication Publication Date Title
ES2818174T3 (es) Mejora de imagen endoscópica usando ecualización de histograma adaptativo limitado por contraste (CLAHE) implementada en un procesador
JP6844539B2 (ja) 映像信号処理装置および映像信号処理方法、ならびに表示装置
US20100245557A1 (en) Injection of secondary images into microscope viewing fields
JP2018519860A (ja) 動的視野内視鏡
CN108135457A (zh) 内窥镜图像处理装置
US10729309B2 (en) Endoscope system
US10123684B2 (en) System and method for processing video images generated by a multiple viewing elements endoscope
CN100563333C (zh) 内窥镜装置
KR101071676B1 (ko) 다면 내시경과 다면 내시경의 영상 표시 시스템
US20190058844A1 (en) Ultrasound observation device, operation method of image signal processing apparatus, image signal processing method, and computer-readable recording medium
EP3029934A1 (en) Image outputting device
US20180249139A1 (en) Medical signal processing device and medical observation system
US11368647B2 (en) Medical image recording control apparatus, medical image recording control system, and medical image recording control method
US20160174822A1 (en) Multiple Viewing Element Endoscope System Having Multiple Sensor Motion Synchronization
JP2010017452A (ja) 電子内視鏡用プロセッサ装置及び画像処理システム
JP6064091B2 (ja) 内視鏡システム
JP5647996B2 (ja) 内視鏡装置