ES2999091T3 - Verification of segmentation of luminescence images limited to analysis regions thereof - Google Patents
Verification of segmentation of luminescence images limited to analysis regions thereof Download PDFInfo
- Publication number
- ES2999091T3 ES2999091T3 ES21714164T ES21714164T ES2999091T3 ES 2999091 T3 ES2999091 T3 ES 2999091T3 ES 21714164 T ES21714164 T ES 21714164T ES 21714164 T ES21714164 T ES 21714164T ES 2999091 T3 ES2999091 T3 ES 2999091T3
- Authority
- ES
- Spain
- Prior art keywords
- computing device
- luminescence
- region
- image
- detection segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10064—Fluorescence image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
- Image Analysis (AREA)
Abstract
Se propone una solución para la obtención de imágenes de un campo de visión (103) que comprende un objetivo (115) que contiene una sustancia luminiscente. Un método correspondiente (500) comprende fijar (512-552) una región de análisis (225;260) en una parte de una imagen luminiscente 5(205;205F) que rodea una representación sospechosa del objetivo (115) y segmentar (554-556) la región de análisis (225;260) en un segmento de detección (230d;265d) y un segmento de no detección (230n;265n) de la sustancia luminiscente; la imagen luminiscente (205;205F) se muestra a continuación (558-586) con el segmento de detección (230d;265d) que se resalta según un indicador de verificación basado en una calidad de la segmentación 0. También se propone un programa informático (400) y un producto de programa informático correspondiente para implementar el método (500). Además, se propone un sistema correspondiente (100). Se proponen además un método quirúrgico, un método de diagnóstico y un método terapéutico basados en la misma solución. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Verificación de la segmentación de imágenes de luminiscencia limitada a las regiones de análisis de las mismas
Campo técnico
La presente descripción se refiere a aplicaciones de procesamiento de imágenes. Más específicamente, esta descripción se refiere a la obtención de imágenes de luminiscencia.
Estado de la técnica
El antecedente de la presente descripción se introduce a continuación con el análisis de las técnicas relacionadas con su contexto. Sin embargo, incluso cuando este análisis se refiere a documentos, actos, artefactos y similares, no sugiere ni representa que las técnicas analizadas son parte de la técnica anterior o son de conocimiento general común en el campo relevante a la presente descripción.
La obtención de imágenes de luminiscencia, y especialmente la obtención de imágenes de fluorescencia, es una técnica de obtención de imágenes específica que se usa para adquirir imágenes que proporcionan una representación visual de objetos, incluso si no son visibles directamente. Esta técnica se basa en un fenómeno de luminiscencia, que consiste en la emisión de luz por sustancias de luminiscencia cuando se someten a cualquier excitación diferente del calentamiento; particularmente, ocurre un fenómeno de fluorescencia en las sustancias de fluorescencia (llamadas fluoróforos), que emiten (de fluorescencia) luz cuando se iluminan. Para este propósito, las imágenes de fluorescencia se muestran generalmente para representar la luz de fluorescencia que se emite desde diferentes ubicaciones de los objetos, y luego los fluoróforos que están presentes en las mismas.
La obtención de imágenes de fluorescencia se explota de manera rutinaria en equipos médicos para inspeccionar las partes corporales (internas) de los pacientes. En este caso, los agentes de fluorescencia (posiblemente adaptados para alcanzar moléculas específicas de los objetivos deseados, tales como lesiones como tumores, y luego permanecer inmovilizados en los mismos en aplicaciones de Imágenes Moleculares de Fluorescencia (FMI)) se administran generalmente a los pacientes. La representación de los agentes de fluorescencia (inmovilizados) en las imágenes de fluorescencia facilita la identificación (y cuantificación) de los objetivos. Esta información puede usarse en varias aplicaciones médicas, por ejemplo, en aplicaciones quirúrgicas para reconocer los márgenes de las lesiones a resecar, en aplicaciones de diagnóstico para descubrir o monitorear las lesiones y en aplicaciones terapéuticas para delinear las lesiones a tratar.
Sin embargo, el reconocimiento correcto de las lesiones sigue siendo bastante desafiante, ya que se ve afectado negativamente por varios factores que obstaculizan. Por ejemplo, las lesiones pueden emitir una cantidad variable de luz de fluorescencia debido a las diferencias en la biología y la perfusión de sus tejidos. Además, otras partes del campo de visión diferentes de las lesiones pueden emitir luz de fluorescencia perturbadora que varía de acuerdo con su tipo; por ejemplo, la luz perturbadora puede deberse a instrumentos quirúrgicos, manos, herramientas quirúrgicas, partes del cuerpo circundantes (como la piel alrededor de una cavidad quirúrgica u órganos irrelevantes dentro de la misma) y materiales de fondo.
Particularmente, las imágenes de fluorescencia a menudo se segmentan en porciones con características sustancialmente homogéneas (segmentos) para discriminar los fluoróforos (y luego los objetivos correspondientes) de un resto del campo de visión; con referencia particular a las aplicaciones médicas, la segmentación de las imágenes de fluorescencia puede usarse para discriminar las lesiones del tejido sano. Para este propósito, las ubicaciones de la parte del cuerpo se clasifican en un segmento de la lesión o un segmento del tejido sano al comparar los valores correspondientes (de fluorescencia) de cada imagen de fluorescencia con un umbral de segmentación. El umbral de segmentación se calcula generalmente automáticamente de acuerdo con una distribución estadística de los valores de fluorescencia. Sin embargo, la luz perturbadora sesga la distribución estadística de los valores de fluorescencia y luego el umbral de segmentación (ya sea aumentándolo o reduciéndolo). Esto implica el riesgo de clasificar incorrectamente las ubicaciones de la parte del cuerpo.
Por ejemplo, en aplicaciones quirúrgicas esto conduce a la incertidumbre sobre el reconocimiento preciso de los márgenes de las lesiones (con el riesgo de resección incompleta de las lesiones o eliminación excesiva del tejido sano). En las aplicaciones de diagnóstico, esto afecta negativamente la identificación y/o la cuantificación de las lesiones, lo que puede conducir a malas interpretaciones (con el riesgo de falsos positivos/negativos y seguimiento incorrecto). En las aplicaciones terapéuticas, esto afecta negativamente la delineación de las lesiones a tratar (con el riesgo de reducir la efectividad de una terapia o de daños al tejido sano).
El documento US-A-2019/030371 describe una técnica para segmentar imágenes médicas 3D. Para este propósito, se usa una primera red neuronal que trabaja en 2D o 2.5D para producir una estimación rápida de una región de interés más pequeña dentro de una estructura 3D grande; luego se usa una segunda red neuronal que trabaja en 3D para obtener una segmentación más precisa de dicha región de interés.
Resumen
Se presenta en la presente descripción un resumen simplificado de la presente descripción con el fin de proporcionar una comprensión básica de la misma; sin embargo, el único propósito de este resumen es introducir algunos conceptos de la descripción en una forma simplificada como preludio a su siguiente descripción más detallada, y no debe interpretarse como una identificación de sus elementos clave ni como una delimitación de su alcance.
En términos generales, la presente descripción se basa en la idea de verificar la segmentación cuando se limita a una región de análisis.
Particularmente, un aspecto proporciona un método para la obtención de imágenes de un campo de visión que comprende un objetivo que contiene una sustancia luminiscente. El método comprende establecer una región de análisis a una porción de una imagen de luminiscencia que rodea una representación sospechada del objetivo y segmentar la región de análisis en un segmento de detección y un segmento de no detección del agente de luminiscencia; la imagen de luminiscencia se visualiza entonces con el segmento de detección que se resalta de acuerdo con un indicador de verificación en base a la calidad de la segmentación.
Un aspecto adicional proporciona un programa informático para implementar el método. Un ejemplo no cubierto por las reivindicaciones proporciona un producto de programa informático correspondiente. Un aspecto adicional proporciona un sistema para implementar el método. Un ejemplo no cubierto por las reivindicaciones proporciona un método quirúrgico correspondiente. Un ejemplo no cubierto por las reivindicaciones proporciona un método de diagnóstico correspondiente. Un ejemplo no cubierto por las reivindicaciones proporciona un método terapéutico correspondiente.
Más específicamente, uno o más aspectos de la presente descripción se establecen en las reivindicaciones independientes y las características ventajosas de las mismas se establecen en las reivindicaciones dependientes, con la redacción de todas las reivindicaciones que se incorporan en la presente descripciónpalabra por palabrapor referencia (con cualquier característica ventajosa proporcionada con referencia a cualquier aspecto específico que se aplicamutatis mutandisa todos los demás aspectos).
Breve descripción de las figuras
La solución de la presente descripción, así como también las características adicionales y las ventajas de la misma, se entenderá mejor con referencia a la siguiente descripción detallada de la misma, dada puramente por medio de indicación no restrictiva, que se leerá junto con las figuras adjuntas (en donde, en aras de la simplicidad, los elementos correspondientes se denotan con referencias iguales o similares y su explicación no se repite, y el nombre de cada entidad se usa generalmente para denotar tanto su tipo como sus atributos, tales como valor, contenido y representación). Particularmente:
La Figura 1 muestra un diagrama de bloques esquemático de un sistema de obtención de imágenes que puede usarse para practicar la solución de acuerdo con una modalidad de la presente descripción,
La Figura 2A-Figura 2C y la Figura 3A-Figura 3D muestran diferentes ejemplos de aplicación de la solución de acuerdo con una modalidad de la presente descripción,
La Figura 4 muestra los principales componentes de software que pueden usarse para implementar la solución de acuerdo con una modalidad de la presente descripción, y
La Figura 5A-Figura 5C muestra un diagrama de actividades que describe el flujo de actividades relacionadas con una implementación de la solución de acuerdo con una modalidad de la presente descripción.
Descripción detallada
Con referencia en particular a la Figura 1, se muestra un diagrama de bloques esquemático de un sistema de obtención de imágenes 100 que puede usarse para practicar la solución de acuerdo con una modalidad de la presente descripción.
El sistema de obtención de imágenes 100 permite la obtención de imágenes de una escena de un campo de visión correspondiente 103 (definido por una parte del mundo dentro de un ángulo sólido al que es sensible el sistema de obtención de imágenes 100). Por ejemplo, el sistema de obtención de imágenes 100 se usa para ayudar a un cirujano en aplicaciones quirúrgicas, comúnmente conocidas como Cirugía Guiada por Fluorescencia (FGS), y particularmente Resección Guiada por Fluorescencia (FGR) cuando se relaciona con tumores. En este caso específico, el campo de visión 103 se relaciona con un paciente 106 que se somete a un procedimiento quirúrgico, al que se ha administrado un agente de fluorescencia (por ejemplo, adaptado para acumularse en tumores). El campo de visión 103 contiene una parte del cuerpo 109 del paciente 106, en donde se ha abierto una cavidad quirúrgica 112 (por ejemplo, una pequeña incisión de piel en cirugía mínimamente invasiva) para exponer un tumor 115 a resecar. El campo de visión 103 también puede contener uno o más objetos extraños diferentes de la cavidad quirúrgica 112 (no mostrada en la figura), por ejemplo, instrumentos quirúrgicos, manos, herramientas quirúrgicas, partes del cuerpo circundantes, materiales de fondo, etc. (ya sea alrededor o superpuestos a la cavidad quirúrgica 112<).>
El sistema de obtención de imágenes 100 tiene una sonda de procesamiento de imágenes 118 para adquirir imágenes del campo de visión 103 y una unidad central 121 para controlar su funcionamiento.
A partir de la sonda de imagen 118, tiene una unidad de iluminación (para iluminar el campo de visión 103) y una unidad de adquisición (para adquirir imágenes del campo de visión 103) que comprenden los siguientes componentes. En la unidad de iluminación, una fuente de luz de excitación 124 y una fuente de luz blanca 127 generan una luz de excitación y una luz blanca, respectivamente. La luz de excitación tiene longitud de onda y energía adecuados para excitar los fluoróforos del agente de fluorescencia (tal como del tipo de infrarrojo cercano, o NIR), mientras que la luz blanca aparece sustancialmente incolora al ojo humano (tal como que contiene todas las longitudes de onda del espectro que es visible para el ojo humano con igual intensidad). Las correspondientes ópticas de suministro 130 y ópticas de suministro 133 suministran la luz de excitación y la luz blanca, respectivamente, al (mismo) campo de visión 103. En la unidad de adquisición, los ópticas de recolección 136 recogen luz del campo de visión 103 (en una geometría de iluminación epi). La luz recolectada comprende luz de fluorescencia que se emite por cualquier fluoróforo presente en el campo de visión (iluminado por la luz de excitación). De hecho, los fluoróforos pasan a un estado excitado (electrónico) cuando absorben la luz de excitación; el estado excitado es inestable, de modo que los fluoróforos decaen muy brevemente de allí a un estado (electrónico) de referencia, emitiendo de esta manera la luz de fluorescencia (en una longitud de onda característica, más larga que la de la luz de excitación debido a la energía disipada como calor en el estado excitado) con una intensidad en dependencia de la cantidad de fluoróforos que se iluminan (y en otros factores que comprenden la posición de los fluoróforos dentro del campo de visión 103 y la parte del cuerpo 109). Además, la luz recolectada comprende luz de reflectancia en el espectro visible, o luz visible, que se refleja por cualquier objeto presente en el campo de visión (iluminado por la luz blanca). Un divisor de haz 139 divide la luz que se recoge en dos canales. Por ejemplo, el divisor de haz 139 es un espejo dicróico que transmite y refleja la luz que se recoge en longitudes de onda por encima y por debajo, respectivamente, de una longitud de onda umbral entre un espectro de la luz visible y un espectro de la luz de fluorescencia (o viceversa). En el canal (transmitido) del divisor de haz 139 con la luz de fluorescencia definida por la porción de la luz recolectada en su espectro, un filtro de emisión 142 filtra la luz de fluorescencia para eliminar cualquier luz de excitación (que podría reflejarse por el campo de visión 103) y luces ambiente (que podrían generarse por fluorescencia intrínseca). Una cámara de fluorescencia 145 (por ejemplo, de tipo EMCCD) recibe la luz de fluorescencia del filtro de emisión 142 y genera una imagen de fluorescencia correspondiente (digital) que representa la distribución de los fluoróforos en el campo de visión 103. En el otro canal (reflejado) del divisor de haz 139 con la luz visible definida por la porción de la luz recolectada en su espectro, una cámara de reflectancia, o fotografía 148 (por ejemplo, de tipo CCD) recibe la luz visible y genera una imagen de reflectancia, o fotografía, correspondiente (digital) que representa lo que es visible al ojo humano en el campo de visión 103.
El paso a la unidad central 121, comprende varias unidades que se conectan entre sí a través de una estructura de bus 151. Particularmente, uno o más microprocesadores (|jP) 154 proporcionan una capacidad lógica de la unidad central 121. Una memoria no volátil (ROM) 157 almacena el código básico para un arranque de la unidad central 121 y una memoria volátil (RAM) 160 se usa como una memoria de trabajo por los microprocesadores 154. La unidad central 121 se proporciona con una memoria de masa 163 para almacenar programas y datos (por ejemplo, un Disco de Estado Sólido, o SSD). Además, la unidad central 121 comprende un número de controladores 166 para periféricos, o unidades de Entrada/Salida (I/O). Particularmente, los controladores 166 controlan la fuente de luz de excitación 124, la fuente de luz blanca 127, la cámara de fluorescencia 145 y la cámara fotográfica 148 de la sonda de imagen 118; además, los controladores 166 controlan periféricos adicionales, denominados en su conjunto con la referencia 169, tales como uno o más monitores para visualizar las imágenes, un teclado para ingresar comandos, una bola de seguimiento para mover un puntero en el(los) monitor(es), una unidad de lectura/escritura para leer/escribir unidades de almacenamiento extraíbles (tales como claves USB) y una tarjeta de interfaz de red (NIC) para conectarse a una red de comunicación (tal como una LAN).
Con referencia ahora a la Figura 2A-Figura 2C y la Figura 3A-Figura 3D, se muestran diferentes ejemplos de aplicación de la solución de acuerdo con una modalidad de la presente descripción. Particularmente, la Figura 2A-Figura 2C se relacionan con un modo de funcionamiento no asistido (básico) y la Figura 3A-Figura 3D se relacionan con un modo de funcionamiento asistido (avanzado) del sistema de obtención de imágenes.
A partir de la Figura 2A (modo de funcionamiento no asistido), se ha adquirido una imagen de fluorescencia 205 del campo de visión 103. La imagen de fluorescencia 205 proporciona una representación de la cavidad quirúrgica 112 (con el tumor) y de diferentes objetos extraños que comprenden la piel 210 alrededor de la cavidad quirúrgica 112, un retráctil de tejido 215 y las pinzas 220.
Pasando a la Figura 2B, en la solución de acuerdo con una modalidad de la presente descripción, se establece una región de análisis 225 en una porción de la imagen de fluorescencia 205 que rodea la representación (sospechada) del tumor. Particularmente, en esta implementación específica la región de análisis 225 tiene una forma y tamaño predefinidos (un pequeño cuadrado igual a una fracción predefinida de la imagen de fluorescencia 205) y se centra en la imagen de fluorescencia 205 (posiblemente ajustado para contener la representación del tumor y de algún tejido sano adyacente).
Pasando a la Figura 2C, la región de análisis 225 se segmenta en un segmento de detección 230d y un segmento de no detección 230n de acuerdo con los valores (de fluorescencia) de la imagen de fluorescencia 205 solo en la región de análisis 225; el segmento de detección 230d es representativo de la detección del agente de fluorescencia y el segmento de no detección 230n es representativo de la no detección del agente fluorescente, es decir, en este caso del tumor (sospechado) y del tejido sano que define un fondo del mismo, respectivamente. Por ejemplo, se calcula un umbral de segmentación de acuerdo con una distribución estadística de los valores de fluorescencia de la región de análisis 225; las ubicaciones correspondientes del campo de visión 103 se asignan al segmento de detección 230d o al segmento de no detección 230n de acuerdo con una comparación de los valores de fluorescencia con el umbral de segmentación. Luego se determina un indicador de verificación, en base a un indicador de calidad de la segmentación de la región de análisis 225. Por ejemplo, se calculan un valor medio de los valores de fluorescencia del segmento de detección 230d (Intensidad del Tumor (TI) igual a 6123 para el tumor en la figura) y un valor medio de los valores de fluorescencia del segmento de no detección 230n (Intensidad de Fondo (BI) igual a 4386 para el fondo del tejido sano en la figura); el indicador de verificación se establece en el indicador de calidad dado por el valor medio del segmento de detección 230d dividido por el valor medio del segmento de no detección 230n (Relación Tumor a Fondo (TBR) igual a 1,4 en la figura). La imagen de fluorescencia 205 se visualiza luego con el segmento de detección 230d que se resalta de acuerdo con el indicador de verificación. Por ejemplo, el indicador de verificación se compara con un umbral de verificación, tal como predefinido para el tipo de procedimiento quirúrgico (TH=1 en la figura); el segmento de detección 230d se colorea cuando el indicador de verificación es mayor que el umbral de verificación (1,4>1 en este caso), mientras que de cualquier otra manera se deja en blanco y negro (no se muestra en la figura).
La solución descrita anteriormente facilita significativamente el reconocimiento del tumor. De hecho, la limitación de la segmentación solo a la (pequeña) región de análisis 225 permite excluir variaciones adicionales de la luz de fluorescencia debido a la luz de fluorescencia perturbadora de otras partes del campo de visión 103 diferente del tumor.
Particularmente, la distribución estadística de los valores de fluorescencia en la región de análisis 225 ahora no tiene sesgo (ya que cualquier luz perturbadora que afecta al resto de la imagen de fluorescencia 205 no contribuye a la misma). Como un resultado, el umbral de segmentación es más preciso, reduciendo de esta manera el riesgo de mala clasificación de las ubicaciones del campo de visión 103.
Al mismo tiempo, la visualización de la imagen de fluorescencia 205 (que representa todo el campo de visión 103) proporciona una representación contextualizada del tumor dentro de la parte del cuerpo; además, esto permite mover la región de análisis 225 a partes adicionales del campo de visión 103 si es necesario.
En cualquier caso, el resaltado (dinámico) del segmento de detección 230d de acuerdo con el indicador de verificación permite reconocer el tumor solo cuando realmente debería estar presente. De hecho, cuando la calidad de la segmentación es suficientemente buena, es muy probable que el segmento de detección 230d represente el tumor; en este caso, la visualización resaltada del segmento de detección 230d es inmediatamente evidente para el cirujano, de modo que la porción correspondiente de la parte del cuerpo puede resecarse con una alta confianza de que se relaciona con un positivo verdadero. Por el contrario, cuando la calidad de la segmentación es relativamente mala, es dudoso si el segmento de detección 230d representa realmente el tumor; en este caso, el resaltado faltante (o reducido) del segmento de detección evita que el cirujano actúe sobre la porción correspondiente de la parte del cuerpo ya que existe un riesgo de un falso positivo.
La solución descrita anteriormente reduce significativamente el riesgo de resección incompleta del tumor o de eliminación excesiva del tejido sano. Todo lo anterior tiene un efecto beneficioso sobre la salud del paciente.
Con referencia ahora a la Figura 3A (modo de funcionamiento asistido), se ha adquirido un par de imágenes de reflectancia 205R e imágenes de fluorescencia 205F correspondientes del mismo campo de visión 103. La imagen de reflectancia 205R y la imagen de fluorescencia 205F proporcionan una representación concurrente (en términos de luz visible y luz de fluorescencia, respectivamente) de la cavidad quirúrgica 112 (con el tumor) y de diferentes objetos extraños que comprenden la piel 235 y un separador de tejido 240 alrededor de la cavidad quirúrgica 112 y las manos del cirujano 245 (parcialmente) que se superponen a la cavidad quirúrgica 112.
Pasando a la Figura 3B, en la solución de acuerdo con una modalidad de la presente descripción, se identifica una región informativa (de reflectancia) 250Ri en la imagen de reflectancia 205R de acuerdo con su contenido. La región informativa 250Ri representa la cavidad quirúrgica sin los objetos extraños (la piel, el separador de tejido y las manos del cirujano en este caso), y luego una parte informativa del campo de visión 103 que es realmente de interés para el procedimiento quirúrgico (esdecir,una región de interés, o ROI, de la misma). El resto de la imagen de reflectancia 205R define entonces una región no informativa (de reflectancia) 250Rn que representa los objetos extraños, y luego una parte no informativa del campo de visión 103 que no es de interés para el procedimiento quirúrgico. Por ejemplo, como se describe en detalle a continuación, este resultado se logra con técnicas de segmentación semántica (como en base al uso de una red neuronal).
La identificación de la región informativa 250Ri (y luego de la región no informativa 250Rn también) en la imagen de reflectancia 205F se transfiere a la imagen de fluorescencia 205F. Particularmente, se identifica una región informativa (de fluorescencia) 250Fi en la imagen de fluorescencia 205F correspondiente a la región informativa 250Ri. Como un resultado, el resto de la imagen de fluorescencia 205F define una región no informativa (de fluorescencia) 250Fn correspondiente a la región no informativa 250Rn.
Pasando a la Figura 3C, una región de análisis similar 260 ahora se establece en una porción de la región informativa 250Fi (en la imagen de fluorescencia 205F) que rodea la representación (sospechada) del tumor. Particularmente, en esta implementación específica la región de análisis 260 tiene una forma y tamaño predefinidos (un cuadrado pequeño igual a una fracción predefinida de la región informativa 250Fi) y se centra en la región informativa 250Fi (posiblemente ajustado para contener la representación del tumor y de algún tejido sano adyacente).
Pasando a la Figura 3D, la región de análisis 260 se procesa de la misma manera que la anterior. Por lo tanto, la región de análisis 260 se segmenta en un segmento de detección 265d y un segmento de no detección 265n de acuerdo con los valores de fluorescencia de la imagen de fluorescencia 205F solo en la región de análisis 260 (por medio de un umbral de segmentación calculado de acuerdo con la distribución estadística de sus valores de fluorescencia). Un indicador de verificación se determina en base a un indicador de calidad de la segmentación de la región de análisis 260 (por ejemplo, se establece en la TBR correspondiente). Como se muestra en la figura, en este caso, la imagen de fluorescencia 205F también se visualiza con el segmento de detección 265d que se resalta de acuerdo con el indicador de verificación, por ejemplo, se colorea cuando el indicador de verificación es mayor que el umbral de verificación (mientras que de cualquier otra manera se deja en blanco y negro, no se muestra en la figura).
La implementación descrita anteriormente mejora además la confiabilidad del reconocimiento del tumor. De hecho, en este caso solo se tiene en cuenta la representación (informativa) de la cavidad quirúrgica, en lugar de ignorar automáticamente la representación (no informativa) de los objetos extraños (alrededor y/o superponiéndose a él). Esto evita (o al menos reduce sustancialmente) cualquier efecto adverso de los objetos extraños en la segmentación de la región de análisis 260. Particularmente, la distribución estadística de los valores de fluorescencia en los que se basa la segmentación de la región de análisis 260 ahora no tiene sesgo (ya que los valores de fluorescencia en la región no informativa 250Fn no contribuyen a la misma).
Con referencia ahora a la Figura 4, se muestran los componentes de software principales que pueden usarse para implementar la solución de acuerdo con una modalidad de la presente descripción.
Todos los componentes de software (programas y datos) se denotan en su conjunto con la referencia 400. Los componentes de software 400 se almacenan típicamente en la memoria masiva y se cargan (al menos en parte) en la memoria de trabajo de la unidad central del sistema de obtención de imágenes cuando los programas se ejecutan, junto con un sistema operativo y otros programas de aplicación no directamente relevantes para la solución de la presente descripción (por lo tanto se omiten en la figura en aras de la simplicidad). Los programas se instalan inicialmente en la memoria masiva, por ejemplo, desde unidades de almacenamiento extraíbles o desde la red de comunicación. En este sentido, cada programa puede ser un módulo, segmento o porción de código, que comprende una o más instrucciones ejecutables para implementar la función lógica especificada.
Un administrador de fluorescencia 405 gestiona una unidad de fluorescencia del sistema de obtención de imágenes (que comprende la fuente de luz de excitación y la cámara de fluorescencia) dedicada a adquirir las imágenes de fluorescencia del campo de visión adecuadamente iluminado para este propósito. El administrador de fluorescencia 405 accede (en modo de escritura) a un repositorio de imágenes de fluorescencia 410, que almacena una secuencia de imágenes de fluorescencia que se adquieren en sucesión durante un proceso de obtención de imágenes que está en progreso. Cada imagen de fluorescencia se define por un mapa de bits que comprende una matriz de células (por ejemplo, con 512 filas y 512 columnas) cada una de las cuales almacena el valor (de fluorescencia) de un píxel, es decir, un elemento de imagen básico correspondiente a una localización (de fluorescencia) del campo de visión; cada valor de píxel define el brillo del píxel como una función de una intensidad de la luz de fluorescencia emitida por la localización, y luego de una cantidad del agente de fluorescencia presente en el mismo (por ejemplo, de negro a blanco a medida que aumenta la cantidad del agente de fluorescencia). Igualmente, un administrador de reflectancia 415 gestiona una unidad de reflectancia del sistema de obtención de imágenes (que comprende la fuente de luz blanca y la cámara fotográfica) dedicada a adquirir las imágenes de reflectancia del campo de visión adecuadamente iluminado para este propósito. El administrador de reflectancia 415 accede (en modo de escritura) a un repositorio de imágenes de reflectancia 420, que almacena una secuencia de imágenes de reflectancia que se adquieren en sucesión durante el mismo proceso de obtención de imágenes (sincronizado con las imágenes de fluorescencia en el repositorio correspondiente 410). Cada imagen de reflectancia se define por un mapa de bits que comprende una matriz de celdas (con el mismo o diferente tamaño con respecto a las imágenes de fluorescencia) cada una de las cuales almacena el valor de (reflectancia) de un píxel correspondiente a una (localización de reflectancia) del campo de visión (ya sea el mismo o diferente con respecto a las localizaciones de fluorescencia); cada valor de píxel define la luz visible que se refleja por la localización (tal como sus componentes RGB).
En la implementación asistida, un reductor 425 reduce una imagen de fluorescencia (seleccionada) a su región informativa, al segmentar la imagen de reflectancia correspondiente (semánticamente) en su región informativa y en la región no informativa (de acuerdo con el contenido de la misma y posiblemente además de acuerdo con el contenido de la imagen de fluorescencia), y luego transfiere la segmentación de la imagen de reflectancia a la imagen de fluorescencia. El reductor 425 accede (en modo de lectura) al repositorio de imágenes de reflectancia 420 y (opcionalmente) al repositorio de imágenes de fluorescencia 410, y accede (en modo de escritura) a un repositorio de máscaras de reducción 430. El repositorio de máscaras de reducción 430 almacena una máscara de reducción (de fluorescencia) que define las regiones informativas/no informativas de la imagen de fluorescencia. La máscara de reducción se forma por una matriz de células con el mismo tamaño que las imágenes de fluorescencia, cada una de las cuales almacena una bandera de reducción que indica una clasificación del píxel correspondiente en la región informativa o en la región no informativa; por ejemplo, la bandera de reducción se afirma (tal como en el valor lógico 1) cuando el píxel pertenece a la región informativa y se desactiva (tal como en el valor lógico 0) cuando el píxel pertenece a la región no informativa. El reductor 425 también usa una variable (no mostrada en la figura) que almacena una máscara de reducción (de reflectancia) que define las regiones informativas/no informativas de la imagen de reflectancia de una manera similar (es decir, mediante una matriz de células con el mismo tamaño que las imágenes de reflectancia, cada una de las cuales almacena una bandera de reducción que indica una clasificación del píxel correspondiente en la región informativa o en la región no informativa). En cualquier caso, se usa un establecedor 435 para establecer la región de análisis (dentro de toda la imagen de fluorescencia en la implementación no asistida o dentro de su región informativa en la implementación asistida). El establecedor 435 accede (en modo de lectura) al repositorio de imágenes de fluorescencia 410 y (posiblemente) al repositorio de la máscara de reducción 430. Además, el establecedor 435 expone una interfaz de usuario para ajustar manualmente la región de análisis. El establecedor 435 accede (en modo de escritura) a un repositorio de máscaras de análisis 440. El repositorio de máscaras de análisis 440 almacena una máscara de análisis que define la región de análisis (común) de las imágenes de fluorescencia. La máscara de análisis se forma por una matriz de células del mismo tamaño que las imágenes de fluorescencia, cada una de las cuales almacena una bandera de análisis que se afirma (tal como en el valor lógico 1) cuando el píxel pertenece a la región de análisis y se desactiva (tal como en el valor lógico 0) de cualquier otra manera. Un segmentador 445 segmenta las regiones de análisis de las imágenes de fluorescencia en sus segmentos de detección y segmentos de no detección con una técnica de formación de umbrales. El segmentador 445 accede (en modo de lectura) al repositorio de imágenes de fluorescencia 410, al repositorio de máscara de análisis 440 y (posiblemente) al repositorio de máscara de reducción 430, y accede (en modo de escritura) a un repositorio de máscaras de segmentación 450. El repositorio de máscaras de segmentación 450 comprende una entrada para cada imagen de fluorescencia en el repositorio correspondiente 410; la entrada almacena una máscara de segmentación que define los segmentos de detección/no detección de la región de análisis de la imagen de fluorescencia. La máscara de segmentación se forma por una matriz de células del mismo tamaño que las imágenes de fluorescencia, cada una de las cuales almacena una bandera de segmentación que se afirma (tal como en el valor lógico 1) cuando el píxel pertenece al segmento de detección de la región de análisis y se desactiva (tal como en el valor lógico 0) de lo contrario, es decir, cuando el píxel pertenece al segmento de no detección de la región de análisis o está fuera de la región de análisis y posiblemente de la región informativa. Un verificador 455 verifica las segmentaciones de las imágenes de fluorescencia (al calcular los indicadores de verificación correspondientes y posiblemente compararlos con el umbral de verificación). El verificador 455 accede (en modo de lectura) al repositorio de imágenes de fluorescencia 410, al repositorio de máscaras de segmentación 450, al repositorio de máscaras de análisis 440 y (posiblemente) al repositorio de máscaras de reducción 430. Además, el verificador 455 también puede acceder (en modo de lectura) a un repositorio de umbrales de verificación 460. El repositorio de umbrales de verificación 460 almacena uno o más umbrales de verificación para los objetivos correspondientes (por ejemplo, diferentes tipos de tumores en diferentes órganos). Estos umbrales de verificación se han predeterminado a partir de la evidencia clínica y/o estudios. Por ejemplo, para cada objetivo se aplican las mismas operaciones mencionadas anteriormente durante varios procedimientos quirúrgicos, y se registran los indicadores de verificación correspondientes (para sus segmentaciones); los siguientes informes de patología de las biopsias correspondientes determinan si las partes del cuerpo de los segmentos de detección realmente representaron el objetivo (positivo) o no (negativo). El umbral de verificación para el objetivo se calcula para optimizar la precisión de su reconocimiento, dado por los indicadores de verificación más altos que el umbral de verificación para los informes de patología positivos y más bajos que el umbral de verificación para los informes de patología negativos (por ejemplo, para minimizar los negativos falsos en donde los indicadores de verificación son más bajos que el umbral de verificación para los informes de patología positivos). El verificador 455 también expone una interfaz de usuario para seleccionar el tipo de objetivo para cada procedimiento de procesamiento de obtención de imágenes manualmente. El verificador 455 accede (en modo de escritura y posiblemente también en modo de lectura) a un repositorio de resultados de verificación 465. El repositorio de resultados de verificación 465 comprende una entrada para cada imagen de fluorescencia en el repositorio correspondiente 410. La entrada almacena un resultado de (verificación) de la verificación de la segmentación de la imagen de fluorescencia; por ejemplo, el resultado de verificación se da por el indicador de verificación y/o por una bandera (de verificación) que se afirma (tal como en el valor lógico 1) cuando la verificación es positiva (indicador de verificación mayor que el umbral de verificación) y se desestima (tal como en el valor lógico 0) cuando la verificación es negativa (indicador de verificación menor que el umbral de verificación), posiblemente con información adicional que se ha usado para verificar la segmentación (como se describe a continuación). Un visualizador 470 visualiza las imágenes de fluorescencia con el (posible) resaltado de sus segmentos de detección en el monitor del sistema de obtención de imágenes. El visualizador 470 accede (en modo de lectura) al repositorio de imágenes de fluorescencia 410, al repositorio de máscaras de segmentación 450 y al repositorio de resultados de verificación 465.
Con referencia ahora a la Figura 5A-Figure 5C se muestra un diagrama de actividades que describe el flujo de actividades relacionadas con una implementación de la solución de acuerdo con una modalidad de la presente descripción.
Particularmente, el diagrama de actividad representa un proceso ilustrativo que puede usarse para la obtención de imágenes de un paciente durante un procedimiento quirúrgico con un método 500. En este sentido, cada bloque puede corresponder a una o más instrucciones ejecutables para implementar la función lógica especificada en la unidad central del sistema de obtención de imágenes.
Antes del procedimiento quirúrgico, un operador de atención médica (por ejemplo, una enfermera) administra un agente de fluorescencia al paciente. El agente de fluorescencia (por ejemplo, Indocianina Verde, Azul de Metileno, etc.) se adapta para alcanzar un objetivo específico (biológico), tal como un tumor a resecar, y para permanecer sustancialmente inmovilizado en el mismo. Este resultado puede lograrse mediante el uso de un agente de fluorescencia no dirigido (adaptado para acumularse en el objetivo sin ninguna interacción específica con el mismo, tal como mediante la acumulación pasiva) o un agente de fluorescencia dirigido (adaptado para unirse al objetivo por medio de una interacción específica con el mismo, tal como se logra mediante la incorporación de un ligando específico del objetivo en la formulación del agente de fluorescencia, por ejemplo, en base a propiedades de unión química y/o estructuras físicas adaptadas para interactuar con diferentes tejidos, propiedades vasculares, características metabólicas y así sucesivamente). El agente de fluorescencia se administra al paciente por vía intravenosa como un bolo (con una jeringa); como consecuencia, el agente de fluorescencia circula dentro del sistema vascular del paciente hasta alcanzar el tumor y unirse a él; el agente de fluorescencia restante (no unido) se elimina en cambio de la reserva de sangre (de acuerdo con un tiempo de vida media correspondiente). Después de un tiempo de espera que permita que el agente de fluorescencia se acumule en el tumor y se elimine de las otras partes del cuerpo del paciente (por ejemplo, de algunos minutos a 24-72 horas), se puede iniciar el procedimiento quirúrgico. Por lo tanto, el operador enciende el sistema de obtención de imágenes.
En respuesta a ello, el proceso comienza pasando del círculo de inicio en negro 502 al bloque 504. En este punto, si es necesario, el operador selecciona el tipo de objetivo para el procedimiento quirúrgico (es decir, el órgano y el tumor) en la interfaz de usuario del verificador; en consecuencia, el verificador recupera el umbral de verificación del objetivo (seleccionado) del repositorio correspondiente. El operador coloca la sonda de imagen cerca de una región del paciente en donde un cirujano abre una cavidad quirúrgica; el operador introduce entonces un comando de inicio en el sistema de obtención de imágenes (por ejemplo, con su teclado). En respuesta a ello, el administrador de fluorescencia y el administrador de reflectancia en el bloque 506 encienden la fuente de luz de excitación y la fuente de luz blanca, respectivamente, para iluminar el campo de visión. Al pasar al bloque 508, el administrador de fluorescencia y el administrador de reflectancia adquieren simultáneamente una (nueva) imagen de fluorescencia y una (nueva) imagen de reflectancia, respectivamente, y las añaden a los repositorios correspondientes; de esta manera, la imagen de fluorescencia y la imagen de reflectancia se adquieren sustancialmente al mismo tiempo y proporcionan diferentes representaciones (en términos de luz de fluorescencia y luz visible, respectivamente) del mismo campo de visión que son espacialmente coherentes (es decir, existe una correlación predecible entre sus píxeles, hasta una identidad perfecta). Las imágenes de fluorescencia/reflectancia se visualizan en sucesión en el monitor en tiempo real, para permitir que el operador corrija una posición de la sonda de imagen y/o el paciente. Estas operaciones continúan hasta que la cavidad quirúrgica se imagina correctamente, y el operador en el bloque 510 introduce un comando de inicialización en el sistema de obtención de imágenes (por ejemplo, con su teclado) para establecer la región de análisis en la imagen de fluorescencia (actual), posiblemente aprovechando la imagen de reflectancia correspondiente (actual). El flujo de actividad ahora se ramifica en el bloque 512 de acuerdo con un modo de funcionamiento del sistema de obtención de imágenes (por ejemplo, se establece manualmente durante una configuración del mismo, definida por defecto o la única disponible). Particularmente, en el modo no asistido (de funcionamiento) se ejecuta el bloque 514, mientras que en el modo asistido (de funcionamiento) se ejecutan los bloques 516-520; en ambos casos, el flujo de actividad se fusiona nuevamente en el bloque 522.
Con referencia ahora al bloque 514 (modo no asistido), el establecedor establece un espacio de contexto (para establecer la región de análisis) a toda la imagen de fluorescencia (extraída del repositorio correspondiente). El proceso luego desciende al bloque 522.
Con referencia en su lugar al bloque 516 (modo asistido), el reductor segmenta la imagen de fluorescencia de acuerdo con una segmentación semántica de la imagen de reflectancia (extraída de los correspondientes repositorios), como se describe en la solicitud internacional copendiente Núm. PCT/EP2021/054162 de 19 de febrero de 2021. Brevemente, el reductor puede aplicar uno o más filtros para mejorar la calidad de la imagen de reflectancia; particularmente, puede aplicarse una ecualización de histograma cuando la imagen de reflectancia es adecuada para identificar la región informativa pero no muy brillante (es decir, un promedio de sus valores de píxeles se comprende entre los umbrales correspondientes). Además o en alternativa, el reductor puede reducir la escala de la imagen de reflectancia para reducir la complejidad computacional, puede agrupar sus píxeles en grupos sustancialmente homogéneos (cada uno representado por un valor de grupo en base a los valores de píxeles correspondientes) para simplificar la segmentación semántica, puede aplicar un algoritmo de compensación de movimiento (para alinear la imagen de reflectancia con la imagen de fluorescencia) y/o un algoritmo de deformación (para corregir una distorsión de la imagen de reflectancia con respecto a la imagen de fluorescencia). El reductor luego segmenta la imagen de reflectancia (posiblemente preprocesada) semánticamente aplicando un algoritmo de clasificación o una técnica de aprendizaje profundo. En el caso del algoritmo de clasificación, el reductor extrae una característica más de la imagen de reflectancia y posiblemente también de la imagen de fluorescencia, al aplicar filtros que generan los correspondientes mapas de características; el reductor luego calcula la máscara de reducción de reflectancia al aplicar un algoritmo de clasificación específico, tal como el algoritmo de Campo Aleatorio Condicional (CRF), a los mapas de características. El reductor puede refinar opcionalmente la máscara de reducción de reflectancia obtenida (por ejemplo, al asignar cualquier porción desconectada de la región no informativa completamente rodeada por la región informativa a la misma y/o al eliminar los píxeles aislados mal clasificados). En el caso de la técnica de aprendizaje profundo, en su lugar, el reductor aplica la imagen de reflectancia (y posiblemente la imagen de fluorescencia también) a una red neuronal (tal como una U-Net), que genera directamente la máscara de reducción de reflectancia. El reductor en el bloque 518 segmenta la imagen de fluorescencia en su región informativa y región no informativa al transferir la segmentación correspondiente de la imagen de reflectancia a la misma. Para este propósito, el reductor adapta opcionalmente la máscara de reducción de reflectancia a la imagen de fluorescencia (al reducirla/escala en menor tamaño cuando tienen diferentes tamaños). El reductor establece entonces la máscara de reducción de fluorescencia igual a la máscara de reducción de reflectancia (posiblemente adaptada) y la guarda en el repositorio correspondiente. El establecedor en el bloque 520 establece el espacio de contexto (para establecer la región de análisis) en la región informativa de la imagen de fluorescencia definida por la máscara de reducción (fluorescencia). El proceso luego desciende al bloque 522.
Con referencia ahora al bloque 522, el establecedor inicializa la región de análisis para tener una forma inicial (por ejemplo, un cuadrado) y un tamaño inicial. El tamaño inicial es igual a una fracción predeterminada (tal como 1-10 %, preferentemente 2-8 % y aún con mayor preferencia 3-7 %, tal como 5 %) del tamaño del espacio de contexto; por ejemplo, la región de análisis se dimensiona para contener un número de píxeles igual a la fracción predeterminada del número de píxeles del espacio de contexto (dada por todas las células de la imagen de fluorescencia en el modo no asistido o por las células de la máscara de reducción cuya bandera de reducción se afirma en el modo asistido). El flujo de actividad se ramifica nuevamente en el bloque 524 de acuerdo con un modo de operación (más) del sistema de obtención de imágenes (por ejemplo, se establece manualmente durante una configuración del mismo, definido por defecto o el único disponible). Particularmente, en un modo manual (de operación) se ejecuta el bloque 526, mientras que en un modo automático (de operación) se ejecutan los bloques 528-544; en ambos casos, el flujo de actividad se fusiona nuevamente en el bloque 546.
Con referencia ahora al bloque 526 (modo manual), el establecedor inicializa la región de análisis para tener una posición inicial, centrada en el espacio de contexto. Por ejemplo, un marco de trabajo se define como la imagen de fluorescencia (en el modo no asistido) o como el área rectangular más pequeña de la imagen de fluorescencia que encierra la región informativa (en el modo asistido); el establecedor determina el centro del marco de trabajo y luego alinea el centro de la región de análisis con él. El proceso luego desciende al bloque 546.
Con referencia en su lugar al bloque 528 (modo automático), la región de análisis se inicializa en una posición inicial de una mejor región candidata seleccionada entre una pluralidad de regiones candidatas (que es candidata para inicializar la región de análisis); las regiones candidatas se definen moviendo una ventana con la forma inicial y el tamaño inicial de la región de análisis a lo largo del mismo marco de trabajo que anteriormente (es decir, la imagen de fluorescencia en el modo no asistido o el área rectangular más pequeña de la imagen de fluorescencia que encierra la región informativa en el modo asistido). Para este propósito, al principio se tiene en cuenta una región candidata (actual) en un extremo de inicio del marco de trabajo (por ejemplo, en su esquina superior izquierda). Un lazo entonces se deja entrar en el bloque 530, en donde el flujo de actividad se ramifica de acuerdo con un criterio de selección de las regiones candidatas (por ejemplo, establecido manualmente durante una configuración de las mismas, definido por defecto o la única disponible). Particularmente, en el caso de un criterio de selección en base a indicadores de calidad, se ejecutan los bloques 532-534, mientras que en el caso de un criterio de selección en base a indicadores de intensidad, se ejecuta el bloque 536; en ambos casos, el flujo de actividad se fusiona nuevamente en el bloque 538. Con referencia ahora al bloque 532 (indicadores de calidad), el establecedor ordena al segmentador que segmente la región candidata en su segmento de detección (candidato) y el segmento de no detección (candidato) (como se describe a continuación). El establecedor en el bloque 534 ordena al verificador que calcule el indicador de calidad (candidato) de la segmentación de la región candidata (como se describe en lo siguiente). Con referencia en su lugar al bloque 536 (indicadores de intensidad), el establecedor calcula un indicador de intensidad de la región candidata de acuerdo con sus valores de píxeles dentro del espacio de contexto (es decir, todos ellos en el modo no asistido o solo los que pertenecen a la región informativa en el modo asistido), por ejemplo, igual a su promedio. Pasando ahora al bloque 538, el establecedor compara el indicador de calidad/intensidad de la región candidata con un valor en ejecución que consiste en el indicador de calidad/intensidad de la región candidata seleccionada provisionalmente como la región de análisis (inicializado a un valor nulo). Si el indicador de calidad/intensidad es (posiblemente estrictamente) mayor que el valor de ejecución, esto significa que la región candidata es mejor que la región de análisis (provisional). Por lo tanto, el establecedor en el bloque 540 establece provisionalmente la región de análisis en la región candidata y reemplaza el valor de ejecución con su indicador de calidad/intensidad. El proceso continúa luego con el bloque 542; el mismo punto también se alcanza directamente desde el bloque 538 si el indicador de calidad/intensidad es (posiblemente estrictamente) menor que el valor de ejecución (lo que significa que la región de análisis provisional aún lo es). En este punto, el establecedor verifica si se ha procesado una última región candidata; esto sucede cuando la región candidata ha alcanzado un extremo final del marco de trabajo, opuesto a su extremo de inicio (por ejemplo, su esquina inferior derecha en el ejemplo en cuestión). Si no, el establecedor en el bloque 544 pasa a una siguiente región candidata moviéndose a lo largo de una trayectoria de escaneo del marco de trabajo; por ejemplo, la región candidata se mueve uno o más píxeles horizontalmente lejos del extremo de inicio (hacia la derecha) hasta que se alcanza un borde opuesto del marco de trabajo, luego por uno o más píxeles verticalmente dentro del marco de trabajo (hacia abajo), luego por uno o más píxeles horizontalmente en la dirección opuesta (hacia la izquierda) hasta que se alcanza un borde opuesto del marco de trabajo, luego por uno o más píxeles verticalmente dentro del marco de trabajo (hacia abajo) y así sucesivamente. El proceso luego regresa al bloque 530 para repetir la misma operación en esta siguiente región candidata. Las mismas operaciones también pueden realizarse simultáneamente (al menos en parte) para reducir el tiempo de cálculo. A la inversa, una vez que se han procesado todas las regiones candidatas, el lazo se deja salir el descendiendo al bloque 546; de esta manera, en la salida del bucle, la región de análisis se establece en la mejor región candidata automáticamente.
Con referencia ahora al bloque 546, el establecedor añade una representación de la región de análisis que se inicializa a las imágenes de fluorescencia que se visualizan en sucesión en el monitor (por ejemplo, con un contorno de la región de análisis en color, tal como rojo, sobre las imágenes de fluorescencia en blanco y negro). El cirujano en el bloque 548 puede pedir al operador que ajuste la región de análisis manualmente a través de la interfaz de usuario del establecedor; por ejemplo, se puede proporcionar un selector para cambiar el tamaño de la región de análisis y/o se pueden proporcionar cuatro botones para mover la región de análisis a lo largo de las direcciones correspondientes (hacia la izquierda, hacia la derecha, hacia arriba y hacia abajo). Esto permite incluir la representación sospechada del tumor en la región de análisis incluso en condiciones inusuales (tal como cuando el tumor es muy grande y/o está cerca de un borde de la cavidad quirúrgica). Adicional o en alternativamente, el cirujano en el bloque 550 puede pedir al operador que mueva la sonda de imágenes o él puede mover la cavidad quirúrgica directamente (para obtener un movimiento opuesto de la región de análisis en las imágenes de fluorescencia/reflectancia correspondientes). En la mayoría de las situaciones prácticas, esto permite incluir la representación sospechada del tumor en la región de análisis sin cambiar su tamaño y posición a través de la interfaz de usuario del establecedor; esto es especialmente ventajoso cuando solo se mueve la cavidad quirúrgica, ya que permite que el cirujano ajuste la región de análisis por sí mismo sin ningún contacto con el sistema de obtención de imágenes (y luego sin ninguna preocupación por la esterilidad). Una vez que el cirujano confirma que la región de análisis está correctamente posicionada, el operador en el bloque 552 introduce un comando de confirmación en el sistema de obtención de imágenes (por ejemplo, con su teclado); en respuesta a ello, el establecedor guarda la máscara de análisis que define la región de análisis que se determina en el repositorio correspondiente.
A partir de ahora, la región de análisis en cada imagen de fluorescencia (nueva) que se adquiere se segmenta en su segmento de detección y en el segmento de no detección. Para este propósito, el segmentador en el bloque 554 determina un umbral de segmentación de la región de análisis de acuerdo con una distribución estadística de sus valores de píxeles posiblemente dentro de la región informativa, por ejemplo, aplicando el algoritmo de Otsu (para minimizar una varianza intraclase del segmento de detección y el segmento de no detección). Para este propósito, el segmentador tiene en cuenta los valores de píxeles de la imagen de fluorescencia cuyo indicador de análisis en la máscara de análisis se afirma, y además cuya bandera de reducción en la máscara de reducción se afirma en el modo asistido (recuperado de los repositorios correspondientes); de esta manera, en el modo asistido es posible disponer la región de análisis a lo largo del contorno de la región informativa (tal como cuando el tumor está cerca de ella) sin verse afectado negativamente por el contenido de la región no informativa de la imagen de fluorescencia. El segmentador en el bloque 556 genera la máscara de segmentación al comparar los valores de píxeles de la región de análisis posiblemente dentro de la región informativa con el umbral de segmentación; particularmente, para cada píxel cuyo indicador de análisis en la máscara de análisis se afirma y además cuya bandera de reducción en la máscara de reducción se afirma para el modo asistido, la bandera de segmentación correspondiente se afirma cuando el valor de píxel correspondiente en la imagen de fluorescencia es (posiblemente estrictamente) mayor que el umbral de segmentación y se desestima de cualquier otra manera, mientras que para cada otro píxel la bandera de segmentación correspondiente siempre se desestima. El segmentador guarda entonces la máscara de segmentación obtenida en el repositorio correspondiente.
El flujo de actividad luego se ramifica en el bloque 558 de acuerdo con un modo de evaluación del indicador de verificación de la segmentación de la región de análisis (por ejemplo, seleccionado manualmente al comienzo del procedimiento de obtención de imágenes, definido por defecto o el único disponible). Particularmente, en un modo doble (de evaluación) se ejecutan los bloques 560-564, mientras que en un modo único (de evaluación) se ejecuta el bloque 566; en ambos casos, el flujo de actividad se fusiona nuevamente en el bloque 568. Con referencia ahora al bloque 560 (modo doble), el indicador de calidad se determina de acuerdo con una comparación entre el segmento de detección y el segmento de no detección. Particularmente, el segmentador calcula un parámetro estadístico (de detección) para el segmento de detección, por ejemplo, igual a un promedio de sus valores de píxeles (TI); para este propósito, el verificador tiene en cuenta los valores de píxeles de la imagen de fluorescencia cuyo indicador de detección se afirma en la máscara de segmentación (recuperada de los repositorios correspondientes). Igualmente, el segmentador en el bloque 562 calcula un parámetro estadístico (de no detección) para el segmento de no detección, por ejemplo, de nuevo igual a un promedio de sus valores de píxeles (BI); para este propósito, el verificador tiene en cuenta los valores de píxeles de la imagen de fluorescencia cuyo indicador de detección se desactiva en la máscara de segmentación y, al mismo tiempo, cuyo indicador de análisis en la máscara de análisis se afirma y además cuyo indicador de reducción en la máscara de reducción se afirma para el modo asistido (recuperado de los repositorios correspondientes). El verificador en el bloque 564 calcula el indicador de calidad de acuerdo con una comparación entre el parámetro estadístico de detección y el parámetro estadístico de no detección, por ejemplo, su relación (TBR). El proceso continúa luego al bloque 568. Con referencia en su lugar al bloque 566 (modo único), el indicador de calidad se determina de acuerdo con el segmento de detección solo. Particularmente, el segmentador establece el indicador de calidad en un indicador de continuidad del segmento de detección, por ejemplo, igual a un valor máximo que se reduce en una cantidad proporcional al número de porciones desconectadas del segmento de detección de una porción principal del mismo (posiblemente ponderado de acuerdo con su tamaño). El proceso continúa luego al bloque 568.
Con referencia ahora al bloque 568, el flujo de actividad se ramifica de acuerdo con un modo de verificación del sistema de obtención de imágenes (por ejemplo, se selecciona manualmente al comienzo del procedimiento de obtención de imágenes, definido por defecto o el único disponible). Particularmente, en un modo dinámico (verificación) cada imagen de fluorescencia se verifica individualmente; esto es adecuado para situaciones en donde el campo de visión cambia continuamente (tal como en aplicaciones quirúrgicas), incluso si su aplicación en cualquier otra situación no se excluye. En este caso, el verificador en el bloque 570 establece el indicador de verificación de la imagen de fluorescencia en su indicador de calidad. Por el contrario, en un modo estático (verificación) se tienen en cuenta múltiples imágenes de fluorescencia para la verificación; esto es adecuado para situaciones en donde el campo de visión permanece sustancialmente igual con el tiempo (tal como en aplicaciones de diagnóstico/terapéuticas), incluso si su aplicación en cualquier otra situación no se excluye (por ejemplo, al tener en cuenta pocas imágenes de fluorescencia). En este caso, el verificador en el bloque 572 establece el indicador de verificación de la imagen de fluorescencia a un promedio de los indicadores de calidad de un conjunto de imágenes de fluorescencia que comprende la actual y una o más anteriores (recuperadas del repositorio correspondiente), por ejemplo, en un número predefinido tal como 5-10. Esto mejora la fiabilidad de la verificación, gracias a un suavizado correspondiente de los cambios transitorios del campo de visión. En ambos casos, el verificador en el bloque 574 también puede comparar el indicador de verificación con el umbral de verificación (recuperado anteriormente para el objetivo). El verificador luego guarda el resultado de la verificación que se obtiene en el repositorio correspondiente; particularmente, el resultado de la verificación comprende el indicador de verificación y/o la bandera de verificación que se afirma cuando el indicador de verificación es (posiblemente estrictamente) mayor que el umbral de verificación (verificación positiva) y se desestima de cualquier otra manera (verificación negativa), posiblemente con información adicional, por ejemplo, que comprende el parámetro de detección estadística, el parámetro de no detección estadística y el umbral de verificación.
El flujo de actividad luego se ramifica en el bloque 576 de acuerdo con un modo de resaltado del segmento de detección (por ejemplo, seleccionado manualmente al comienzo del procedimiento de obtención de imágenes, definido por defecto o el único disponible). Particularmente, en un modo de selección (resaltado) el flujo de actividad se ramifica además en el bloque 578 de acuerdo con el resultado de verificación (recuperado del repositorio correspondiente). Si el resultado de la verificación es positivo (indicador de verificación afirmado), el visualizador en el bloque 580 verifica si el modo de selección es autónomo. Si es así, el visualizador en el bloque 582 actualiza la imagen de fluorescencia resaltando los píxeles del segmento de detección como se indica en la máscara de segmentación (recuperada de los repositorios correspondientes); por ejemplo, los píxeles del segmento de detección se colorean (tal como en rojo) con el brillo que aumenta con los valores de píxeles correspondientes a lo largo de todo el intervalo de visualización del monitor (sobre el resto de la imagen de fluorescencia en blanco y negro). Con referencia de vuelta al bloque 576, en un modo progresivo (resaltado) el proceso desciende al bloque 584; el mismo punto también se alcanza desde el bloque 580 cuando el modo selectivo se combina con el modo progresivo. En ambos casos, el visualizador actualiza la imagen de fluorescencia resaltando los píxeles del segmento de detección como se indica en la máscara de segmentación (recuperada de los repositorios correspondientes) con una intensidad de resaltado en dependencia del indicador de verificación; por ejemplo, los píxeles del segmento de detección se colorean con el brillo que aumenta con los valores de píxeles correspondientes (a lo largo de todo un intervalo de visualización del monitor) y con la longitud de onda que aumenta con el indicador de verificación (tal como de azul a rojo cuando el modo progresivo es autónomo o de amarillo a rojo cuando el modo progresivo se combina con el modo selectivo), sobre el resto de la imagen de fluorescencia en blanco y negro, oviceversalos píxeles del segmento de detección se colorean con longitud de onda que aumenta con los valores de píxeles correspondientes y con el brillo que aumenta con el indicador de verificación. El proceso continúa luego con el bloque 586 desde el bloque 582 o el bloque 582. El mismo punto también se alcanza directamente desde el bloque 578 en el modo de selección si el resultado de la verificación es negativo (indicador de verificación desactivado); en este caso, la imagen de fluorescencia permanece sin cambios, por ejemplo, completamente en blanco y negro (que comprende su segmento de detección). El visualizador ahora muestra la imagen de fluorescencia con la representación de la región de análisis y posiblemente con el segmento de detección resaltado (y con la posible información adicional de la verificación correspondiente) en el monitor. De esta manera, el color del segmento de detección y/o su mayor intensidad proporcionan una indicación inmediata al cirujano de la posibilidad de que realmente represente el tumor a resecar (también gracias a la explotación de todo el intervalo de visualización del monitor).
El establecedor en el bloque 588 verifica si el operador ha ingresado un comando de cambio en el sistema de obtención de imágenes (por ejemplo, con su teclado) para cambiar la región de análisis, por ejemplo, cuando el cirujano desea moverse a una porción diferente de la cavidad quirúrgica. Si es así, el proceso vuelve al bloque 512 para establecer una región de análisis (nueva) como se mencionó anteriormente. Por el contrario, el segmentador en el bloque 590 verifica si el operador ha ingresado un comando de finalización en el sistema de obtención de imágenes (por ejemplo, con su teclado) para finalizar el procedimiento de obtención de imágenes. Si no, el procedimiento vuelve al bloque 554 para repetir las mismas operaciones en una siguiente imagen de fluorescencia. Por el contrario, el proceso termina en los círculos de parada concéntricos blancos/negros 592 (después de que el administrador de fluorescencia y el administrador de reflectancia han apagado la fuente de luz de excitación y la fuente de luz blanca, respectivamente).
Modificaciones
Naturalmente, con el fin de satisfacer los requisitos locales y específicos, un experto en la técnica puede aplicar muchas modificaciones y alteraciones lógicas y/o físicas a la presente descripción. Más específicamente, aunque esta descripción se ha descrito con un cierto grado de particularidad con referencia a una o más modalidades de la misma, debe entenderse que diversas omisiones, sustituciones y cambios en la forma y detalles así como también otras modalidades son posibles. Particularmente, diferentes modalidades de la presente descripción incluso pueden practicarse sin los detalles específicos (como los valores numéricos) establecidos en la descripción anterior para proporcionar una comprensión más completa de los mismos; por el contrario, las características bien conocidas pueden haberse omitido o simplificado con el fin de no oscurecer la descripción con detalles innecesarios. Además, se pretende expresamente que los elementos y/o etapas del método específicos descritos en relación con cualquier modalidad de la presente descripción puedan incorporarse en cualquier otra modalidad como una cuestión de elección de diseño general. Además, los elementos presentados en un mismo grupo y en diferentes modalidades, ejemplos o alternativas no deben interpretarse comode factoequivalentes entre sí (pero son entidades separadas y autónomas). En cualquier caso, cada valor numérico debe leerse como modificado de acuerdo con las tolerancias aplicables; particularmente, a menos que se indique de otra forma, los términos "sustancialmente", "alrededor de", "aproximadamente" y similares deben entenderse como dentro del 10 %, preferentemente el 5%y aún con mayor preferencia el 1 %. Además, cada intervalo de valores numéricos debe entenderse como que especifica expresamente cualquier número posible a lo largo de lacontinuodentro del intervalo (que comprende sus puntos finales). Los ordinales u otros calificativos se usan simplemente como etiquetas para distinguir elementos con el mismo nombre, pero no por sí mismos, denotan ninguna prioridad, precedencia u orden. Los términos incluyen, comprenden, tienen, contienen, implican y similares deben interpretarse con un significado abierto, no exhaustivo (es decir, no se limitan a los elementos enumerados), los términos en base a, en dependencia de, de acuerdo con, función de y similares deben entenderse como una relación no exclusiva (es decir, con posibles variables adicionales involucradas), el término un/una debe interpretarse como uno o más elementos (a menos que se indique expresamente de cualquier otra manera), y el término medios para (o cualquier formulación de medios más función) debe interpretarse como cualquier estructura adaptada o configurada para llevar a cabo la función relevante.
Por ejemplo, una modalidad proporciona un método para la obtención de imágenes de un campo de visión. Sin embargo, el método puede usarse para obtener imágenes de cualquier campo de visión para cualquier propósito (por ejemplo, en aplicaciones médicas, análisis forenses, inspecciones de defectos/rasguños, etc.).
En una modalidad, el campo de visión comprende un objetivo. Sin embargo, el objetivo puede ser de cualquier tipo (por ejemplo, partes del cuerpo, huellas digitales, partes mecánicas, etc.).
En una modalidad, el objetivo contiene una sustancia de luminiscencia. Sin embargo, la sustancia de luminiscencia puede ser de cualquier tipo extrínseco/intrínseco o exógeno/endógeno (por ejemplo, cualquier agente de luminiscencia, cualquier componente de luminiscencia natural, en base a cualquier fenómeno de luminiscencia, tal como fluorescencia, fosforescencia, quimioluminiscencia, bioluminiscencia, radiación Raman inducida, etc.).
En una modalidad, el método comprende las siguientes etapas bajo el control de un dispositivo informático. Sin embargo, el dispositivo informático puede ser de cualquier tipo (ver más abajo).
En una modalidad, el método comprende proporcionar (al dispositivo informático) una imagen de luminiscencia del campo de visión. Sin embargo, la imagen de luminiscencia puede proporcionarse de cualquier manera (por ejemplo, adquirida directamente, transferida con una unidad de almacenamiento extraíble, cargada a través de una red, etc.).
En una modalidad, la imagen de luminiscencia comprende una pluralidad de valores de luminiscencia representativos de una luz de luminiscencia que se emite por la sustancia de luminiscencia desde las ubicaciones de luminiscencia correspondientes del campo de visión. Sin embargo, la imagen de luminiscencia puede tener cualquier tamaño y forma y puede comprender valores de luminiscencia de cualquier tipo y para cualquier ubicación de luminiscencia (por ejemplo, escala de grises o valores de colores en RBG, YcBcr, HSL, CIE-L*a*b, color Lab y similares, para píxeles o vóxeles, etc.); la luz de luminiscencia puede ser de cualquier tipo (por ejemplo, NIR, infrarrojo (IR), visible, etc.) y puede emitirse de cualquier manera (por ejemplo, en respuesta a una luz de excitación correspondiente o más generalmente a cualquier otra excitación diferente del calentamiento).
En una modalidad, el método comprende establecer (por el dispositivo informático), una región de análisis a una porción de la imagen de luminiscencia que rodea una representación sospechada del objetivo. Sin embargo, la región de análisis puede establecerse de cualquier manera (por ejemplo, dentro de toda la imagen de luminiscencia o solo en su región informativa, predefinida o determinada en tiempo de ejecución, manual, semiautomática o completamente automáticamente, etc.).
En una modalidad, el método comprende segmentar (por el dispositivo informático) la región de análisis en un segmento de detección y un segmento de no detección representativo de la detección del agente de luminiscencia y de la no detección del agente de luminiscencia, respectivamente, de acuerdo con los valores de luminiscencia solo de la región de análisis. Sin embargo, la región de análisis puede segmentarse de cualquier manera (por ejemplo, con algoritmos de umbral, algoritmos de clasificación, técnicas de aprendizaje automático, definidos por una máscara correspondiente o directamente en la imagen de fluorescencia, etc.).
En una modalidad, el método comprende determinar (por el dispositivo informático) un indicador de verificación en base a un indicador de calidad de dicho segmentar la región de análisis. Sin embargo, el indicador de verificación puede determinarse de cualquier manera (por ejemplo, en base solo al indicador de calidad de la imagen de luminiscencia en cuestión, además de los indicadores de calidad de una o más imágenes de luminiscencia, etc.) de acuerdo con cualquier indicador de calidad (por ejemplo, en base a una comparación entre el segmento de detección y el segmento de no detección, solo en el segmento de detección, etc.).
En una modalidad, el método comprende visualizar (por el dispositivo informático) la imagen de fluorescencia con el segmento de detección que se resalta de acuerdo con el indicador de verificación. Sin embargo, la imagen de fluorescencia puede mostrarse de cualquier manera (por ejemplo, en cualquier unidad de visualización, como un monitor, gafas de realidad virtual y similares, impresa, localmente o de forma remota, en tiempo real o fuera de línea, sola, combinada/superpuesta con una imagen de reflectancia correspondiente y así sucesivamente); además, el segmento de detección puede resaltarse de cualquier manera (por ejemplo, en color contra el resto en blanco y negro, con alto brillo contra el resto con bajo brillo y así sucesivamente) de acuerdo con el indicador de verificación (por ejemplo, de forma selectiva para resaltarse o no resaltarse, progresivamente con una intensidad de resaltado en dependencia del indicador de verificación, su combinación, con o sin ninguna información adicional, y así sucesivamente).
Otras modalidades proporcionan características ventajosas adicionales, que sin embargo pueden omitirse por completo en una implementación básica.
Particularmente, en una modalidad el método comprende visualizar (por el dispositivo informático) la imagen de luminiscencia con el segmento de detección que se resalta de manera selectiva de acuerdo con el indicador de verificación. Sin embargo, el segmento de detección puede resaltarse de manera selectiva de cualquier manera (por ejemplo, simplemente de acuerdo con una comparación del indicador de verificación con un umbral, con histéresis, etc.).
En una modalidad, el método comprende visualizar (por el dispositivo informático) la imagen de luminiscencia con el segmento de detección resaltado o no resaltado de acuerdo con una comparación del indicador de verificación con un umbral de verificación. Sin embargo, el umbral de verificación puede tener cualquier valor (por ejemplo, variar con el objetivo, fijo y así sucesivamente).
En una modalidad, el método comprende visualizar (por el dispositivo informático) la imagen de luminiscencia en blanco y negro con el segmento de detección resaltado o no resaltado al visualizar en color o en blanco y negro, respectivamente. Sin embargo, el segmento de detección se puede visualizar en color de cualquier manera (por ejemplo, en un solo color con brillo que cambia con sus valores de luminiscencia, con diferentes colores en dependencia de sus valores de luminiscencia, en un solo color con brillo fijo y así sucesivamente).
En una modalidad, el método comprende visualizar (por el dispositivo informático) la imagen de luminiscencia con el segmento de detección que se resalta progresivamente con una intensidad de resaltado en dependencia del indicador de verificación. Sin embargo, la intensidad del resaltado puede ser de cualquier tipo (por ejemplo, diferentes colores, brillo, etc.) y puede depender del indicador de verificación de cualquier manera (por ejemplo, de acuerdo con cualquier función lineal o no lineal, tal como proporcionalmente, exponencialmente, logarítmicamente, de una manera continua o discreta, siempre o solo cuando el segmento de detección tiene que resaltarse como se mencionó anteriormente, etc.).
En una modalidad, el método comprende visualizar (por el dispositivo informático) la imagen de luminiscencia con el segmento de detección que se resalta con la intensidad de resaltado proporcional al indicador de verificación. Sin embargo, este resultado se puede lograr de cualquier manera (por ejemplo, con la intensidad de resaltado proporcional al indicador de verificación completo o solo a su parte que excede el umbral de verificación, y así sucesivamente).
En una modalidad, el método comprende visualizar (por el dispositivo informático) la imagen de luminiscencia en blanco y negro con el segmento de detección que se resalta al visualizar en color con una señal visual en dependencia del indicador de verificación. Sin embargo, este resultado se puede lograr de cualquier manera (por ejemplo, solo o combinado con otra señal visual en dependencia de los valores de luminiscencia, tal como con un solo color o diferentes colores en dependencia de los valores de luminiscencia y el brillo en dependencia del indicador de verificación, con brillo fijo o brillo en dependencia de los valores de luminiscencia y diferentes colores en dependencia del indicador de verificación, y así sucesivamente).
En una modalidad, el método comprende determinar (por el dispositivo informático) el indicador de calidad de acuerdo con una comparación entre un contenido del segmento de detección y un contenido del segmento de no detección. Sin embargo, este resultado se puede lograr de cualquier manera (por ejemplo, al calcular el indicador de calidad como un índice de similitud, una varianza entre clases, al agregar los valores de luminiscencia de los dos segmentos antes o directamente, y así sucesivamente).
En una modalidad, el método comprende calcular (por el dispositivo informático) un valor de detección de acuerdo con los valores de luminiscencia del segmento de detección y un valor de no detección de acuerdo con los valores de luminiscencia del segmento de no detección. Sin embargo, los valores de detección/no detección pueden ser de cualquier tipo (por ejemplo, parámetros estadísticos correspondientes, tales como media, mediana, modo, varianza y similares, valores máximos/mínimos y así sucesivamente).
En una modalidad, el método comprende calcular (por el dispositivo informático) el indicador de calidad de acuerdo con una comparación entre el valor de detección y el valor de no detección. Sin embargo, el indicador de calidad puede calcularse de cualquier manera de acuerdo con el valor de detección y el valor de no detección (por ejemplo, como su relación, diferencia y así sucesivamente).
En una modalidad, el método comprende determinar (por el dispositivo informático) el indicador de calidad de acuerdo con un contenido solo del segmento de detección. Sin embargo, el indicador de calidad puede determinarse de acuerdo con el contenido del segmento de detección de cualquier manera (por ejemplo, al establecer el indicador de calidad en cualquier parámetro estadístico de sus valores de luminiscencia, tales como su media, mediana, modo, varianza, al establecer el indicador de calidad de acuerdo con una o más propiedades cualitativas del segmento de detección, tales como su continuidad, forma, bordes regulares/irregulares, etc.).
En una modalidad, el método comprende calcular (por el dispositivo informático) el indicador de calidad de acuerdo con una continuidad del segmento de detección. Sin embargo, la continuidad se puede definir de cualquier manera (por ejemplo, de acuerdo con un número de porciones desconectadas del segmento de detección, ponderando las porciones desconectadas de acuerdo con su tamaño y/o distancia, etc.).
En una modalidad, el método comprende inicializar (por el dispositivo informático) la región de análisis a una porción de un espacio de contexto igual a la imagen de luminiscencia. Sin embargo, el espacio de contexto puede establecerse exactamente a la imagen de luminiscencia o más generalmente puede corresponder a la misma (por ejemplo, igual a una porción interna predefinida de la misma) y la región de análisis puede inicializarse de acuerdo con la misma de cualquier manera (por ejemplo, en una posición dentro de la misma que se predefine o determina en tiempo de ejecución, con o sin la posibilidad de actualizarla más adelante, con o sin requerir una confirmación manual, etc.).
En una modalidad, el campo de visión contiene una región de interés para la obtención de imágenes y uno o más objetos extraños diferentes de la región de interés. Sin embargo, la región de interés puede ser de cualquier tipo (por ejemplo, una cavidad quirúrgica, una cavidad interior de un procedimiento endoscópico, ya sea de tipo abierto al que se accede a través de un hueco o de tipo cerrado al que se accede a través de una incisión, etc.) y los objetos extraños pueden estar en cualquier número, de cualquier tipo (por ejemplo, instrumentos, manos, herramientas, partes del cuerpo, materiales de fondo, etc.) y se pueden colocar en cualquier posición (por ejemplo, superponiendo la región de interés en cualquier medida, rodeándola, separada de ella, cualquiera de sus combinaciones, etc.).
En una modalidad, el método comprende proporcionar (al dispositivo informático) una imagen auxiliar del campo de visión. Sin embargo, la imagen auxiliar puede proporcionarse de cualquier manera (ya sea la misma o diferente con respecto a la imagen de luminiscencia).
En una modalidad, la imagen auxiliar comprende una pluralidad de valores auxiliares representativos de una luz auxiliar (diferente de la luz de luminiscencia) que se recibe de las correspondientes ubicaciones auxiliares del campo de visión. Sin embargo, la imagen auxiliar puede tener cualquier tamaño y forma y puede comprender valores auxiliares de cualquier tipo y para cualquier ubicación auxiliar (ya sea la misma o diferente con respecto a la imagen de luminiscencia); la luz auxiliar puede ser de cualquier tipo diferente de la luz de luminiscencia de la imagen de luminiscencia (por ejemplo, luz visible, luz IR, luz ultravioleta (UV), otra luz de luminiscencia en diferente longitud de onda, etc.).
En una modalidad, el método comprende identificar (por el dispositivo informático) una región informativa auxiliar de la imagen auxiliar representativa de la región de interés sin los objetos extraños de acuerdo con un contenido de la imagen auxiliar. Sin embargo, la región informativa auxiliar puede ser de cualquier tipo (por ejemplo, un área única, una o más áreas disjuntas, definidas por una máscara correspondiente o directamente en la imagen auxiliar, etc.) y puede identificarse de cualquier manera (por ejemplo, al segmentar la imagen auxiliar semánticamente/no semánticamente en la región informativa auxiliar y la región no informativa auxiliar, al buscar la región informativa auxiliar en la imagen auxiliar, etc.).
En una modalidad, el método comprende identificar (por el dispositivo informático) una región informativa de luminiscencia de la imagen de luminiscencia correspondiente a la región informativa auxiliar. Sin embargo, la región informativa de luminiscencia puede identificarse de cualquier manera (por ejemplo, al transferir la identificación de la región informativa auxiliar directamente o con cualquier adaptación, con cualquier posprocesamiento hasta ninguno y así sucesivamente). Además, esta operación puede realizarse indiscriminadamente o puede condicionarse por la calidad de la identificación de la región informativa auxiliar; por ejemplo, es posible calcular una métrica de calidad (de todo el proceso o de una etapa del mismo) y asignar todas las ubicaciones de luminiscencia a la región informativa de luminiscencia si la métrica de calidad no alcanza un umbral correspondiente.
En una modalidad, el método comprende inicializar (por el dispositivo informático) la región de análisis a una porción de un espacio de contexto que se define de acuerdo con la región informativa de luminiscencia. Sin embargo, el espacio de contexto puede definirse de acuerdo con la región informativa de luminiscencia de cualquier manera (por ejemplo, igual a ella, al área rectangular más grande de la imagen de fluorescencia encerrada en ella, al área rectangular más pequeña de la imagen de fluorescencia que la encierra y así sucesivamente) y la región de análisis puede inicializase de acuerdo con la misma de cualquier manera (ya sea igual o diferente con respecto al espacio de contexto correspondiente a la imagen de luminiscencia).
En una modalidad, la imagen auxiliar es una imagen de reflectancia, la luz auxiliar es una luz visible y los valores auxiliares son representativos de la luz visible que se refleja por las correspondientes ubicaciones auxiliares del campo de visión iluminado por una luz blanca. Sin embargo, la luz blanca (y la luz visible correspondiente) puede ser de cualquier tipo (por ejemplo, cualquier luz sin luminiscencia que no cause un fenómeno de luminiscencia significativo a la sustancia de luminiscencia).
En una modalidad, la etapa de identificar la región informativa auxiliar comprende segmentar (por el dispositivo informático) la imagen auxiliar semánticamente. Sin embargo, la imagen auxiliar puede segmentarse semánticamente de cualquier manera (por ejemplo, con un algoritmo de clasificación de cualquier tipo en base a cualquier número y tipo de características, con una técnica de aprendizaje profundo en base a cualquier red neuronal, de acuerdo con la imagen auxiliar sola o además de acuerdo con la imagen de fluorescencia también, y así sucesivamente).
En una modalidad, la imagen auxiliar se segmenta semánticamente en la región informativa auxiliar correspondiente a al menos una clase de región de interés de la región de interés y una región no informativa auxiliar correspondiente a una o más clases de objetos extraños de los objetos extraños. Sin embargo, la clase de región de interés y las clases de objetos extraños pueden ser de cualquier número y de cualquier tipo (por ejemplo, una única clase de región de interés para toda la región de interés, una única clase de objeto extraño para todos los objetos extraños, múltiples clases de región de interés para las partes correspondientes de la región de interés o grupos de las mismas, múltiples clases de objetos extraños para los tipos correspondientes de objetos extraños o grupos de los mismos, etc.).
En una modalidad, el método comprende inicializar (por el dispositivo informático) la región de análisis a una porción del espacio de contexto que tiene una forma inicial predefinida. Sin embargo, la forma inicial puede ser de cualquier tipo (por ejemplo, cuadrada, circular, rectangular, etc.); en cualquier caso, no se excluye la posibilidad de seleccionar la forma inicial manualmente en tiempo de ejecución.
En una modalidad, el método comprende inicializar (por el dispositivo informático) la región de análisis a una porción del espacio de contexto que tiene un tamaño inicial predefinido. Sin embargo, el tamaño inicial puede ser de cualquier tipo (por ejemplo, un porcentaje predefinido del espacio de contexto, un valor predefinido, etc.); en cualquier caso, no se excluye la posibilidad de seleccionar el tamaño inicial manualmente en tiempo de ejecución (ya sea en términos absolutos o relativos).
En una modalidad, el método comprende inicializar (por el dispositivo informático) la región de análisis a una porción del espacio de contexto que tiene una posición inicial predefinida. Sin embargo, la posición inicial puede ser de cualquier tipo (por ejemplo, en el centro, en un borde, etc.); en cualquier caso, no se excluye la posibilidad de seleccionar la posición inicial manualmente en tiempo de ejecución.
En una modalidad, el método comprende establecer (por el dispositivo informático) el tamaño inicial de la región de análisis de acuerdo con al menos una fracción predefinida de un tamaño del espacio de contexto. Sin embargo, la fracción puede ser de cualquier tipo y de cualquier valor (por ejemplo, una sola para el área, dos o más para las dimensiones correspondientes, tales como ancho y altura, etc.).
En una modalidad, el método comprende establecer (por el dispositivo informático) la posición inicial de la región de análisis en un centro del espacio de contexto. Sin embargo, la región de análisis puede centrarse en el espacio de contexto de cualquier manera (por ejemplo, en su centro geométrico, en su centroide, etc.).
En una modalidad, el método comprende inicializar (por el dispositivo informático) la región de análisis a una mejor región candidata del espacio de contexto seleccionada entre una pluralidad de regiones candidatas que son candidatas para inicializar la región de análisis de acuerdo con los contenidos correspondientes de la misma. Sin embargo, las regiones candidatas pueden ser de cualquier número y de cualquier tipo (por ejemplo, con forma/tamaño predefinido que se mueve a través del espacio de contexto por cualquier tono, con forma y/o tamaño variable a través del espacio de contexto y así sucesivamente); la mejor región candidata puede seleccionarse de cualquier manera (por ejemplo, de acuerdo con los indicadores de calidad correspondientes, indicadores de intensidad, su combinación, y así sucesivamente).
En una modalidad, el método comprende segmentar (por el dispositivo informático) cada una de las regiones candidatas en un segmento de detección candidato y un segmento de no detección candidato representativo de la detección del agente de luminiscencia y de la no detección del agente de luminiscencia, respectivamente, de acuerdo con los valores de luminiscencia solo de la región candidata. Sin embargo, cada región candidata puede segmentarse de cualquier manera (ya sea igual o diferente con respecto a la región de análisis).
En una modalidad, el método comprende calcular (por el dispositivo informático) los correspondientes indicadores de calidad candidatos de dicho segmentar las regiones candidatas. Sin embargo, cada indicador de calidad candidato se puede determinar de cualquier manera (ya sea igual o diferente con respecto al indicador de calidad).
En una modalidad, el método comprende seleccionar (por el dispositivo informático) la mejor región candidata que tiene el mejor indicador de calidad candidato. Sin embargo, el mejor indicador de calidad del candidato se puede determinar de cualquier manera (por ejemplo, el más alto o el más bajo cuando aumenta o disminuye, respectivamente, con la calidad y así sucesivamente).
En una modalidad, el método comprende calcular (por el dispositivo informático) los indicadores de intensidad correspondientes de las regiones candidatas, cada uno de los indicadores de intensidad es indicativo de una intensidad de la luz de luminiscencia que se emite desde las ubicaciones solo de la región candidata correspondiente. Sin embargo, cada indicador de intensidad puede calcularse de cualquier manera (por ejemplo, de acuerdo con cualquier parámetro estadístico de los valores de luminiscencia correspondientes, tales como su media, mediana, moda, varianza y así sucesivamente).
En una modalidad, el método comprende seleccionar (por el dispositivo informático) la mejor región candidata que tiene el mejor indicador de intensidad. Sin embargo, el mejor indicador de intensidad se puede determinar de cualquier manera (por ejemplo, el más alto o el más bajo cuando aumenta o disminuye, respectivamente, con una concentración de la sustancia de luminiscencia y así sucesivamente).
En una modalidad, el método comprende visualizar (por el dispositivo informático) la imagen de luminiscencia con una representación de la región de análisis. Sin embargo, la imagen de luminiscencia puede mostrarse con cualquier representación de la región de análisis (por ejemplo, por su contorno en cualquier color, con cualquier línea y así sucesivamente).
En una modalidad, el método comprende recibir (por el dispositivo informático) un ajuste manual de la región de análisis. Sin embargo, la región de análisis se puede ajustar de cualquier manera (por ejemplo, al cambiar su forma, tamaño y/o posición con cualquier unidad de entrada, tal como teclado, bola de seguimiento, ratón, teclado numérico, etc.).
En una modalidad, el método comprende recibir (por el dispositivo informático) una confirmación de la región de análisis después de un movimiento manual de un contenido del campo de visión. Sin embargo, la confirmación puede proporcionarse con cualquier unidad de entrada (por ejemplo, teclado, bola de seguimiento, ratón, botón dedicado, etc.) después de cualquier movimiento del campo de visión y/o la sonda de imagen.
En una modalidad, el método comprende proporcionar (al dispositivo informático) una o más imágenes de luminiscencia adicionales del campo de visión, comprendiendo cada una de las imágenes de luminiscencia adicionales valores de luminiscencia adicionales representativos de la luz de luminiscencia que se emite por la sustancia de luminiscencia desde las ubicaciones del campo de visión. Sin embargo, las imágenes de luminiscencia adicionales pueden ser en cualquier número (por ejemplo, fijas o hasta todas las disponibles, precedentes y/o posteriores a la imagen de luminiscencia, etc.) y pueden ser de cualquier tipo y proporcionadas de cualquier manera (ya sea la misma o diferente con respecto a la imagen de luminiscencia).
En una modalidad, el método comprende segmentar (por el dispositivo informático) las correspondientes regiones de análisis adicionales de las imágenes de luminiscencia adicional correspondientes a la región de análisis cada una en un segmento de detección adicional y un segmento de no detección adicional representativo de la detección del agente de luminiscencia y de la no detección del agente de luminiscencia, respectivamente, de acuerdo con los valores de luminiscencia adicionales solo de la región de análisis adicional. Sin embargo, las regiones de análisis adicionales pueden segmentarse de cualquier manera (ya sea la misma o diferente con respecto a la región de análisis).
En una modalidad, el método comprende determinar (por el dispositivo informático) los correspondientes indicadores de calidad adicionales de dicho segmentar las regiones de análisis adicionales. Sin embargo, los indicadores de calidad adicionales pueden determinarse de cualquier manera (ya sea igual o diferente con respecto al indicador de calidad).
En una modalidad, el método comprende determinar (por el dispositivo informático) el indicador de verificación en base además a los indicadores de calidad adicionales. Sin embargo, los indicadores de calidad adicionales pueden usarse de cualquier manera para determinar el indicador de verificación (por ejemplo, al calcular un indicador de calidad global, igual a cualquier parámetro estadístico del indicador de calidad y los indicadores de calidad adicionales, como su media, mediana, modo, y luego usarlo para determinar el indicador de verificación como arriba, al determinar los indicadores de verificación parciales correspondientes de acuerdo con el indicador de calidad y los indicadores de calidad adicionales como arriba y luego usarlos para determinar el indicador de verificación, tal como considerar el resultado de la verificación positivo cuando lo es para al menos un porcentaje predefinido de ellos, hasta todos, y así sucesivamente).
En una modalidad, el método comprende determinar (por el dispositivo informático) un umbral de segmentación de acuerdo con una distribución estadística de los valores de luminiscencia en la región de análisis. Sin embargo, el umbral de segmentación se puede determinar de cualquier manera (por ejemplo, en base a la distribución estadística, la entropía, la agrupación o los atributos de los objetos, etc.).
En una modalidad, el método comprende segmentar (por el dispositivo informático) la región de análisis en el segmento de detección y el segmento de no detección de acuerdo con una comparación de los valores de luminiscencia de la región de análisis con el umbral de segmentación. Sin embargo, las ubicaciones pueden asignarse a los segmentos de detección/no detección de acuerdo con el umbral de segmentación de cualquier manera (por ejemplo, al segmento de detección cuando son (posiblemente estrictamente) más altos o más bajos que él, y así sucesivamente).
En una modalidad, el método es para la obtención de imágenes de una parte del cuerpo de un paciente en una aplicación médica. Sin embargo, la aplicación médica puede ser de cualquier tipo (por ejemplo, quirúrgica, de diagnóstico, terapéutica y así sucesivamente). En cualquier caso, aunque el método puede facilitar la tarea de un médico, solo proporciona resultados intermedios que pueden ayudarlo, pero con la actividad médicastricto sensuque siempre se realiza por el propio médico; además, la parte del cuerpo puede ser de cualquier tipo (por ejemplo, órganos, como el hígado, la próstata o el corazón, regiones, tejidos, etc.), en cualquier condición (por ejemplo, dentro de un ser vivo, dentro de un cuerpo muerto, extraído de un cuerpo, como una muestra de una biopsia, etc.) y de cualquier paciente (por ejemplo, un ser humano, un animal, etc.).
En una modalidad, el objetivo se define por una condición del objetivo de la parte del cuerpo. Sin embargo, la afección diana puede ser de cualquier tipo (por ejemplo, cualquier tejido patológico tal como tumor, inflamación y similares, tejido sano y así sucesivamente).
En una modalidad, se ha preadministrado un agente de luminiscencia al paciente antes de realizar el método. Sin embargo, el agente de luminiscencia puede ser de cualquier tipo (por ejemplo, cualquier agente de luminiscencia dirigido, tal como en base a interacciones específicas o no específicas, cualquier agente de luminiscencia no dirigido, y así sucesivamente) y puede haberse administrado previamente de cualquier manera (por ejemplo, con una jeringa, una bomba de infusión, y así sucesivamente) y en cualquier momento (por ejemplo, con antelación, inmediatamente antes de realizar el método, de forma continua durante el mismo, y así sucesivamente). En cualquier caso, este es un método de procesamiento de datos que puede implementarse independientemente de cualquier interacción con el paciente; además, el agente de luminiscencia también puede administrarse al paciente de una manera no invasiva (por ejemplo, por vía oral para la obtención de imágenes del tracto gastrointestinal, a través de un nebulizador en las vías respiratorias, a través de la aplicación tópica en aerosol o la introducción tópica durante un procedimiento quirúrgico, etc.), o en cualquier caso sin ninguna intervención física sustancial en el paciente que requiera la experiencia profesional médica o implique algún riesgo para la salud de él/ella (por ejemplo, intramuscularmente).
En una modalidad, el campo de visión comprende una cavidad quirúrgica que expone la parte del cuerpo durante un procedimiento quirúrgico. Sin embargo, la cavidad quirúrgica puede ser de cualquier tipo para cualquier procedimiento quirúrgico (por ejemplo, herida en cirugía mínimamente invasiva, cuerpo abierto en cirugía estándar, etc.).
En una modalidad, la sustancia de luminiscencia es una sustancia de fluorescencia (con la imagen de luminiscencia siendo una imagen de fluorescencia y los valores de luminiscencia son representativos de una luz de fluorescencia emitida por la sustancia de fluorescencia desde las correspondientes ubicaciones de luminiscencia iluminadas por una luz de excitación de la misma). Sin embargo, la sustancia de fluorescencia puede ser de cualquier tipo (por ejemplo, extrínseca o intrínseca, exógena o endógena, etc.).
Generalmente, se aplican consideraciones similares si la misma solución se implementa con un método equivalente (al usar etapas similares con las mismas funciones de más etapas o porciones de las mismas, eliminando algunas etapas no esenciales o agregando etapas opcionales adicionales); además, las etapas pueden realizarse en un orden diferente, simultáneamente o de manera intercalada (al menos en parte).
Una modalidad proporciona un programa informático, que se configura para hacer que un dispositivo informático realice el método mencionado anteriormente cuando el programa informático se ejecuta en el dispositivo informático. Un ejemplo no cubierto por las reivindicaciones proporciona un producto de programa informático, que comprende un medio de almacenamiento legible por ordenador que incorpora un programa informático, el programa informático que se carga en una memoria de trabajo de un dispositivo informático configurando de esta manera el dispositivo informático para realizar el mismo método. Sin embargo, el programa informático se puede implementar como un módulo independiente, como un complemento para un programa de software preexistente (por ejemplo, un administrador del sistema de obtención de imágenes) o incluso directamente en este último. En cualquier caso, se aplican consideraciones similares si el programa informático se estructura de una manera diferente, o si se proporcionan módulos o funciones adicionales; igualmente, las estructuras de memoria pueden ser de otros tipos, o pueden reemplazarse con entidades equivalentes (no necesariamente que consisten en medios de almacenamiento físico). El programa informático puede tomar cualquier forma adecuada para usarse por cualquier dispositivo informático (ver más abajo), configurando de esta manera el dispositivo informático para realizar las operaciones deseadas; particularmente, el programa informático puede estar en forma de software externo o residente, firmware o microcódigo (ya sea en código objeto o en código fuente - por ejemplo, para compilarse o interpretarse). Además, es posible proporcionar el programa informático en cualquier medio de almacenamiento legible por ordenador. El medio de almacenamiento es cualquier medio tangible (diferente de las señales transitorias por sí mismas) que puede retener y almacenar instrucciones para su uso por el dispositivo informático. Por ejemplo, el medio de almacenamiento puede ser de tipo electrónico, magnético, óptico, electromagnético, infrarrojo o semiconductor; ejemplos de tales medios de almacenamiento son los discos fijos (donde el programa puede precargarse), los discos extraíbles, las claves de memoria (por ejemplo, de tipo USB) y similares. El programa informático puede descargarse al dispositivo informático desde el medio de almacenamiento o a través de una red (por ejemplo, Internet, una red de área amplia y/o una red de área local que comprende cables de transmisión, fibras ópticas, conexiones inalámbricas, dispositivos de red); uno o más adaptadores de red en el dispositivo informático reciben el programa informático desde la red y lo reenvían para su almacenamiento en uno o más dispositivos de almacenamiento del dispositivo informático. En cualquier caso, la solución de acuerdo con una modalidad de la presente descripción se presta para implementarse incluso con una estructura de hardware (por ejemplo, mediante circuitos electrónicos integrados en uno o más chips de material semiconductor, tal como una Matriz de Puerta Programable en el Campo (FPGA) o circuitos integrados de aplicación específica), o con una combinación de software y hardware programada adecuadamente o configurada de cualquier otra manera.
Una modalidad proporciona un sistema, que comprende medios configurados para realizar las etapas del método mencionado anteriormente. Una modalidad proporciona un sistema que comprende un circuito (es decir, cualquier hardware configurado adecuadamente, por ejemplo, mediante software) para realizar cada etapa del mismo método. Sin embargo, el sistema puede ser de cualquier tipo (por ejemplo, cualquier dispositivo informático, tal como una unidad central de un sistema de procesamiento de imágenes, un ordenador separado, etc.).
En una modalidad, el sistema es un sistema de obtención de imágenes. Sin embargo, el sistema de obtención de imágenes puede ser de cualquier tipo (por ejemplo, un equipo de cirugía guiada, un endoscopio, un laparoscopio, etc.).
En una modalidad, el sistema de obtención de imágenes comprende una unidad de iluminación para aplicar la luz de excitación y posiblemente la luz blanca al campo de visión. Sin embargo, la unidad de iluminación puede ser de cualquier tipo (por ejemplo, en base a láser, LED, lámparas UV/halógenas/Xenón, etc.).
En una modalidad, el sistema de obtención de imágenes comprende una unidad de adquisición para adquirir la imagen de fluorescencia y posiblemente la imagen auxiliar. Sin embargo, la unidad de adquisición puede ser de cualquier tipo (por ejemplo, en base a cualquier número y tipo de lentes, guías de ondas, espejos, CCD, ICCD, EMCCD, CMOS, InGaAs o sensores PMT, etc.).
Generalmente, se aplican consideraciones similares si el sistema tiene una estructura diferente o comprende componentes equivalentes, o tiene otras características operativas. En cualquier caso, cada componente del mismo puede separarse en más elementos, o dos o más componentes pueden combinarse en un solo elemento; además, cada componente puede replicarse para soportar la ejecución de las operaciones correspondientes en paralelo. Además, a menos que se especifique de cualquier otra manera, cualquier interacción entre diferentes componentes generalmente no necesita ser continua, y puede ser directa o indirecta a través de uno o más intermediarios.
Un ejemplo no cubierto por las reivindicaciones proporciona un método quirúrgico que comprende las siguientes etapas. Una parte del cuerpo del paciente se imagina de acuerdo con el método mencionado anteriormente de esta manera visualizando la imagen de luminiscencia con el segmento de detección que se resalta de acuerdo con el indicador de verificación durante un procedimiento quirúrgico de la parte del cuerpo. La parte del cuerpo se opera de acuerdo con dicha visualización de la imagen de luminiscencia. Sin embargo, el método propuesto puede encontrar aplicación en cualquier tipo de método quirúrgico en el sentido más amplio del término (por ejemplo, para propósitos curativos, para propósitos de prevención, para propósitos estéticos, etc.) y para operar cualquier parte del cuerpo de cualquier paciente (ver más arriba).
Un ejemplo no cubierto por las reivindicaciones proporciona un método de diagnóstico que comprende las siguientes etapas. Una parte del cuerpo del paciente se imagina de acuerdo con el método mencionado anteriormente de esta manera visualizando la imagen de luminiscencia con el segmento de detección que se resalta de acuerdo con el indicador de verificación durante un método de diagnóstico de la parte del cuerpo. La parte del cuerpo se analiza de acuerdo con dicha visualización de la imagen de luminiscencia. Sin embargo, el método propuesto puede encontrar aplicación en cualquier tipo de aplicación de diagnóstico en el sentido más amplio del término (por ejemplo, dirigido a evaluar las condiciones de salud, descubrir nuevas lesiones, monitorear lesiones conocidas, etc.) y para analizar cualquier tipo de parte del cuerpo de cualquier paciente (ver más arriba).
Un ejemplo no cubierto por las reivindicaciones proporciona un método terapéutico que comprende las siguientes etapas. Una parte del cuerpo del paciente se imagina de acuerdo con el método mencionado anteriormente de esta manera visualizando la imagen de luminiscencia con el segmento de detección que se resalta de acuerdo con el indicador de verificación durante un método terapéutico de la parte del cuerpo. La parte del cuerpo se trata de acuerdo con dicha visualización de la imagen de luminiscencia. Sin embargo, el método propuesto puede encontrar aplicación en cualquier tipo de método terapéutico en el sentido más amplio del término (por ejemplo, dirigido a curar una afección patológica, a evitar su progreso, a prevenir la aparición de una afección patológica, o simplemente a mejorar la comodidad del paciente) y para tratar cualquier parte del cuerpo de cualquier paciente (ver más arriba).
En ejemplos no cubiertos por las reivindicaciones, el método quirúrgico, el método de diagnóstico y/o el método terapéutico comprenden cada uno administrar el agente de luminiscencia al paciente. Sin embargo, el agente de luminiscencia se puede administrar de cualquier manera (ver arriba) o esta etapa se puede omitir por completo (en caso de que el agente de luminiscencia sea endógeno).
Claims (15)
1. Un método (500) para la obtención de imágenes de un campo de visión (103) que comprende un objetivo (115) que contiene una sustancia de luminiscencia, en donde el método (500) comprende:
proporcionar (508), a un dispositivo informático (100), una imagen de luminiscencia (205; 205F) del campo de visión (103), comprendiendo la imagen de luminiscencia (205; 205F) una pluralidad de valores de luminiscencia representativos de una luz de luminiscencia que se emite por la sustancia de luminiscencia desde las ubicaciones correspondientes del campo de visión (103),
establecer (512-552), por el dispositivo informático (100), una región de análisis (225; 260) a una porción de la imagen de luminiscencia (205; 205F) que rodea una representación sospechada del objetivo (115), segmentar (554-556), por el dispositivo informático (100), la región de análisis (225; 260) en un segmento de detección (230d; 265d) y un segmento de no detección (230n; 265n) representativo de la detección del agente de luminiscencia y de la no detección del agente de luminiscencia, respectivamente, de acuerdo con los valores de luminiscencia solo de la región de análisis (225; 260),
el método que se caracteriza porque comprende, además:
determinar (558-574), por el dispositivo informático (100), un indicador de verificación en base a un indicador de calidad de dicha segmentación (554-556) de la región de análisis (225; 260), y visualizar (576-586), mediante el dispositivo informático (100), la imagen de luminiscencia (205; 205F) con el segmento de detección (230d; 265d) que se resalta de acuerdo con el indicador de verificación.
2. El método (500) de acuerdo con la reivindicación 1, en donde el método (500) comprende visualizar (578-586), mediante el dispositivo informático (100), la imagen de luminiscencia (205, 250F) con el segmento de detección (230d; 265d) que se resalta:
de manera selectiva de acuerdo con el indicador de verificación, y/o
progresivamente con una intensidad de resaltado en dependencia del indicador de verificación.
3. El método (500) de acuerdo con cualquiera de las reivindicaciones 1 o 2, en donde el método (500) comprende determinar (560-564; 566), por el dispositivo informático (100), el indicador de calidad de acuerdo con:
una comparación entre un contenido del segmento de detección (230d; 265d) y un contenido del segmento de no detección (230n; 265n), o
un contenido solo del segmento de detección (230d; 265d).
4. El método (500) de acuerdo con la reivindicación 3, en donde el método (500) comprende:
calcular (566), por el dispositivo informático (100), el indicador de calidad de acuerdo con una continuidad del segmento de detección (230d; 265d).
5. El método (500) de acuerdo con cualquier reivindicación de la 1 a la 4, en donde el método (500) comprende: inicializar (514), por el dispositivo informático (100), la región de análisis (225; 260) a una porción de un espacio de contexto igual a la imagen de luminiscencia (205; 205F).
6. El método (500) de acuerdo con cualquier reivindicación de la 1 a la 4, en donde el campo de visión (103) contiene una región de interés (112) para la obtención de imágenes y uno o más objetos extraños (210-220; 235 245) diferentes de la región de interés (1123), comprendiendo el método (500):
proporcionar (508), al dispositivo informático (100), una imagen auxiliar (205R) del campo de visión (103), comprendiendo la imagen auxiliar (205R) una pluralidad de valores auxiliares representativos de una luz auxiliar, diferente de la luz de luminiscencia, que se recibe de las ubicaciones auxiliares correspondientes del campo de visión,
identificar (516), por el dispositivo informático (100), una región informativa auxiliar (250Ri) de la imagen auxiliar (205R) representativa de la región de interés (112) sin los objetos extraños (210-220; 235-245) de acuerdo con un contenido de la imagen auxiliar (205R),
identificar (518), por el dispositivo informático (100), una región informativa de luminiscencia (250Fi) de la imagen de luminiscencia (205F) correspondiente a la región informativa auxiliar (250Ri), y
inicializar (520), por el dispositivo informático (100), la región de análisis (225; 260) a una porción de un espacio de contexto que se define de acuerdo con la región informativa de luminiscencia (250Fi).
7. El método (500) de acuerdo con la reivindicación 6, en donde la etapa de identificar (516) la región informativa auxiliar comprende:
segmentar (516), por el dispositivo informático (100), la imagen auxiliar (205R) semánticamente en la región informativa auxiliar (250Ri) correspondiente a al menos una clase de región de interés de la región de interés (112) y una región no informativa auxiliar (250Rn) correspondiente a una o más clases de objetos extraños de los objetos extraños (210-220; 235-245).
8. El método (500) de acuerdo con cualquier reivindicación de la 5 a la 7, en donde el método (500) comprende: inicializar (522-526), por el dispositivo informático (100), la región de análisis (225; 260) a una porción del espacio de contexto (205; 250Fi) que tiene una forma inicial, tamaño inicial y/o posición inicial predefinidos.
9. El método (500) de acuerdo con cualquier reivindicación de la 1 a la 8, en donde el método (500) comprende:
segmentar (532), por el dispositivo informático (100), cada una de las regiones candidatas en un segmento de detección candidato y un segmento de no detección candidato representativo de la detección del agente de luminiscencia y de la no detección del agente de luminiscencia, respectivamente, de acuerdo con los valores de luminiscencia solo de la región candidata,
calcular (534), por el dispositivo informático (100), los indicadores de calidad candidatos correspondientes de dicha segmentación (532) las regiones candidatas,
seleccionar (538-540), por el dispositivo informático (100), una mejor de las regiones candidatas que tiene un mejor de los indicadores de calidad candidatos, y
inicializar (528-544), por el dispositivo informático (100), la región de análisis (225; 260) en la mejor región candidata.
10. El método (500) de acuerdo con la reivindicación 9, en donde el método (500) comprende:
calcular (536), por el dispositivo informático (100), los indicadores de intensidad correspondientes de las regiones candidatas, cada uno de los indicadores de intensidad es indicativo de una intensidad de la luz de luminiscencia que se emite desde las ubicaciones solo de la región candidata correspondiente, y seleccionar (538-540), por el dispositivo informático (100), la mejor región candidata que tiene el mejor indicador de intensidad.
11. El método (500) de acuerdo con cualquier reivindicación de la 1 a la 10, en donde el método (500) comprende:
visualizar (546), por el dispositivo informático (100), la imagen de luminiscencia (205; 205f) con una representación de la región de análisis (225; 260), y
recibir (548), por el dispositivo informático (100), un ajuste manual de la región de análisis (225; 260).
12. El método (500) de acuerdo con cualquier reivindicación de la 1 a la 11, en donde el método (500) comprende:
proporcionar (508), al dispositivo informático (100), una o más imágenes de luminiscencia adicionales (205; 205F) del campo de visión (103), cada una de las imágenes de luminiscencia adicionales (205; 205F) que comprende valores de luminiscencia adicionales correspondientes representativos de la luz de luminiscencia que se emite por la sustancia de luminiscencia desde las ubicaciones del campo de visión (103), segmentar (554-556), por el dispositivo informático (100), las regiones de análisis adicionales correspondientes (225; 260) de las imágenes de luminiscencia adicionales (205, 205p) correspondientes a la región de análisis (225; 260) cada una en un segmento de detección adicional (230d; 265d) y un segmento de no detección adicional (230n; 265n) representativo de la detección del agente de luminiscencia y de la no detección del agente de luminiscencia, respectivamente, de acuerdo con los valores de luminiscencia adicionales solo de la región de análisis adicional (225; 260),
determinar (558-564), por el dispositivo informático (100), los correspondientes indicadores de calidad adicionales de dicha segmentación (554-556) las regiones de análisis adicionales (225; 260), y determinar (572), por el dispositivo informático (100), el indicador de verificación además en base a los indicadores de calidad adicionales.
13. El método (500) de acuerdo con cualquier reivindicación de la 1 a la 12, en donde el método (500) comprende:
determinar (554), por el dispositivo informático (100), un umbral de segmentación de acuerdo con una distribución estadística de los valores de luminiscencia en la región de análisis (225; 260), y
segmentar (556), por el dispositivo informático (100), la región de análisis (225; 260) en el segmento de detección (230d; 265d) y el segmento de no detección (230n; 265n) de acuerdo con una comparación de los valores de luminiscencia de la región de análisis (225; 260) con el umbral de segmentación.
14. Un programa informático (400) configurado para hacer que un dispositivo informático (100) realice el método (500) de acuerdo con cualquier reivindicación de la 1 a la 13 cuando el programa informático (400) se ejecuta en el dispositivo informático (100).
15. Un sistema (100) que comprende medios (121) configurados para realizar las etapas del método (500) de acuerdo con cualquier reivindicación de la 1 a la 13.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP20169301 | 2020-04-14 | ||
| PCT/EP2021/057729 WO2021209239A1 (en) | 2020-04-14 | 2021-03-25 | Verification of segmentation of luminescence images limited to analysis regions thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2999091T3 true ES2999091T3 (en) | 2025-02-24 |
Family
ID=70289331
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES21714164T Active ES2999091T3 (en) | 2020-04-14 | 2021-03-25 | Verification of segmentation of luminescence images limited to analysis regions thereof |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US20230177694A1 (es) |
| EP (1) | EP4136616B1 (es) |
| JP (1) | JP7750861B2 (es) |
| CN (1) | CN115210757A (es) |
| ES (1) | ES2999091T3 (es) |
| WO (1) | WO2021209239A1 (es) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119477805B (zh) * | 2024-10-15 | 2025-05-02 | 华东数字医学工程研究院 | 一种内窥镜图像处理方法及系统 |
Family Cites Families (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| AU2002344483A1 (en) * | 2002-11-07 | 2004-06-07 | Fujitsu Limited | Image analysis supporting method, image analysis supporting program, and image analysis supporting device |
| JP2005195379A (ja) | 2003-12-31 | 2005-07-21 | Yamaguchi Univ | 腫瘍画像検出方法とその装置 |
| US20060079746A1 (en) | 2004-10-11 | 2006-04-13 | Perret Florence M | Apparatus and method for analysis of tissue classes along tubular structures |
| WO2008028298A1 (en) | 2006-09-06 | 2008-03-13 | University Health Network | Fluorescence quantification and image acquisition in highly turbid media |
| ATE555711T1 (de) * | 2007-12-19 | 2012-05-15 | Kantonsspital Aarau Ag | Verfahren zur analyse und bearbeitung von fluoreszenzbildern |
| US20100104513A1 (en) * | 2008-10-28 | 2010-04-29 | General Electric Company | Method and system for dye assessment |
| JP5562683B2 (ja) | 2010-03-03 | 2014-07-30 | オリンパス株式会社 | 蛍光観察装置 |
| US9345389B2 (en) * | 2010-11-12 | 2016-05-24 | Emory University | Additional systems and methods for providing real-time anatomical guidance in a diagnostic or therapeutic procedure |
| CN107929733A (zh) | 2011-07-11 | 2018-04-20 | 美国政府(由卫生和人类服务部的部长所代表) | 光敏抗体‑荧光团缀合物 |
| WO2013108182A1 (en) * | 2012-01-16 | 2013-07-25 | Koninklijke Philips N.V. | Imaging apparatus |
| JP2014198144A (ja) * | 2013-03-29 | 2014-10-23 | ソニー株式会社 | 画像処理装置、画像処理方法、情報処理プログラム、蛍光観察システム、および蛍光ナビゲーション・サージェリー・システム |
| CA2921325C (en) * | 2013-10-07 | 2020-05-12 | Ventana Medical Systems, Inc. | Systems and methods for comprehensive multi-assay tissue analysis |
| US10385380B2 (en) * | 2014-10-02 | 2019-08-20 | The Regents Of The University Of California | Personalized protease assay to measure protease activity in neoplasms |
| JP6405985B2 (ja) | 2014-12-19 | 2018-10-17 | コニカミノルタ株式会社 | 画像処理装置、画像処理システム、画像処理プログラム及び画像処理方法 |
| JP6368870B2 (ja) | 2016-05-18 | 2018-08-01 | オリンパス株式会社 | 画像解析装置、画像解析システム、及び画像解析装置の作動方法 |
| EP3876196A1 (en) | 2017-04-07 | 2021-09-08 | Avelas Biosciences, Inc. | Ratiometric fluorescence imaging methods |
| JP2017191609A (ja) | 2017-04-14 | 2017-10-19 | ソニー株式会社 | 画像処理装置および画像処理方法 |
| CN107356515B (zh) * | 2017-07-20 | 2020-04-03 | 上海睿钰生物科技有限公司 | 一种荧光图像的荧光强度确定方法和系统 |
| US10751548B2 (en) * | 2017-07-28 | 2020-08-25 | Elekta, Inc. | Automated image segmentation using DCNN such as for radiation therapy |
| US11426075B1 (en) * | 2017-08-23 | 2022-08-30 | Lumicell, Inc. | System and method for residual cancer cell detection |
| US10973486B2 (en) * | 2018-01-08 | 2021-04-13 | Progenics Pharmaceuticals, Inc. | Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination |
-
2021
- 2021-03-25 JP JP2022562575A patent/JP7750861B2/ja active Active
- 2021-03-25 EP EP21714164.7A patent/EP4136616B1/en active Active
- 2021-03-25 ES ES21714164T patent/ES2999091T3/es active Active
- 2021-03-25 CN CN202180018179.1A patent/CN115210757A/zh active Pending
- 2021-03-25 WO PCT/EP2021/057729 patent/WO2021209239A1/en not_active Ceased
- 2021-03-25 US US17/919,203 patent/US20230177694A1/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| US20230177694A1 (en) | 2023-06-08 |
| JP2023521221A (ja) | 2023-05-23 |
| EP4136616C0 (en) | 2024-11-06 |
| EP4136616B1 (en) | 2024-11-06 |
| CN115210757A (zh) | 2022-10-18 |
| JP7750861B2 (ja) | 2025-10-07 |
| WO2021209239A1 (en) | 2021-10-21 |
| EP4136616A1 (en) | 2023-02-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20230394660A1 (en) | Wound imaging and analysis | |
| ES2847230T3 (es) | Sistema, aparato y procedimiento de espectroscopía RAMAN para analizar, caracterizar y/o diagnosticar un tipo o naturaleza de una muestra o un tejido, tal como un crecimiento anómalo | |
| US12324648B2 (en) | Assisting medical procedures with luminescence images processed in limited informative regions identified in corresponding auxiliary images | |
| ES2842850T3 (es) | Procedimiento de detección no invasiva de tejido de tumor y/o tejido sano y aparato de imágenes hiper espectrales | |
| US10580130B2 (en) | Tissue identification by an imaging system using color information | |
| US8078265B2 (en) | Systems and methods for generating fluorescent light images | |
| CA3021481A1 (en) | Methods and systems for characterizing tissue of a subject utilizing machine learning | |
| ES2999091T3 (en) | Verification of segmentation of luminescence images limited to analysis regions thereof | |
| US12026890B2 (en) | Luminescence imaging with refining loop based on combination of partial illuminations | |
| US20250031971A1 (en) | Methods and systems for identifying lymph nodes using fluorescence imaging data | |
| JP7661364B2 (ja) | マッピングおよび/またはセグメンテーションのための複数の発光画像のグローバル処理 | |
| Modir et al. | LED-based, real-time, hyperspectral imaging device | |
| US20250356514A1 (en) | Systems, devices, and methods for imaging and depth measurement | |
| JP7478245B2 (ja) | 医療画像装置及びその作動方法 | |
| WO2015193521A1 (es) | Método y sistema para la clasificación automática de cálculos renales, programa de ordenador y producto de programa de ordenador | |
| US12484759B2 (en) | Medical imaging apparatus and operating method for same | |
| Pratavieira et al. | Development of a widefield reflectance and fluorescence imaging device for the detection of skin and oral cancer | |
| HK40014821A (en) | System and method for optical detection of skin disease | |
| HK40042733A (en) | Wound imaging and analysis | |
| Pratavieira et al. | Development and characterization of a widefield imaging system combining fluorescence and reflectance images for the detection of skin and oral cancer | |
| HK1225253A1 (en) | System and method for optical detection of skin disease |