ES2914387T3 - Estudio inmediato - Google Patents
Estudio inmediato Download PDFInfo
- Publication number
- ES2914387T3 ES2914387T3 ES19744777T ES19744777T ES2914387T3 ES 2914387 T3 ES2914387 T3 ES 2914387T3 ES 19744777 T ES19744777 T ES 19744777T ES 19744777 T ES19744777 T ES 19744777T ES 2914387 T3 ES2914387 T3 ES 2914387T3
- Authority
- ES
- Spain
- Prior art keywords
- medical
- analyzing
- medical images
- output data
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/502—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/467—Arrangements for interfacing with the operator or the patient characterised by special input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5235—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19147—Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/025—Tomosynthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
- A61B8/0825—Clinical applications for diagnosis of the breast, e.g. mammography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30068—Mammography; Breast
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Evolutionary Computation (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Physiology (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Computational Biology (AREA)
Abstract
Un método asistido por ordenador para analizar imágenes médicas sustancialmente en tiempo real, el método que comprende las etapas de: recibir una o más imágenes médicas; analizar una o más imágenes médicas para determinar una o más características mediante el uso de uno o más modelos de aprendizaje automático entrenados (104), en donde la etapa de analizar y determinar comprende identificar el tipo de tejido y la categoría de densidad (105b); y generar datos de salida (105) basados en una o más características determinadas, en donde los datos de salida (105) son indicativos de un requisito para obtener una o más pruebas médicas adicionales (105a), además en donde los datos de salida (105) se basan en al menos el tipo de tejido identificado y la categoría de densidad (105b).
Description
DESCRIPCIÓN
Estudio inmediato
Campo
La presente invención se refiere a implementaciones de aprendizaje automático para imágenes médicas. Más particularmente, la presente invención se refiere a un método y un sistema para indicar si se requieren pruebas médicas adicionales después del análisis preliminar durante una exploración médica inicial, sustancialmente en tiempo real.
Antecedentes
La mamografía es un método avanzado para escanear el tejido mamario humano que utiliza rayos X de baja dosis para producir imágenes de la estructura interna del seno humano. La detección de estas imágenes, llamadas mamografías, ayuda a la detección temprana y al diagnóstico de anomalías y enfermedades mamarias. Para conseguir una exploración más precisa, los mamógrafos suelen tener dos placas que comprimen la mama para separar el tejido y ayudar a los radiólogos a examinar la mamografía.
La evaluación por personal humano, que se considera el método más preciso de evaluación de imágenes, se refiere a la tarea realizada por un radiólogo o profesional similar, de inspeccionar las exploraciones médicas, sección por sección, para realizar un análisis exhaustivo. Sin embargo, considerando que una mamografía es una representación de información tridimensional proyectada en un plano de imagen bidimensional, a menudo hay una superposición de tejidos en las imágenes de escaneo médico 2D (mamografías) que se inspeccionan. Como resultado, los tejidos que aparecen superpuestos dentro de la imagen de la mama pueden reducir la visibilidad de las anomalías malignas o, a veces, incluso simular la apariencia de una anomalía (falso positivo). Esto hace que la tarea de analizar una mamografía sea más desafiante y puede causar dificultades cuando se trata de detectar anomalías con exactitud y precisión.
Por lo tanto, los métodos actuales de detección y solicitud de un estudio (pruebas médicas adicionales que incluyen, por ejemplo, el uso de técnicas de imagen alternativas) pueden ser ineficientes y/o lentos cuando se depende solo del radiólogo para examinar mamografías poco claras. A menudo, el resultado final es un procedimiento de revisión innecesario y costoso, una biopsia y/o estrés psicológico para los pacientes.
Además, si hay un hallazgo sospechoso en una mamografía y se requiere una prueba adicional, según los regímenes de detección médica actuales, el tiempo de devolución de llamada para una prueba adicional suele ser de dos a tres semanas.
El documento US6574304B1 describe sistemas y métodos para el diagnóstico automatizado y el soporte de decisiones basado en imágenes médicas mediante el uso de técnicas de aprendizaje automático que permiten que los sistemas "aprendan" a analizar las características relevantes que se extraerán de las imágenes médicas con el fin de proporcionar funciones de soporte de decisiones automatizadas para ayudar a los flujos de trabajo de diagnóstico de pacientes.
El documento US2005/049497A1 describe un método que implementa información CAD para guiar la adquisición de datos de imágenes adicionales. Más específicamente, el método de D1 puede dirigir automáticamente el sistema de obtención de imágenes para adquirir imágenes adicionales en regiones sospechosas de interés donde el algoritmo CAD ha identificado una característica de interés.
El documento US2016/364857A1 menciona usar técnicas de aprendizaje automático para analizar imágenes médicas que se pueden configurar para determinar pruebas de imágenes adicionales para ayudar al diagnóstico.
Resumen de la invención
Los aspectos y/o las modalidades tratan de proporcionar un método y un sistema para recomendar o indicar la necesidad de realizar pruebas médicas adicionales, en tiempo sustancialmente real, basándose en el análisis de una exploración médica inicial, con el uso del aprendizaje automático.
De acuerdo con un primer aspecto, se proporciona un método asistido por ordenador para analizar imágenes médicas sustancialmente en tiempo real, comprendiendo el método las etapas de: recibir una o más imágenes médicas; analizar una o más imágenes médicas para determinar una o más características; y generar datos de salida basados en una o más características determinadas, en donde los datos de salida son indicativos de un requisito para obtener una o más pruebas médicas adicionales.
Los métodos convencionales para analizar imágenes médicas y tomar la decisión de determinar más pruebas médicas se basan en expertos, generalmente un radiólogo, para identificar una anomalía en una mamografía. A menudo, hay
un retraso para que el radiólogo examine la mamografía. Otros radiólogos no demuestran una precisión constante debido a la naturaleza manual de la tarea, por ejemplo, al cometer errores debido a la superposición de tejidos mamarios en la mamografía y/o detalles demasiado finos para que los detecte el ojo humano. Por el contrario, el método descrito en la presente descripción proporciona una forma de analizar una imagen médica sin intervención humana y proporciona una recomendación instantánea sobre si se requiere una prueba médica adicional.
Opcionalmente, una o más pruebas médicas adicionales comprenden cualquiera o cualquier combinación de: una tomografía computarizada (TC); una ecografía; una resonancia magnética nuclear (RMN); una exploración de tomosíntesis; y/o una biopsia.
Se puede sugerir una prueba médica adicional basada en el análisis de la evaluación preliminar. Como ejemplo, se puede recomendar instantáneamente una exploración de tomosíntesis más detallada si la mamografía inicial no es clara o las características se superponen o si puede haber una lesión que valga la pena investigar. En algunos casos, el análisis de la imagen médica inicial puede no requerir más estudios o pruebas médicas. Opcionalmente, los datos de salida también pueden indicar una densidad mamaria o un tipo de clasificación de tejido.
Opcionalmente, una o más imágenes médicas comprenden una o más exploraciones mamográficas o de rayos X.
En la mayoría de los programas de detección médica, la radiografía o la mamografía es el primer tipo de exploración médica.
Opcionalmente, la etapa de analizar y determinar se realiza mediante el uso de uno o más modelos de aprendizaje automático entrenados.
Los modelos de aprendizaje automático capacitados pueden analizar imágenes médicas mucho más rápido que un experto humano y, por lo tanto, aumentar la cantidad de imágenes médicas analizadas en general. La precisión suele ser típicamente consistente cuando se usa un modelo de aprendizaje automático. Así, un problema, por ejemplo, el crecimiento de un tumor canceroso puede detectarse más rápidamente que esperar a que un experto humano esté disponible y, por lo tanto, el tratamiento puede comenzar antes o puede solicitarse antes una prueba médica adicional. Por lo tanto, la identificación de regiones de interés, que pueden incluir lesiones, puede ayudar a la detección y evaluación clínica del cáncer de mama, entre otras cuestiones médicas. El diagnóstico y el tratamiento tempranos pueden reducir el estrés psicológico de un paciente y también aumentar las posibilidades de supervivencia a largo plazo.
Opcionalmente, los modelos de aprendizaje automático entrenados comprenden redes neuronales convolucionales.
Las redes convolucionales son herramientas poderosas inspiradas en procesos neuronales biológicos, que pueden entrenarse para generar jerarquías de características y son particularmente adecuadas para el reconocimiento de imágenes. Las capas convolucionales aplican una operación convolucional a una entrada y pasan los resultados a una capa siguiente. Con el entrenamiento, las redes convolucionales pueden lograr una precisión de nivel experto o mayor con respecto a la segmentación y localización de regiones anatómicas y patológicas en imágenes médicas digitales tal como mamografías.
Opcionalmente, la etapa de análisis y determinación comprende segmentar una o más regiones anatómicas. Opcionalmente, los datos de salida comprenden además datos superpuestos que indican un contorno de segmentación y/o máscaras de probabilidad que muestran una o más ubicaciones de una o más regiones segmentadas.
Proporcionar una segmentación clara y precisa de las regiones puede ser muy útil al revisar una imagen médica, tal como una mamografía. Esto puede ser especialmente relevante si hay motivos para sospechar que hay un problema médico con un paciente, por ejemplo, un área hinchada que es más grande que en exploraciones anteriores. Dichos cambios pueden detectarse más fácilmente si las diferentes regiones están claramente segmentadas. Además, la información de segmentación también puede ser usada para enriquecer los Sistemas de Comunicación de Archivo de Imágenes (PACS) que utilizan los departamentos de radiología en los hospitales. Con la inclusión de estos datos de segmentación en PACS, mejora ventajosamente los métodos futuros de marcar casos similares, ya sea que los métodos sean semiautomáticos, completamente automatizados o realizados manualmente.
Opcionalmente, la etapa de análisis y determinación comprende identificar el tipo de tejido y la categoría de densidad. Opcionalmente, el tipo requerido de una o más pruebas médicas adicionales depende de la categoría de densidad determinada en base a una o más imágenes médicas. Opcionalmente, esta etapa puede estimar conjuntamente el tipo de tejido y la categoría de densidad.
Clasificar correctamente el tipo de tejido y la categoría de densidad puede permitir que el método recomiende una prueba médica adicional adecuada o un estudio específico.
Opcionalmente, la etapa de análisis y determinación comprende identificar automáticamente una o más regiones anómalas en la imagen médica.
Opcionalmente, la etapa de análisis y determinación comprende identificar y distinguir entre una lesión maligna y/o una lesión benigna y/o una lesión típica.
Opcionalmente, los datos de salida comprenden además datos superpuestos que indican una máscara de probabilidad para una o más lesiones.
Opcionalmente, la etapa de análisis y determinación comprende identificar la distorsión arquitectónica.
Opcionalmente, una o más imágenes médicas y una o más imágenes médicas adicionales comprenden los archivos de uso de imágenes digitales y comunicaciones en medicina, DICOM.
Como un archivo DICOM se usa convencionalmente para almacenar y compartir imágenes médicas, cumplir con dicho estándar puede facilitar la distribución y el análisis futuro de las imágenes médicas y/o cualquier superposición u otros datos contribuyentes. Una o más máscaras binarias pueden almacenarse como parte de un archivo de imagen DICOM, agregarse a un archivo de imagen y/o almacenarse y/o representarse de cualquier otra manera de acuerdo con el estándar DICOM o porción del estándar.
De acuerdo con otro aspecto, se proporciona un sistema para analizar imágenes médicas sustancialmente en tiempo real, comprendiendo el sistema: un dispositivo de formación de imágenes médicas; un sistema de comunicación de archivo de imágenes, PACS; una unidad de procesamiento operable para analizar una o más imágenes médicas en el PACS para determinar una o más características; y un visor de salida operable para mostrar datos de salida generados en base a una o más características determinadas, en donde los datos de salida son indicativos de un requisito para obtener una o más imágenes médicas adicionales.
Dicho sistema puede instalarse en o cerca de hospitales, o conectarse a hospitales a través de una red digital, para reducir los tiempos de espera para el análisis de imágenes médicas. Por lo tanto, los pacientes pueden evitar el estrés de no conocer los resultados de un examen médico y recibir una decisión más rápidamente.
Opcionalmente, la unidad de procesamiento está integrada con el dispositivo de formación de imágenes médicas. De esta forma, el escáner médico se puede acoplar con una unidad de procesamiento para analizar imágenes médicas tan pronto como se escanean.
Opcionalmente, la unidad de procesamiento está ubicada de forma remota y es accesible a través de un canal de comunicaciones.
En esta configuración, la unidad de procesamiento se puede implementar desde un sistema de nube remoto sin necesidad de reemplazar o cambiar el equipo de escaneo existente.
De acuerdo con otro aspecto, se proporciona un sistema operativo para realizar el método según cualquier otro aspecto.
De acuerdo con otro aspecto, se proporciona un programa de computadora operable para realizar el método de acuerdo con cualquier otro aspecto.
Mediante el uso de una computadora u otra tecnología digital, el examen de imágenes médicas se puede realizar con mayor precisión, velocidad y/o confiabilidad que si se confiara en un experto humano. Por lo tanto, se puede revisar un mayor número de imágenes médicas a la vez, de esta manera reduce los retrasos para los expertos y reduce aún más los errores cometidos cuando se revisan realmente las imágenes médicas.
Breve descripción de las figuras
Las modalidades se describirán ahora, a manera de ejemplo y con referencia a las figuras adjuntas que tienen números de referencia similares, en los que:
La Figura 1 muestra un diagrama de flujo de una modalidad;
La Figura 2 representa un primer despliegue (por ejemplo, dentro de un dispositivo de escaneo médico);
La Figura 3 representa un segundo despliegue (por ejemplo, en las instalaciones de un centro médico); y La Figura 4 representa una tercera implementación (por ejemplo, mediante el uso de un sistema en la nube).
Descripción específica
Con referencia a las Figuras 1 a 4, ahora se describirá una modalidad.
Como se ve en la Figura 1, después de realizar un escaneo médico de un paciente (tal como una mamografía) mediante el uso de un escáner de imágenes médicas 101, las imágenes escaneadas se recopilan en formato DICOM, que es un formato de archivo comúnmente usado para almacenar imágenes médicas. El método usa datos preprocesados que se almacenan en un Sistema de Comunicación de Archivo de Imágenes (PACS) 102 que los departamentos de radiología usan en los hospitales. El resultado de este método también enriquece la base de datos de PACS para mejorar futuras aplicaciones de análisis de imágenes mamográficas. Los datos de la imagen se extraen del archivo DICOM y se genera una imagen.
A continuación, la imagen pasa por una etapa de preprocesamiento 103. La imagen se carga en un tensor 4D de tamaño [1, ancho, altura, 1]. La etapa de preprocesamiento puede comprender la creación de una ventana para los datos de la imagen hasta un nivel de ventana predeterminado. El nivel de ventana define el intervalo de valores de bits considerados en la imagen. Las imágenes médicas son imágenes de 16 bits convencionales, en donde cada píxel se representa como un número entero de 16 bits que va de 0 a 216-1, es decir, [0, 1, 2, ..., 65 535]. El contenido de información es muy alto en estas imágenes, y generalmente comprende más información de la que el ojo humano es capaz de detectar. En el archivo DICOM se suele incluir típicamente un valor establecido dentro del nivel de ventana.
En algunos casos, puede ser importante mantener la resolución de la imagen. A menudo, las limitaciones de la unidad de procesamiento de gráficos (GPU) convencional requieren que la imagen se divida en una pluralidad de parches para mantener la resolución. Luego, cada parche se puede proporcionar a una red totalmente convolucional (FCN). Cuanto más grande sea el parche, más contexto se puede proporcionar, pero se puede perder algo de precisión. Por ejemplo, en el caso de una imagen grande que comprenda un tumor pequeño, si se le indica a la FCN que en algún lugar de este parche hay un tumor, la red deberá aprender cómo encontrarlo primero antes de poder clasificarlo. En esta modalidad se usan tamaños de parche de 300x300 píxeles, aunque puede usarse tamaños de parche más grandes y más pequeños.
Se puede incluir una etapa de cambio de escala debido a las limitaciones del hardware convencional mencionadas anteriormente. Las imágenes médicas típicamente suelen estar en la región de ~ 3500 * 2500 píxeles. Un FCN 100 aplicado a esta imagen no cabe en la memoria de la unidad de procesamiento de gráficos (GPU) convencional. La imagen se puede volver a escalar a un tamaño más grande o más pequeño, o incluso no volver a escalar en absoluto, y permitiría que el FCN vea una resolución más alta y pueda captar detalles más finos. Sin embargo, es poco probable que esto encaje en la memoria de la GPU y podría hacer que el método se vuelva considerablemente más lento. Al volver a escalar la imagen a un tamaño más pequeño, es más probable que quepa en una memoria GPU y permita que los procesos se ejecuten a una velocidad más rápida. El FCN también puede generalizar mejor debido a un menor número de parámetros de entrada.
El método puede usarse para identificar y detectar lesiones en las mamografías. Las lesiones que pueden segmentarse pueden comprender uno o más crecimientos cancerosos, masas, abscesos, laceraciones, calcificaciones y/u otras irregularidades dentro del tejido biológico.
Las imágenes se analizan alimentándolas a través de un modelo de aprendizaje automático entrenado, tal como una red neuronal convolucional. Esta modalidad utiliza técnicas de aprendizaje automático para entrenar y desarrollar la red de convolución. El modelo se entrena en un conjunto de datos con estudios conocidos y, por lo tanto, establece directamente una relación entre las imágenes recibidas y los estudios conocidos para estimar un análisis requerido. En particular, la salida 105 del modelo de aprendizaje automático es un vector binario, donde los índices representan varios tipos de estudios. Por ejemplo, los estudios pueden ser cualquiera, o cualquier combinación de, sin necesidad de más acción, una ecografía, una tomosíntesis, una resonancia magnética y/o una biopsia.
El conjunto de datos usado para entrenar las redes neuronales también puede contener densidades o tipos de tejidos conocidos. En ese caso, se puede adoptar un enfoque de aprendizaje multitarea para que el modelo también genere densidad (A, B, C, D) o tipo de tejido (1,2, 3, 4, 5).
Existen diferentes tipos de patrones en el tejido mamario que afectan la detectabilidad de los cánceres de mama. Por lo tanto, es importante saber qué tipo de patrón está presente. Hay cinco patrones parenquimatosos de mamografía conocidos como "patrones de Tabar", llamados así por el profesor Laszlo Tabar, quien desarrolló esta clasificación.
Los patrones de Tabar (o tipos de clasificación) se basan en una correlación histológico-mamográfica con una técnica tridimensional, subgruesa (corte grueso), y en la proporción relativa de cuatro "bloques de construcción" (densidades nodulares, densidades lineales, tejido fibroso homogéneo, tejido graso radiolúcido). Las cinco clasificaciones son las siguientes:
1. Proporción equilibrada de todos los componentes del tejido mamario con un ligero predominio del tejido fibroso
2. Predominio de tejido graso
3. Predominio de tejido graso con tejido fibroso residual retroareolar
4. Densidades predominantemente nodulares
5. Tejido predominantemente fibroso (mama densa)
Las clases 4 y 5 se consideran de alto riesgo, lo que significa que es difícil detectar cánceres en el seno con esos patrones, mientras que las clases 1, 2 y 3 se consideran de menor riesgo ya que es más fácil detectar regiones cancerosas.
Algunas terapias pueden alterar el patrón aumentando la densidad del parénquima, como en la terapia de reemplazo hormonal (TRH), o reduciéndola como en las terapias con moduladores selectivos de los receptores de estrógenos (SERM).
De manera similar, los radiólogos clasifican las categorías de densidad mamaria mediante el uso del sistema BI-RADS. Una vez más, esta clasificación se usa con fines de control de calidad. Por ejemplo, es muy difícil detectar una anomalía en senos densos. Hay cuatro categorías en el sistema BI-RADS:
A. Los senos son casi completamente grasos
B. Hay áreas dispersas de densidad fibroglandular
C. Las mamas son heterogéneamente densas, lo que puede ocultar masas pequeñas
D. Los senos son extremadamente densos, lo que reduce la sensibilidad de la mamografía
Es importante destacar que también se sabe que las densidades mamarias y los patrones de tejido tienen una correlación mutua con el desarrollo del cáncer de mama.
En algunos casos, el método puede generar dos tipos de datos de salida. Mientras que los datos de salida pueden relacionarse con un estudio sugerido o pruebas médicas adicionales 105a, los datos de salida también pueden indicar la densidad o la clasificación del tejido 105b. Los datos de salida pueden indicar una salida binaria en cuanto al requisito de pruebas adicionales. Opcionalmente, los datos de salida pueden incluir datos relacionados con cómo se alcanzó la salida binaria, incluidos cualquiera de; patrón de Tabar; tipos de clasificación de tejidos; densidad mamaria; densidades nodulares; densidades lineales; tejido fibroso homogéneo; tejido graso radiolúcido; categoría BI-RADS; una medida de características superpuestas dentro de las imágenes; índice de probabilidad y/o confianza.
La mamografía es una modalidad de imagen médica ampliamente usada para la detección del cáncer de mama. La mamografía utiliza rayos X "suaves" para producir imágenes detalladas de la estructura interna del seno humano; estas imágenes se denominan mamografías y este método se considera el estándar de oro en la detección temprana de anomalías mamarias que proporcionan un diagnóstico válido de un cáncer en una fase curable.
Desafortunadamente, el procedimiento de análisis de mamografías suele ser un desafío. La densidad y el tipo de tejido de las mamas son muy variados y a su vez presentan una gran variedad de características visuales debido a la genética de las pacientes. Estos patrones visuales de fondo pueden oscurecer los signos, a menudo diminutos, de tumores malignos que el ojo humano puede pasar fácilmente por alto. Por lo tanto, los análisis de las mamografías a menudo conducen a resultados de diagnóstico falsos positivos o falsos negativos que pueden provocar la omisión del tratamiento (en el caso de falsos negativos), así como también consecuencias psicológicas y subóptimas no deseadas en el diagnóstico y el tratamiento (en el caso de falsos positivos).
La mayoría de los países desarrollados mantienen un programa de detección para toda la población, que comprende un sistema integral para llamar a las mujeres de un determinado grupo de edad (incluso si no presentan síntomas) para que se realicen exámenes de detección de mama con regularidad. Estos programas de detección requieren protocolos altamente estandarizados que deben seguir médicos especialistas capacitados que puedan analizar de manera confiable una gran cantidad de mamografías de forma rutinaria. La mayoría de las pautas profesionales recomiendan encarecidamente la lectura de cada mamografía por dos radiólogos igualmente expertos (también conocida como lectura doble). Hoy en día, cuando el número de radiólogos disponibles es insuficiente y está disminuyendo, el requisito de la doble lectura suele ser poco práctico o imposible.
Cuando se analizan mamografías, la identificación confiable de las estructuras anatómicas es importante para la evaluación visual y especialmente para la evaluación analítica de las características visuales en función de su localización anatómica y su relación con las estructuras anatómicas, lo que puede tener profundas implicaciones en los resultados diagnósticos finales. En el caso de que las estructuras anatómicas aparezcan distorsionadas también pueden indicar la presencia de posibles malignidades.
La radiografía convencional es una modalidad de imagen médica ampliamente usada para la detección de anomalías estructurales relacionadas con las estructuras que contienen aire y los huesos, así como también aquellas enfermedades que repercuten en ellos. La radiografía convencional es el método de imagen más usado y utiliza rayos X "duros" para producir imágenes detalladas de la estructura interna de los pulmones y el esqueleto. Estas imágenes se denominan radiografías o simplemente rayos X.
Desafortunadamente, el procedimiento de análisis de rayos X a menudo es un desafío, especialmente cuando se analizan rayos X de pulmón para detectar enfermedades infecciosas (por ejemplo, tuberculosis) o cáncer de pulmón en etapa temprana.
Las modalidades de imágenes médicas transversales se utilizan ampliamente para la detección de anomalías y enfermedades estructurales o funcionales que tienen un impacto estructural identificable visualmente en los órganos internos humanos. Generalmente, las imágenes muestran las estructuras internas en múltiples secciones transversales del cuerpo. A continuación, se describe la esencia de las técnicas transversales más utilizadas.
La tomografía computarizada (TC) es un método de imagen ampliamente usado y hace uso de rayos X "duros" producidos y detectados por un instrumento giratorio especial y los datos de atenuación resultantes (también conocidos como datos sin procesar) se presentan mediante un software analítico computarizado que produce imágenes detalladas de la estructura interna de los órganos internos. Los conjuntos de imágenes producidos se denominan tomografías computarizadas que pueden constituir múltiples series con diferentes configuraciones y diferentes fases del agente de contraste para presentar las estructuras anatómicas internas en secciones transversales perpendiculares al eje del cuerpo humano (o secciones sintetizadas en otros ángulos).
La resonancia magnética nuclear (RMN) es una técnica de diagnóstico avanzada que usa el efecto de los impactos del campo magnético en los movimientos de los protones, que son los elementos esenciales más pequeños de todos los tejidos vivos. En las máquinas de resonancia magnética, los detectores son antenas y las señales son analizadas por una computadora que crea imágenes detalladas de las estructuras internas en cualquier sección del cuerpo humano. La resonancia magnética puede agregar información funcional útil basada en la intensidad de la señal generada por los protones en movimiento.
Sin embargo, el procedimiento de análisis de cualquier tipo de imágenes transversales a menudo es un desafío, especialmente en el caso de una enfermedad oncológica, ya que los signos iniciales a menudo están ocultos y la apariencia de las áreas afectadas difiere mínimamente de la normal.
Al analizar exploraciones transversales, el diagnóstico se basa en la evaluación visual de las estructuras anatómicas. La evaluación confiable, especialmente para la evaluación analítica, de la apariencia visual basada en su localización anatómica y su relación con las estructuras anatómicas, puede tener profundas implicaciones en los resultados diagnósticos finales. En el caso de que las estructuras anatómicas aparezcan distorsionadas también pueden indicar la presencia de posibles malignidades.
Generalmente, en el caso de todos los métodos de radiología diagnóstica (que incluyen mamografía, rayos X convencionales, tomografía computarizada, resonancia magnética), la identificación, localización (registro), segmentación y clasificación de anomalías y/o hallazgos son etapas interrelacionadas importantes en el flujo de trabajo de diagnóstico.
En el caso de los flujos de trabajo de diagnóstico ordinarios llevados a cabo por radiólogos humanos, es posible que estas etapas solo se realicen parcialmente o inconsciente, pero en el caso de los diagnósticos y análisis basados en computadora o asistidos por ordenador, las etapas deben realizarse a menudo de forma clara, concreta, descriptiva y precisa.
La localidad y la clasificación pueden definir e influir significativamente en los diagnósticos. Tanto la localidad como la clasificación pueden basarse en la segmentación en términos de la forma y extensión exactas de las características visuales (es decir, tamaño y localización de los límites, distancia y relación con otras características y/o anatomía). La segmentación también puede proporcionar información importante sobre el cambio en el estado de la enfermedad (por ejemplo, progresión o recesión).
El aprendizaje automático es el campo de estudio en el que una computadora o computadoras aprenden a realizar clases de tareas mediante el uso de la retroalimentación generada a partir de la experiencia o los datos recopilados que el proceso de aprendizaje automático adquiere durante la ejecución de esas tareas por parte de la computadora.
Típicamente, el aprendizaje automático se puede clasificar en sentido amplio como enfoques supervisados y no supervisados, aunque existen enfoques particulares, tal como el aprendizaje por refuerzo y el aprendizaje semisupervisado, que tienen reglas, técnicas y/o enfoques especiales. El aprendizaje automático supervisado se ocupa de que una computadora aprenda una o más reglas o funciones para mapear entre entradas de ejemplo y salidas deseadas según lo predeterminado por un operador o programador, generalmente donde se etiqueta un conjunto de datos que contiene las entradas.
El aprendizaje no supervisado se ocupa de determinar una estructura para los datos de entrada, por ejemplo, cuando se realiza el reconocimiento de patrones y, típicamente, utiliza conjuntos de datos no etiquetados. El aprendizaje por refuerzo se ocupa de permitir que una computadora o computadoras interactúen con un entorno dinámico, por ejemplo, al jugar o conducir un vehículo.
Son posibles híbridos varios de estas categorías, tal como el aprendizaje automático "semisupervisado", donde un conjunto de datos de entrenamiento solo se ha etiquetado parcialmente. Para el aprendizaje automático no supervisado, existe un intervalo de aplicaciones posibles, tal como, por ejemplo, la aplicación de técnicas de visión por ordenador al procesamiento de imágenes o la mejora de videos. El aprendizaje automático no supervisado típicamente se aplica para resolver problemas en los que una estructura de datos desconocida puede estar presente en los datos. Como los datos no están etiquetados, se requiere que el proceso de aprendizaje automático opere para identificar relaciones implícitas entre los datos, por ejemplo, derivando una métrica de agrupación basada en información derivada internamente. Por ejemplo, puede usarse una técnica de aprendizaje no supervisada para reducir la dimensionalidad de un conjunto de datos e intentar identificar y modelar las relaciones entre los grupos en el conjunto de datos y, por ejemplo, generar medidas de pertenencia a grupos o identificar centros o nodos en o entre grupos (por ejemplo, mediante el uso de una técnica conocida como análisis de red de correlación ponderada, que se puede aplicar a conjuntos de datos de alta dimensión, o mediante el uso de agrupamiento de k-medias para agrupar datos por una medida de la distancia euclidiana entre cada dato).
El aprendizaje semisupervisado típicamente se aplica para resolver problemas en los que hay un conjunto de datos parcialmente etiquetado, por ejemplo, donde solo se etiqueta un subconjunto de los datos. El aprendizaje automático semisupervisado usa etiquetas y funciones objetivas proporcionadas externamente, así como también cualquier relación de datos implícita. Cuando se configura inicialmente un sistema de aprendizaje automático, particularmente cuando se usa un enfoque de aprendizaje automático supervisado, el algoritmo de aprendizaje automático puede recibir algunos datos de entrenamiento o un conjunto de ejemplos de entrenamiento, en los que cada ejemplo es típicamente un par de señales/vectores de entrada y un valor de salida deseado, etiqueta (o clasificación) o señal. El algoritmo de aprendizaje automático analiza los datos de entrenamiento y produce una función generalizada que puede usarse con conjuntos de datos no vistos para producir valores de salida deseados o señales para los vectores/señales de entrada no vistos. El usuario debe decidir qué tipo de datos son usados como datos de entrenamiento y preparar un conjunto de datos representativo del mundo real. Sin embargo, el usuario debe asegurarse de que los datos de entrenamiento contienen suficiente información para predecir con precisión los valores de salida deseados sin proporcionar demasiadas características (lo que puede dar lugar a que el proceso de aprendizaje automático considere demasiadas dimensiones durante el entrenamiento y también podría significar que el proceso de aprendizaje automático no converja a buenas soluciones para todos los ejemplos o para algunos específicos). El usuario también debe determinar la estructura deseada de la función aprendida o generalizada, por ejemplo, si usar máquinas de vectores de soporte o árboles de decisión.
El uso de enfoques de aprendizaje automático no supervisados o semisupervisados a veces se usa cuando los datos etiquetados no están disponibles fácilmente, o cuando el sistema genera nuevos datos etiquetados a partir de datos desconocidos dadas algunas etiquetas semillas iniciales.
El aprendizaje automático se puede realizar mediante el uso de uno o más de: un algoritmo jerárquico no lineal; red neuronal; red neuronal convolucional; red neuronal recurrente; larga red de memoria a corto plazo; red convolucional multidimensional; una red de memoria; La red totalmente convolucional o una red recurrente cerrada permite un enfoque flexible al generar el bloque predicho de datos visuales. El uso de un algoritmo con una unidad de memoria tal como una red de memoria a largo plazo (LSTM), una red de memoria o una red recurrente cerrada puede mantener el estado de los bloques predichos de los procesos de compensación de movimiento realizados en el mismo cuadro de entrada original. El uso de estas redes puede mejorar la eficiencia computacional y también mejorar la consistencia temporal en el proceso de compensación de movimiento a lo largo de varios cuadros, ya que el algoritmo mantiene algún tipo de estado o memoria de los cambios en el movimiento. Esto puede resultar adicionalmente en una reducción de las tasas de error.
El desarrollo de un sistema de aprendizaje automático típicamente consta de dos etapas: (1) entrenamiento y (2) producción. Durante el entrenamiento, los parámetros del modelo de aprendizaje automático se cambian iterativamente para optimizar un objetivo de aprendizaje particular, conocido como función objetivo o pérdida. Una vez que se entrena el modelo, puede usarse en producción, donde el modelo toma una entrada y produce una salida mediante el uso de los parámetros entrenados.
Durante la etapa de entrenamiento de las redes neuronales, se proporcionan entradas verificadas y, por lo tanto, es posible comparar la salida calculada de la red neuronal con la red correcta que debe ser. Se puede establecer un término de error o una función de pérdida para cada nodo en la red neuronal, y se pueden ajustar los pesos, de modo que los resultados futuros estén más cerca de un resultado esperado. Las técnicas de retropropagación también se pueden utilizar en el programa de entrenamiento para la o cada red neuronal.
El modelo puede ser entrenado mediante el uso de la retropropagación y el paso hacia adelante a través de la red. La función de pérdida para el entrenamiento denso es la suma de las dimensiones espaciales de las funciones de pérdida de los píxeles individuales.
Aquí L(x) es la pérdida sobre toda la imagen y I'(xi,j) es la pérdida del píxel en i, j. Esto permite que el sistema identifique automáticamente una o más lesiones a partir de la imagen creada por el sistema.
La función de pérdida puede ser la pérdida DICE, que se define como
donde s¡ y r representan los valores continuos del mapa de predicción e [0,..., 1] y la verdad fundamental en cada píxel i, respectivamente. Alternativamente, puede usarse una entropía cruzada. La pérdida de entropía cruzada para el píxel en i, j se define como
donde C es el número de clases, y e {0,1} es el indicador binario para la clase c, y ses el puntaje de la clase c. La pérdida de la imagen completa, x, se define como la suma de todas las pérdidas de los píxeles:
c
Leste) = ^ ( - ^ y * ío#(>))
i, j c
= 1
Una vez que la red neuronal genera una salida, se pueden muestrear uno o más parches de la salida. El muestreo puede ser proporcional a la probabilidad de presencia de lesiones, en particular, el muestreo puede tomarse de áreas con una mayor probabilidad de ser una lesión definida por un umbral predeterminado. Alternativamente, puede usarse el muestreo de Poisson o el muestreo uniforme para muestrear parches. El muestreo Poisson puede brindar una mejor cobertura de todo el tejido mamario. La CNN también puede entrenarse mediante el uso de los resultados de un proceso diferente, por ejemplo, un selector de candidatos basado en Random Forest o cualquier método de detección de lesiones similar.
En el entorno de aprendizaje multitarea, la pérdida constará de varias partes. Un término de pérdida para cada tarea.
Donde L1, L 2 son los términos de pérdida para dos tareas diferentes y A 1, A2 son términos de ponderación.
Cualquier característica del sistema como se describe en la presente descripción también se puede proporcionar como características del método, y viceversa. Como se usa en la presente descripción, las características de los medios más la función pueden expresarse alternativamente en términos de su estructura correspondiente.
Cualquier característica en un aspecto puede aplicarse a otros aspectos, en cualquier combinación apropiada. En particular, los aspectos del método pueden aplicarse a los aspectos del sistema, y viceversa. Además, cualquiera, algunas y/o todas las características de un aspecto pueden aplicarse a cualquiera, algunas y/o todas las características de cualquier otro aspecto, en cualquier combinación adecuada.
También debe apreciarse que las combinaciones particulares de las diversas características descritas y definidas en cualquier aspecto de la invención pueden implementarse y/o suministrarse y/o usarse independientemente.
Claims (15)
1. Un método asistido por ordenador para analizar imágenes médicas sustancialmente en tiempo real, el método que comprende las etapas de:
recibir una o más imágenes médicas;
analizar una o más imágenes médicas para determinar una o más características mediante el uso de uno o más modelos de aprendizaje automático entrenados (104), en donde la etapa de analizar y determinar comprende identificar el tipo de tejido y la categoría de densidad (105b); y
generar datos de salida (105) basados en una o más características determinadas, en donde los datos de salida (105) son indicativos de un requisito para obtener una o más pruebas médicas adicionales (105a), además en donde los datos de salida (105) se basan en al menos el tipo de tejido identificado y la categoría de densidad (105b).
2. El método de cualquier reivindicación anterior, en donde la una o más prueba médicas adicionales (105a) comprenden cualquiera o cualquier combinación de: una tomografía computarizada (TC); una ecografía; una imagen por resonancia magnética (IRM); una exploración de tomosíntesis; y/o una biopsia.
3. El método de cualquier reivindicación anterior, en donde la una o más imágenes médicas comprenden una o más exploraciones mamográficas o de rayos X.
4. El método de la reivindicación 1, en donde uno o más modelos de aprendizaje automático entrenados (104) comprenden redes neuronales convolucionales.
5. El método de cualquier reivindicación anterior en donde la etapa de analizar y determinar comprende segmentar una o más regiones anatómicas, opcionalmente en donde los datos de salida (105) comprenden además datos superpuestos que indican un contorno de segmentación y/o máscaras de probabilidad que muestran una o más ubicaciones de una o más regiones segmentadas.
6. El método de la reivindicación 2, en donde la una o más pruebas médicas adicionales (105a) dependen de la categoría de densidad (105b) determinada en base a la una o más imágenes médicas.
7. El método de cualquier reivindicación anterior, en donde la etapa de analizar y determinar comprende identificar automáticamente una o más regiones anómalas en la imagen médica.
8. El método de cualquier reivindicación anterior en donde la etapa de analizar y determinar comprende identificar y distinguir entre una lesión maligna y/o una lesión benigna y/o una lesión típica, opcionalmente en donde los datos de salida (105) comprenden además datos superpuestos que indican una máscara de probabilidad para la una o más lesiones.
9. El método de cualquier reivindicación anterior, en donde la etapa de analizar y determinar comprende identificar la distorsión arquitectónica.
10. El método de cualquier reivindicación anterior, en donde las unas o más imágenes médicas y las unas o más imágenes médicas adicionales comprenden el uso de archivos de imágenes digitales y comunicaciones en medicina, DICOM.
11. Un sistema para analizar imágenes médicas sustancialmente en tiempo real, el sistema que comprende una unidad de procesamiento configurada para realizar el método de cualquiera de las reivindicaciones 1 a 10.
12. El sistema de la reivindicación 11 que comprende además:
un dispositivo de formación de imágenes médicas (101);
un sistema de comunicación de archivo de imágenes, PACS (102);
en donde la unidad de procesamiento (201) puede operarse para analizar una o más imágenes médicas en el PACS (102); y
un visor de salida (202) operable para visualizar datos de salida (105).
13. El sistema de la reivindicación 12 en donde la unidad de procesamiento (201) está integrada con el dispositivo de formación de imágenes médicas (101).
14. El sistema de la reivindicación 12, en donde la unidad de procesamiento (201) está ubicada de forma remota y es accesible a través de un canal de comunicaciones.
15. Un producto de programa informático que comprende instrucciones que, cuando se ejecutan por la unidad de procesamiento de acuerdo con la reivindicación 11, hacen que la unidad de procesamiento realice el método de acuerdo con las reivindicaciones 1 a 10.
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| GB1809796.4A GB2574659A (en) | 2018-06-14 | 2018-06-14 | Immediate workup |
| GB1819329.2A GB2579244A (en) | 2018-11-27 | 2018-11-27 | Second reader |
| GB201900212 | 2019-01-07 | ||
| PCT/GB2019/051666 WO2019239153A1 (en) | 2018-06-14 | 2019-06-14 | Immediate workup |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2914387T3 true ES2914387T3 (es) | 2022-06-10 |
Family
ID=67439247
Family Applications (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES19744779T Active ES2914873T3 (es) | 2018-06-14 | 2019-06-14 | Sugerencia de segunda lectura |
| ES19744778T Active ES2914415T3 (es) | 2018-06-14 | 2019-06-14 | Segundo lector |
| ES19744777T Active ES2914387T3 (es) | 2018-06-14 | 2019-06-14 | Estudio inmediato |
Family Applications Before (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES19744779T Active ES2914873T3 (es) | 2018-06-14 | 2019-06-14 | Sugerencia de segunda lectura |
| ES19744778T Active ES2914415T3 (es) | 2018-06-14 | 2019-06-14 | Segundo lector |
Country Status (10)
| Country | Link |
|---|---|
| US (3) | US11455723B2 (es) |
| EP (3) | EP3806746B1 (es) |
| JP (3) | JP2021527473A (es) |
| AU (3) | AU2019285394A1 (es) |
| CA (3) | CA3102173A1 (es) |
| DK (3) | DK3806745T3 (es) |
| ES (3) | ES2914873T3 (es) |
| HU (2) | HUE058907T2 (es) |
| SI (3) | SI3806745T1 (es) |
| WO (3) | WO2019239155A1 (es) |
Families Citing this family (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB201705911D0 (en) | 2017-04-12 | 2017-05-24 | Kheiron Medical Tech Ltd | Abstracts |
| DK3806745T3 (da) | 2018-06-14 | 2022-05-23 | Kheiron Medical Tech Ltd | Anden læser |
| WO2020048620A1 (en) * | 2018-09-07 | 2020-03-12 | Toyota Motor Europe | Method and system for processing an image by determining rotation hypotheses |
| CN110459319B (zh) * | 2019-05-16 | 2021-05-25 | 腾讯科技(深圳)有限公司 | 基于人工智能的乳腺钼靶图像的辅助诊断系统 |
| US20200395123A1 (en) * | 2019-06-16 | 2020-12-17 | International Business Machines Corporation | Systems and methods for predicting likelihood of malignancy in a target tissue |
| CN112446476B (zh) * | 2019-09-04 | 2025-04-15 | 华为技术有限公司 | 神经网络模型压缩的方法、装置、存储介质和芯片 |
| EP4546261A3 (en) | 2019-12-20 | 2025-07-16 | Genentech, Inc. | Automated tumor identification and segmentation with medical images |
| JP7415787B2 (ja) * | 2020-05-15 | 2024-01-17 | コニカミノルタ株式会社 | 医用画像システム |
| JP2022041978A (ja) * | 2020-09-01 | 2022-03-11 | キヤノンメディカルシステムズ株式会社 | 磁気共鳴イメージング装置及び医用データ処理装置 |
| WO2022112731A1 (en) * | 2020-11-26 | 2022-06-02 | Kheiron Medical Technologies Ltd | Decision for double reader |
| EP4033497A1 (en) | 2021-01-25 | 2022-07-27 | Aigea Medical S.r.l. | Training procedure and system for artificial intelligence intended for the analysis of mammographic data for the identification or exclusion of the presence of breast cancer |
| WO2023283443A1 (en) * | 2021-07-09 | 2023-01-12 | Whiterabbit.Ai Inc. | Methods and systems for expedited radiological screening |
| JP2023047909A (ja) * | 2021-09-27 | 2023-04-06 | 富士フイルム株式会社 | 医用画像表示装置、方法およびプログラム |
| JP7785494B2 (ja) * | 2021-09-30 | 2025-12-15 | 富士フイルム株式会社 | 学習装置、画像生成装置、学習方法、画像生成方法、学習プログラム、及び画像生成プログラム |
| US20230118546A1 (en) * | 2021-10-19 | 2023-04-20 | PaxeraHealth Corp | High-definition labeling system for medical imaging AI algorithms |
| US12316946B2 (en) * | 2021-11-19 | 2025-05-27 | Motorola Solutions, Inc. | Method, system and computer program product for divided processing in providing object detection focus |
| US20230281987A1 (en) * | 2022-03-03 | 2023-09-07 | Blue River Technology Inc. | Compensating for occlusions in a detection system of a farming machine |
| US12121382B2 (en) * | 2022-03-09 | 2024-10-22 | GE Precision Healthcare LLC | X-ray tomosynthesis system providing neural-net guided resolution enhancement and thinner slice generation |
| JP7674295B2 (ja) * | 2022-03-22 | 2025-05-09 | 株式会社日立製作所 | モデル生成システム及びモデル生成方法 |
| KR102694439B1 (ko) * | 2022-03-24 | 2024-08-13 | 인하대학교 산학협력단 | 고화질 유방 촬영 영상을 이용한 유방암 검출 방법 |
| US12322507B2 (en) | 2022-04-27 | 2025-06-03 | MX Healthcare GmbH | System and method for identifying breast cancer |
| US12450793B2 (en) * | 2022-09-20 | 2025-10-21 | United Imaging Intelligence (Beijing) Co., Ltd. | Systems and methods for processing breast slice images through an artificial neural network to predict abnormalities in breasts |
| WO2024123311A1 (en) * | 2022-12-06 | 2024-06-13 | Google Llc | Mammography device outputs for broad system compatibility |
| WO2025013213A1 (ja) * | 2023-07-11 | 2025-01-16 | 日本電気株式会社 | 情報処理装置、情報処理方法、記憶媒体 |
Family Cites Families (73)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06251038A (ja) * | 1993-03-01 | 1994-09-09 | Toshiba Corp | 医用診断支援システム |
| US6075879A (en) | 1993-09-29 | 2000-06-13 | R2 Technology, Inc. | Method and system for computer-aided lesion detection using information from multiple images |
| WO1996002897A2 (en) | 1994-07-14 | 1996-02-01 | Philips Electronics N.V. | Mass detection in digital x-ray images using multiple threshold levels to discriminate spots |
| CA2232164A1 (en) | 1995-09-19 | 1997-03-27 | Morphometrix Technologies Inc. | A neural network assisted multi-spectral segmentation system |
| US6058322A (en) * | 1997-07-25 | 2000-05-02 | Arch Development Corporation | Methods for improving the accuracy in differential diagnosis on radiologic examinations |
| US5999639A (en) * | 1997-09-04 | 1999-12-07 | Qualia Computing, Inc. | Method and system for automated detection of clustered microcalcifications from digital mammograms |
| US6901156B2 (en) * | 2000-02-04 | 2005-05-31 | Arch Development Corporation | Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images |
| US6574304B1 (en) * | 2002-09-13 | 2003-06-03 | Ge Medical Systems Global Technology Company, Llc | Computer aided acquisition of medical images |
| US7593562B2 (en) | 2002-09-24 | 2009-09-22 | Carestream Health, Inc. | Method and system for computer aided detection (CAD) cued reading of medical images |
| US7418119B2 (en) * | 2002-10-31 | 2008-08-26 | Siemens Computer Aided Diagnosis Ltd. | Display for computer-aided evaluation of medical images and for establishing clinical recommendation therefrom |
| US7203350B2 (en) * | 2002-10-31 | 2007-04-10 | Siemens Computer Aided Diagnosis Ltd. | Display for computer-aided diagnosis of mammograms |
| US7490085B2 (en) * | 2002-12-18 | 2009-02-10 | Ge Medical Systems Global Technology Company, Llc | Computer-assisted data processing system and method incorporating automated learning |
| US20040228509A1 (en) | 2003-05-15 | 2004-11-18 | Beth Israel Deaconess Medical Center, Inc. | Automatic spacial identification of tissue implanted linear sources using medical imaging |
| JP2007524461A (ja) * | 2003-06-25 | 2007-08-30 | シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド | 乳房撮像の自動診断及び決定支援システム及び方法 |
| US7529394B2 (en) | 2003-06-27 | 2009-05-05 | Siemens Medical Solutions Usa, Inc. | CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system |
| US20050113651A1 (en) | 2003-11-26 | 2005-05-26 | Confirma, Inc. | Apparatus and method for surgical planning and treatment monitoring |
| DE102004051401A1 (de) | 2004-10-21 | 2006-05-24 | Siemens Ag | Verfahren zur Befundung in der dreidimensionalen Bildgebung, insbesondere in der Mammographie |
| US7646902B2 (en) | 2005-02-08 | 2010-01-12 | Regents Of The University Of Michigan | Computerized detection of breast cancer on digital tomosynthesis mammograms |
| JP2006325638A (ja) * | 2005-05-23 | 2006-12-07 | Konica Minolta Medical & Graphic Inc | 異常陰影候補の検出方法及び医用画像処理システム |
| AU2006254689B2 (en) | 2005-06-02 | 2012-03-08 | Salient Imaging, Inc. | System and method of computer-aided detection |
| US7809175B2 (en) | 2005-07-01 | 2010-10-05 | Hologic, Inc. | Displaying and navigating computer-aided detection results on a review workstation |
| FR2897182A1 (fr) | 2006-02-09 | 2007-08-10 | Gen Electric | Procede de traitement d'images de projection en tomosynthese pour une detection de signes radiologiques |
| GB0602739D0 (en) * | 2006-02-10 | 2006-03-22 | Ccbr As | Breast tissue density measure |
| ITRM20060213A1 (it) * | 2006-04-13 | 2007-10-14 | Univ Palermo | Metodo di elaborazione di immagini biomediche |
| US8238637B2 (en) | 2006-10-25 | 2012-08-07 | Siemens Computer Aided Diagnosis Ltd. | Computer-aided diagnosis of malignancies of suspect regions and false positives in images |
| US7903861B2 (en) | 2006-12-28 | 2011-03-08 | Carestream Health, Inc. | Method for classifying breast tissue density using computed image features |
| US8203338B2 (en) | 2007-08-06 | 2012-06-19 | Carestream Health, Inc. | Linear structure verification in medical applications |
| JP5264136B2 (ja) | 2007-09-27 | 2013-08-14 | キヤノン株式会社 | 医用診断支援装置及びその制御方法、ならびにコンピュータプログラム及び記憶媒体 |
| JP2009082182A (ja) * | 2007-09-27 | 2009-04-23 | Fujifilm Corp | 検査作業支援装置及び方法、並びに検査作業支援システム |
| JP5100285B2 (ja) | 2007-09-28 | 2012-12-19 | キヤノン株式会社 | 医用診断支援装置およびその制御方法、プログラム、記憶媒体 |
| US7942829B2 (en) * | 2007-11-06 | 2011-05-17 | Eigen, Inc. | Biopsy planning and display apparatus |
| US20100135562A1 (en) | 2008-11-28 | 2010-06-03 | Siemens Computer Aided Diagnosis Ltd. | Computer-aided detection with enhanced workflow |
| US20100158332A1 (en) | 2008-12-22 | 2010-06-24 | Dan Rico | Method and system of automated detection of lesions in medical images |
| US8687860B2 (en) * | 2009-11-24 | 2014-04-01 | Penrad Technologies, Inc. | Mammography statistical diagnostic profiler and prediction system |
| US8064677B2 (en) | 2009-11-25 | 2011-11-22 | Fujifilm Corporation | Systems and methods for measurement of objects of interest in medical images |
| US8582858B2 (en) | 2009-12-17 | 2013-11-12 | The Regents Of The University Of California | Method and apparatus for quantitative analysis of breast density morphology based on MRI |
| US20120099771A1 (en) * | 2010-10-20 | 2012-04-26 | Lao Zhiqiang | Computer aided detection of architectural distortion in mammography |
| JP5875285B2 (ja) | 2011-08-16 | 2016-03-02 | キヤノン株式会社 | 医療診断支援装置、情報処理方法及びプログラム |
| US20130218045A1 (en) | 2011-08-22 | 2013-08-22 | Joel Ironstone | Method and System for Disease Risk Management |
| JP5945803B2 (ja) * | 2012-03-07 | 2016-07-05 | 東芝メディカルシステムズ株式会社 | 医用画像読影システム |
| US8891841B2 (en) | 2012-06-04 | 2014-11-18 | Verizon Patent And Licensing Inc. | Mobile dermatology collection and analysis system |
| TWI483711B (zh) | 2012-07-10 | 2015-05-11 | Univ Nat Taiwan | Tumor detection system and method of breast ultrasound image |
| US9047664B2 (en) | 2013-05-31 | 2015-06-02 | Kathryn Pearson Peyton | Apparatus and method for utilizing mammogram images for verification |
| WO2015031641A1 (en) | 2013-08-29 | 2015-03-05 | Mayo Foundation For Medical Education And Research | System and method for boundary classification and automatic polyp detection |
| EP3072082A4 (en) | 2013-11-19 | 2017-09-13 | Vucomp, Inc. | Obtaining breast density measurements and classifications |
| DE102014208411A1 (de) * | 2014-05-06 | 2015-11-12 | Siemens Aktiengesellschaft | Auswertung eines während einer Mammographie erzeugten Röntgenbildes einer Brust |
| WO2016057960A1 (en) | 2014-10-10 | 2016-04-14 | Radish Medical Solutions, Inc. | Apparatus, system and method for cloud based diagnostics and image archiving and retrieval |
| US9550912B2 (en) | 2014-12-19 | 2017-01-24 | Hexion Inc | Curing agent for epoxy coatings |
| US9519966B2 (en) | 2015-04-22 | 2016-12-13 | King Fahd University Of Petroleum And Minerals | Method, system and computer program product for breast density classification using parts-based local features |
| US9922433B2 (en) | 2015-05-29 | 2018-03-20 | Moira F. Schieke | Method and system for identifying biomarkers using a probability map |
| US10275877B2 (en) | 2015-06-12 | 2019-04-30 | International Business Machines Corporation | Methods and systems for automatically determining diagnosis discrepancies for clinical images |
| EP3391284B1 (en) * | 2015-12-18 | 2024-04-17 | The Regents of The University of California | Interpretation and quantification of emergency features on head computed tomography |
| US10339650B2 (en) | 2016-01-07 | 2019-07-02 | Koios Medical, Inc. | Method and means of CAD system personalization to reduce intraoperator and interoperator variation |
| CN106096491B (zh) | 2016-02-04 | 2022-04-12 | 上海市第一人民医院 | 一种眼底彩色照相图像中微动脉瘤自动化识别方法 |
| CN105931226A (zh) | 2016-04-14 | 2016-09-07 | 南京信息工程大学 | 基于深度学习的自适应椭圆拟合细胞自动检测分割方法 |
| CN106204587B (zh) | 2016-05-27 | 2019-01-08 | 浙江德尚韵兴图像科技有限公司 | 基于深度卷积神经网络和区域竞争模型的多器官分割方法 |
| WO2017210690A1 (en) | 2016-06-03 | 2017-12-07 | Lu Le | Spatial aggregation of holistically-nested convolutional neural networks for automated organ localization and segmentation in 3d medical scans |
| US9589374B1 (en) | 2016-08-01 | 2017-03-07 | 12 Sigma Technologies | Computer-aided diagnosis system for medical images using deep convolutional neural networks |
| JP7021215B2 (ja) * | 2016-08-11 | 2022-02-16 | コイオス メディカル,インコーポレイテッド | Cadシステム推薦に関する確信レベル指標を提供するためのcadシステムパーソナライゼーションの方法及び手段 |
| US10417788B2 (en) | 2016-09-21 | 2019-09-17 | Realize, Inc. | Anomaly detection in volumetric medical images using sequential convolutional and recurrent neural networks |
| JP2018061771A (ja) * | 2016-10-14 | 2018-04-19 | 株式会社日立製作所 | 画像処理装置、及び画像処理方法 |
| US20180129900A1 (en) | 2016-11-04 | 2018-05-10 | Siemens Healthcare Gmbh | Anonymous and Secure Classification Using a Deep Learning Network |
| US11449985B2 (en) | 2016-12-02 | 2022-09-20 | Regents Of The University Of Minnesota | Computer vision for cancerous tissue recognition |
| EP3573520A4 (en) | 2017-01-27 | 2020-11-04 | Arterys Inc. | AUTOMATED SEGMENTATION USING FULLY CONVOLUTIVE NETWORKS |
| GB201705876D0 (en) | 2017-04-11 | 2017-05-24 | Kheiron Medical Tech Ltd | Recist |
| GB201705911D0 (en) | 2017-04-12 | 2017-05-24 | Kheiron Medical Tech Ltd | Abstracts |
| US10223610B1 (en) | 2017-10-15 | 2019-03-05 | International Business Machines Corporation | System and method for detection and classification of findings in images |
| US10916341B2 (en) * | 2017-12-15 | 2021-02-09 | International Business Machines Corporation | Automated report generation based on cognitive classification of medical images |
| WO2019210292A1 (en) * | 2018-04-27 | 2019-10-31 | Delphinus Medical Technologies, Inc. | System and method for feature extraction and classification on ultrasound tomography images |
| EP3791325A4 (en) * | 2018-05-07 | 2022-04-13 | Zebra Medical Vision Ltd. | SYSTEMS AND METHODS FOR DETECTING AN INDICATION OF A TYPE OF VISUAL SEARCH IN AN ANATOMICAL IMAGE |
| US10706545B2 (en) * | 2018-05-07 | 2020-07-07 | Zebra Medical Vision Ltd. | Systems and methods for analysis of anatomical images |
| DK3806745T3 (da) | 2018-06-14 | 2022-05-23 | Kheiron Medical Tech Ltd | Anden læser |
| GB2579244A (en) | 2018-11-27 | 2020-06-17 | Kheiron Medical Tech Ltd | Second reader |
-
2019
- 2019-06-14 DK DK19744778.2T patent/DK3806745T3/da active
- 2019-06-14 JP JP2020568668A patent/JP2021527473A/ja active Pending
- 2019-06-14 AU AU2019285394A patent/AU2019285394A1/en not_active Abandoned
- 2019-06-14 AU AU2019285393A patent/AU2019285393B2/en not_active Ceased
- 2019-06-14 DK DK19744777.4T patent/DK3806744T3/da active
- 2019-06-14 JP JP2020568666A patent/JP2021527472A/ja active Pending
- 2019-06-14 ES ES19744779T patent/ES2914873T3/es active Active
- 2019-06-14 EP EP19744779.0A patent/EP3806746B1/en active Active
- 2019-06-14 SI SI201930235T patent/SI3806745T1/sl unknown
- 2019-06-14 HU HUE19744779A patent/HUE058907T2/hu unknown
- 2019-06-14 EP EP19744777.4A patent/EP3806744B1/en active Active
- 2019-06-14 JP JP2020568814A patent/JP2021527478A/ja active Pending
- 2019-06-14 ES ES19744778T patent/ES2914415T3/es active Active
- 2019-06-14 EP EP19744778.2A patent/EP3806745B1/en active Active
- 2019-06-14 US US17/251,398 patent/US11455723B2/en active Active
- 2019-06-14 SI SI201930248T patent/SI3806746T1/sl unknown
- 2019-06-14 US US17/251,417 patent/US11488306B2/en active Active
- 2019-06-14 CA CA3102173A patent/CA3102173A1/en not_active Abandoned
- 2019-06-14 HU HUE19744777A patent/HUE058687T2/hu unknown
- 2019-06-14 WO PCT/GB2019/051668 patent/WO2019239155A1/en not_active Ceased
- 2019-06-14 WO PCT/GB2019/051666 patent/WO2019239153A1/en not_active Ceased
- 2019-06-14 US US17/251,354 patent/US11410307B2/en active Active
- 2019-06-14 CA CA3102174A patent/CA3102174C/en active Active
- 2019-06-14 AU AU2019285392A patent/AU2019285392A1/en not_active Abandoned
- 2019-06-14 WO PCT/GB2019/051667 patent/WO2019239154A1/en not_active Ceased
- 2019-06-14 SI SI201930234T patent/SI3806744T1/sl unknown
- 2019-06-14 CA CA3102170A patent/CA3102170A1/en not_active Abandoned
- 2019-06-14 ES ES19744777T patent/ES2914387T3/es active Active
- 2019-06-14 DK DK19744779.0T patent/DK3806746T3/da active
Also Published As
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2914387T3 (es) | Estudio inmediato | |
| US11127137B2 (en) | Malignancy assessment for tumors | |
| US7058210B2 (en) | Method and system for lung disease detection | |
| CN109583440B (zh) | 结合影像识别与报告编辑的医学影像辅助诊断方法及系统 | |
| US10593035B2 (en) | Image-based automated measurement model to predict pelvic organ prolapse | |
| WO2021030629A1 (en) | Three dimensional object segmentation of medical images localized with object detection | |
| KR20200080626A (ko) | 병변 진단에 대한 정보 제공 방법 및 이를 이용한 병변 진단에 대한 정보 제공용 디바이스 | |
| US7873196B2 (en) | Medical imaging visibility index system and method for cancer lesions | |
| CN110728239B (zh) | 一种利用深度学习的胃癌增强ct图像自动识别系统 | |
| US20220076421A1 (en) | Method for identifying bone images | |
| Lin et al. | Using deep learning in ultrasound imaging of bicipital peritendinous effusion to grade inflammation severity | |
| CN112638262A (zh) | 相似度确定装置、方法及程序 | |
| Wang et al. | Bone marrow sparing oriented multi-model image registration in cervical cancer radiotherapy | |
| Xu et al. | Clinical-inspired framework for automatic kidney stone recognition and analysis on transverse CT images | |
| CN113450306A (zh) | 提供骨折检测工具的方法 | |
| Giv et al. | Lung segmentation using active shape model to detect the disease from chest radiography | |
| GB2574659A (en) | Immediate workup | |
| CN111127636B (zh) | 一种智能的复杂关节内骨折桌面级三维诊断系统 | |
| WO2022112731A1 (en) | Decision for double reader | |
| Das et al. | Combining image texture and morphological features in low-resource perception models for signal detection tasks | |
| Jantana et al. | Maxillofacial fracture detection and classification in computed tomography images using convolutional neural network‑based models | |
| Stoel | Jingnan Jia1, Irene Hernández-Girón1, Anne A. Schouffoer2, Jeska K. de Vries-Bouwstra2, Maarten K. Ninaber3, Julie C. Korving4, Marius Staring1, Lucia JM Kroft4 & | |
| KR20240081186A (ko) | 멀티모달 딥러닝 기반 비소세포폐암 환자의 생존율 예측 시스템 및 이에 대한 방법 |