[go: up one dir, main page]

ES2914387T3 - Estudio inmediato - Google Patents

Estudio inmediato Download PDF

Info

Publication number
ES2914387T3
ES2914387T3 ES19744777T ES19744777T ES2914387T3 ES 2914387 T3 ES2914387 T3 ES 2914387T3 ES 19744777 T ES19744777 T ES 19744777T ES 19744777 T ES19744777 T ES 19744777T ES 2914387 T3 ES2914387 T3 ES 2914387T3
Authority
ES
Spain
Prior art keywords
medical
analyzing
medical images
output data
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19744777T
Other languages
English (en)
Inventor
Peter Kecskemethy
Tobias Rijken
Edith Karpati
Michael O'neill
Andreas Heindl
Joseph Elliot Yearsley
Dimitrios Korkinof
Galvin Khara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kheiron Medical Technologies Ltd
Original Assignee
Kheiron Medical Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB1809796.4A external-priority patent/GB2574659A/en
Priority claimed from GB1819329.2A external-priority patent/GB2579244A/en
Application filed by Kheiron Medical Technologies Ltd filed Critical Kheiron Medical Technologies Ltd
Application granted granted Critical
Publication of ES2914387T3 publication Critical patent/ES2914387T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Clinical applications
    • A61B8/0825Clinical applications for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Physiology (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)

Abstract

Un método asistido por ordenador para analizar imágenes médicas sustancialmente en tiempo real, el método que comprende las etapas de: recibir una o más imágenes médicas; analizar una o más imágenes médicas para determinar una o más características mediante el uso de uno o más modelos de aprendizaje automático entrenados (104), en donde la etapa de analizar y determinar comprende identificar el tipo de tejido y la categoría de densidad (105b); y generar datos de salida (105) basados en una o más características determinadas, en donde los datos de salida (105) son indicativos de un requisito para obtener una o más pruebas médicas adicionales (105a), además en donde los datos de salida (105) se basan en al menos el tipo de tejido identificado y la categoría de densidad (105b).

Description

DESCRIPCIÓN
Estudio inmediato
Campo
La presente invención se refiere a implementaciones de aprendizaje automático para imágenes médicas. Más particularmente, la presente invención se refiere a un método y un sistema para indicar si se requieren pruebas médicas adicionales después del análisis preliminar durante una exploración médica inicial, sustancialmente en tiempo real.
Antecedentes
La mamografía es un método avanzado para escanear el tejido mamario humano que utiliza rayos X de baja dosis para producir imágenes de la estructura interna del seno humano. La detección de estas imágenes, llamadas mamografías, ayuda a la detección temprana y al diagnóstico de anomalías y enfermedades mamarias. Para conseguir una exploración más precisa, los mamógrafos suelen tener dos placas que comprimen la mama para separar el tejido y ayudar a los radiólogos a examinar la mamografía.
La evaluación por personal humano, que se considera el método más preciso de evaluación de imágenes, se refiere a la tarea realizada por un radiólogo o profesional similar, de inspeccionar las exploraciones médicas, sección por sección, para realizar un análisis exhaustivo. Sin embargo, considerando que una mamografía es una representación de información tridimensional proyectada en un plano de imagen bidimensional, a menudo hay una superposición de tejidos en las imágenes de escaneo médico 2D (mamografías) que se inspeccionan. Como resultado, los tejidos que aparecen superpuestos dentro de la imagen de la mama pueden reducir la visibilidad de las anomalías malignas o, a veces, incluso simular la apariencia de una anomalía (falso positivo). Esto hace que la tarea de analizar una mamografía sea más desafiante y puede causar dificultades cuando se trata de detectar anomalías con exactitud y precisión.
Por lo tanto, los métodos actuales de detección y solicitud de un estudio (pruebas médicas adicionales que incluyen, por ejemplo, el uso de técnicas de imagen alternativas) pueden ser ineficientes y/o lentos cuando se depende solo del radiólogo para examinar mamografías poco claras. A menudo, el resultado final es un procedimiento de revisión innecesario y costoso, una biopsia y/o estrés psicológico para los pacientes.
Además, si hay un hallazgo sospechoso en una mamografía y se requiere una prueba adicional, según los regímenes de detección médica actuales, el tiempo de devolución de llamada para una prueba adicional suele ser de dos a tres semanas.
El documento US6574304B1 describe sistemas y métodos para el diagnóstico automatizado y el soporte de decisiones basado en imágenes médicas mediante el uso de técnicas de aprendizaje automático que permiten que los sistemas "aprendan" a analizar las características relevantes que se extraerán de las imágenes médicas con el fin de proporcionar funciones de soporte de decisiones automatizadas para ayudar a los flujos de trabajo de diagnóstico de pacientes.
El documento US2005/049497A1 describe un método que implementa información CAD para guiar la adquisición de datos de imágenes adicionales. Más específicamente, el método de D1 puede dirigir automáticamente el sistema de obtención de imágenes para adquirir imágenes adicionales en regiones sospechosas de interés donde el algoritmo CAD ha identificado una característica de interés.
El documento US2016/364857A1 menciona usar técnicas de aprendizaje automático para analizar imágenes médicas que se pueden configurar para determinar pruebas de imágenes adicionales para ayudar al diagnóstico.
Resumen de la invención
Los aspectos y/o las modalidades tratan de proporcionar un método y un sistema para recomendar o indicar la necesidad de realizar pruebas médicas adicionales, en tiempo sustancialmente real, basándose en el análisis de una exploración médica inicial, con el uso del aprendizaje automático.
De acuerdo con un primer aspecto, se proporciona un método asistido por ordenador para analizar imágenes médicas sustancialmente en tiempo real, comprendiendo el método las etapas de: recibir una o más imágenes médicas; analizar una o más imágenes médicas para determinar una o más características; y generar datos de salida basados en una o más características determinadas, en donde los datos de salida son indicativos de un requisito para obtener una o más pruebas médicas adicionales.
Los métodos convencionales para analizar imágenes médicas y tomar la decisión de determinar más pruebas médicas se basan en expertos, generalmente un radiólogo, para identificar una anomalía en una mamografía. A menudo, hay un retraso para que el radiólogo examine la mamografía. Otros radiólogos no demuestran una precisión constante debido a la naturaleza manual de la tarea, por ejemplo, al cometer errores debido a la superposición de tejidos mamarios en la mamografía y/o detalles demasiado finos para que los detecte el ojo humano. Por el contrario, el método descrito en la presente descripción proporciona una forma de analizar una imagen médica sin intervención humana y proporciona una recomendación instantánea sobre si se requiere una prueba médica adicional.
Opcionalmente, una o más pruebas médicas adicionales comprenden cualquiera o cualquier combinación de: una tomografía computarizada (TC); una ecografía; una resonancia magnética nuclear (RMN); una exploración de tomosíntesis; y/o una biopsia.
Se puede sugerir una prueba médica adicional basada en el análisis de la evaluación preliminar. Como ejemplo, se puede recomendar instantáneamente una exploración de tomosíntesis más detallada si la mamografía inicial no es clara o las características se superponen o si puede haber una lesión que valga la pena investigar. En algunos casos, el análisis de la imagen médica inicial puede no requerir más estudios o pruebas médicas. Opcionalmente, los datos de salida también pueden indicar una densidad mamaria o un tipo de clasificación de tejido.
Opcionalmente, una o más imágenes médicas comprenden una o más exploraciones mamográficas o de rayos X.
En la mayoría de los programas de detección médica, la radiografía o la mamografía es el primer tipo de exploración médica.
Opcionalmente, la etapa de analizar y determinar se realiza mediante el uso de uno o más modelos de aprendizaje automático entrenados.
Los modelos de aprendizaje automático capacitados pueden analizar imágenes médicas mucho más rápido que un experto humano y, por lo tanto, aumentar la cantidad de imágenes médicas analizadas en general. La precisión suele ser típicamente consistente cuando se usa un modelo de aprendizaje automático. Así, un problema, por ejemplo, el crecimiento de un tumor canceroso puede detectarse más rápidamente que esperar a que un experto humano esté disponible y, por lo tanto, el tratamiento puede comenzar antes o puede solicitarse antes una prueba médica adicional. Por lo tanto, la identificación de regiones de interés, que pueden incluir lesiones, puede ayudar a la detección y evaluación clínica del cáncer de mama, entre otras cuestiones médicas. El diagnóstico y el tratamiento tempranos pueden reducir el estrés psicológico de un paciente y también aumentar las posibilidades de supervivencia a largo plazo.
Opcionalmente, los modelos de aprendizaje automático entrenados comprenden redes neuronales convolucionales.
Las redes convolucionales son herramientas poderosas inspiradas en procesos neuronales biológicos, que pueden entrenarse para generar jerarquías de características y son particularmente adecuadas para el reconocimiento de imágenes. Las capas convolucionales aplican una operación convolucional a una entrada y pasan los resultados a una capa siguiente. Con el entrenamiento, las redes convolucionales pueden lograr una precisión de nivel experto o mayor con respecto a la segmentación y localización de regiones anatómicas y patológicas en imágenes médicas digitales tal como mamografías.
Opcionalmente, la etapa de análisis y determinación comprende segmentar una o más regiones anatómicas. Opcionalmente, los datos de salida comprenden además datos superpuestos que indican un contorno de segmentación y/o máscaras de probabilidad que muestran una o más ubicaciones de una o más regiones segmentadas.
Proporcionar una segmentación clara y precisa de las regiones puede ser muy útil al revisar una imagen médica, tal como una mamografía. Esto puede ser especialmente relevante si hay motivos para sospechar que hay un problema médico con un paciente, por ejemplo, un área hinchada que es más grande que en exploraciones anteriores. Dichos cambios pueden detectarse más fácilmente si las diferentes regiones están claramente segmentadas. Además, la información de segmentación también puede ser usada para enriquecer los Sistemas de Comunicación de Archivo de Imágenes (PACS) que utilizan los departamentos de radiología en los hospitales. Con la inclusión de estos datos de segmentación en PACS, mejora ventajosamente los métodos futuros de marcar casos similares, ya sea que los métodos sean semiautomáticos, completamente automatizados o realizados manualmente.
Opcionalmente, la etapa de análisis y determinación comprende identificar el tipo de tejido y la categoría de densidad. Opcionalmente, el tipo requerido de una o más pruebas médicas adicionales depende de la categoría de densidad determinada en base a una o más imágenes médicas. Opcionalmente, esta etapa puede estimar conjuntamente el tipo de tejido y la categoría de densidad.
Clasificar correctamente el tipo de tejido y la categoría de densidad puede permitir que el método recomiende una prueba médica adicional adecuada o un estudio específico.
Opcionalmente, la etapa de análisis y determinación comprende identificar automáticamente una o más regiones anómalas en la imagen médica.
Opcionalmente, la etapa de análisis y determinación comprende identificar y distinguir entre una lesión maligna y/o una lesión benigna y/o una lesión típica.
Opcionalmente, los datos de salida comprenden además datos superpuestos que indican una máscara de probabilidad para una o más lesiones.
Opcionalmente, la etapa de análisis y determinación comprende identificar la distorsión arquitectónica.
Opcionalmente, una o más imágenes médicas y una o más imágenes médicas adicionales comprenden los archivos de uso de imágenes digitales y comunicaciones en medicina, DICOM.
Como un archivo DICOM se usa convencionalmente para almacenar y compartir imágenes médicas, cumplir con dicho estándar puede facilitar la distribución y el análisis futuro de las imágenes médicas y/o cualquier superposición u otros datos contribuyentes. Una o más máscaras binarias pueden almacenarse como parte de un archivo de imagen DICOM, agregarse a un archivo de imagen y/o almacenarse y/o representarse de cualquier otra manera de acuerdo con el estándar DICOM o porción del estándar.
De acuerdo con otro aspecto, se proporciona un sistema para analizar imágenes médicas sustancialmente en tiempo real, comprendiendo el sistema: un dispositivo de formación de imágenes médicas; un sistema de comunicación de archivo de imágenes, PACS; una unidad de procesamiento operable para analizar una o más imágenes médicas en el PACS para determinar una o más características; y un visor de salida operable para mostrar datos de salida generados en base a una o más características determinadas, en donde los datos de salida son indicativos de un requisito para obtener una o más imágenes médicas adicionales.
Dicho sistema puede instalarse en o cerca de hospitales, o conectarse a hospitales a través de una red digital, para reducir los tiempos de espera para el análisis de imágenes médicas. Por lo tanto, los pacientes pueden evitar el estrés de no conocer los resultados de un examen médico y recibir una decisión más rápidamente.
Opcionalmente, la unidad de procesamiento está integrada con el dispositivo de formación de imágenes médicas. De esta forma, el escáner médico se puede acoplar con una unidad de procesamiento para analizar imágenes médicas tan pronto como se escanean.
Opcionalmente, la unidad de procesamiento está ubicada de forma remota y es accesible a través de un canal de comunicaciones.
En esta configuración, la unidad de procesamiento se puede implementar desde un sistema de nube remoto sin necesidad de reemplazar o cambiar el equipo de escaneo existente.
De acuerdo con otro aspecto, se proporciona un sistema operativo para realizar el método según cualquier otro aspecto.
De acuerdo con otro aspecto, se proporciona un programa de computadora operable para realizar el método de acuerdo con cualquier otro aspecto.
Mediante el uso de una computadora u otra tecnología digital, el examen de imágenes médicas se puede realizar con mayor precisión, velocidad y/o confiabilidad que si se confiara en un experto humano. Por lo tanto, se puede revisar un mayor número de imágenes médicas a la vez, de esta manera reduce los retrasos para los expertos y reduce aún más los errores cometidos cuando se revisan realmente las imágenes médicas.
Breve descripción de las figuras
Las modalidades se describirán ahora, a manera de ejemplo y con referencia a las figuras adjuntas que tienen números de referencia similares, en los que:
La Figura 1 muestra un diagrama de flujo de una modalidad;
La Figura 2 representa un primer despliegue (por ejemplo, dentro de un dispositivo de escaneo médico);
La Figura 3 representa un segundo despliegue (por ejemplo, en las instalaciones de un centro médico); y La Figura 4 representa una tercera implementación (por ejemplo, mediante el uso de un sistema en la nube).
Descripción específica
Con referencia a las Figuras 1 a 4, ahora se describirá una modalidad.
Como se ve en la Figura 1, después de realizar un escaneo médico de un paciente (tal como una mamografía) mediante el uso de un escáner de imágenes médicas 101, las imágenes escaneadas se recopilan en formato DICOM, que es un formato de archivo comúnmente usado para almacenar imágenes médicas. El método usa datos preprocesados que se almacenan en un Sistema de Comunicación de Archivo de Imágenes (PACS) 102 que los departamentos de radiología usan en los hospitales. El resultado de este método también enriquece la base de datos de PACS para mejorar futuras aplicaciones de análisis de imágenes mamográficas. Los datos de la imagen se extraen del archivo DICOM y se genera una imagen.
A continuación, la imagen pasa por una etapa de preprocesamiento 103. La imagen se carga en un tensor 4D de tamaño [1, ancho, altura, 1]. La etapa de preprocesamiento puede comprender la creación de una ventana para los datos de la imagen hasta un nivel de ventana predeterminado. El nivel de ventana define el intervalo de valores de bits considerados en la imagen. Las imágenes médicas son imágenes de 16 bits convencionales, en donde cada píxel se representa como un número entero de 16 bits que va de 0 a 216-1, es decir, [0, 1, 2, ..., 65 535]. El contenido de información es muy alto en estas imágenes, y generalmente comprende más información de la que el ojo humano es capaz de detectar. En el archivo DICOM se suele incluir típicamente un valor establecido dentro del nivel de ventana.
En algunos casos, puede ser importante mantener la resolución de la imagen. A menudo, las limitaciones de la unidad de procesamiento de gráficos (GPU) convencional requieren que la imagen se divida en una pluralidad de parches para mantener la resolución. Luego, cada parche se puede proporcionar a una red totalmente convolucional (FCN). Cuanto más grande sea el parche, más contexto se puede proporcionar, pero se puede perder algo de precisión. Por ejemplo, en el caso de una imagen grande que comprenda un tumor pequeño, si se le indica a la FCN que en algún lugar de este parche hay un tumor, la red deberá aprender cómo encontrarlo primero antes de poder clasificarlo. En esta modalidad se usan tamaños de parche de 300x300 píxeles, aunque puede usarse tamaños de parche más grandes y más pequeños.
Se puede incluir una etapa de cambio de escala debido a las limitaciones del hardware convencional mencionadas anteriormente. Las imágenes médicas típicamente suelen estar en la región de ~ 3500 * 2500 píxeles. Un FCN 100 aplicado a esta imagen no cabe en la memoria de la unidad de procesamiento de gráficos (GPU) convencional. La imagen se puede volver a escalar a un tamaño más grande o más pequeño, o incluso no volver a escalar en absoluto, y permitiría que el FCN vea una resolución más alta y pueda captar detalles más finos. Sin embargo, es poco probable que esto encaje en la memoria de la GPU y podría hacer que el método se vuelva considerablemente más lento. Al volver a escalar la imagen a un tamaño más pequeño, es más probable que quepa en una memoria GPU y permita que los procesos se ejecuten a una velocidad más rápida. El FCN también puede generalizar mejor debido a un menor número de parámetros de entrada.
El método puede usarse para identificar y detectar lesiones en las mamografías. Las lesiones que pueden segmentarse pueden comprender uno o más crecimientos cancerosos, masas, abscesos, laceraciones, calcificaciones y/u otras irregularidades dentro del tejido biológico.
Las imágenes se analizan alimentándolas a través de un modelo de aprendizaje automático entrenado, tal como una red neuronal convolucional. Esta modalidad utiliza técnicas de aprendizaje automático para entrenar y desarrollar la red de convolución. El modelo se entrena en un conjunto de datos con estudios conocidos y, por lo tanto, establece directamente una relación entre las imágenes recibidas y los estudios conocidos para estimar un análisis requerido. En particular, la salida 105 del modelo de aprendizaje automático es un vector binario, donde los índices representan varios tipos de estudios. Por ejemplo, los estudios pueden ser cualquiera, o cualquier combinación de, sin necesidad de más acción, una ecografía, una tomosíntesis, una resonancia magnética y/o una biopsia.
El conjunto de datos usado para entrenar las redes neuronales también puede contener densidades o tipos de tejidos conocidos. En ese caso, se puede adoptar un enfoque de aprendizaje multitarea para que el modelo también genere densidad (A, B, C, D) o tipo de tejido (1,2, 3, 4, 5).
Existen diferentes tipos de patrones en el tejido mamario que afectan la detectabilidad de los cánceres de mama. Por lo tanto, es importante saber qué tipo de patrón está presente. Hay cinco patrones parenquimatosos de mamografía conocidos como "patrones de Tabar", llamados así por el profesor Laszlo Tabar, quien desarrolló esta clasificación.
Los patrones de Tabar (o tipos de clasificación) se basan en una correlación histológico-mamográfica con una técnica tridimensional, subgruesa (corte grueso), y en la proporción relativa de cuatro "bloques de construcción" (densidades nodulares, densidades lineales, tejido fibroso homogéneo, tejido graso radiolúcido). Las cinco clasificaciones son las siguientes:
1. Proporción equilibrada de todos los componentes del tejido mamario con un ligero predominio del tejido fibroso
2. Predominio de tejido graso
3. Predominio de tejido graso con tejido fibroso residual retroareolar
4. Densidades predominantemente nodulares
5. Tejido predominantemente fibroso (mama densa)
Las clases 4 y 5 se consideran de alto riesgo, lo que significa que es difícil detectar cánceres en el seno con esos patrones, mientras que las clases 1, 2 y 3 se consideran de menor riesgo ya que es más fácil detectar regiones cancerosas.
Algunas terapias pueden alterar el patrón aumentando la densidad del parénquima, como en la terapia de reemplazo hormonal (TRH), o reduciéndola como en las terapias con moduladores selectivos de los receptores de estrógenos (SERM).
De manera similar, los radiólogos clasifican las categorías de densidad mamaria mediante el uso del sistema BI-RADS. Una vez más, esta clasificación se usa con fines de control de calidad. Por ejemplo, es muy difícil detectar una anomalía en senos densos. Hay cuatro categorías en el sistema BI-RADS:
A. Los senos son casi completamente grasos
B. Hay áreas dispersas de densidad fibroglandular
C. Las mamas son heterogéneamente densas, lo que puede ocultar masas pequeñas
D. Los senos son extremadamente densos, lo que reduce la sensibilidad de la mamografía
Es importante destacar que también se sabe que las densidades mamarias y los patrones de tejido tienen una correlación mutua con el desarrollo del cáncer de mama.
En algunos casos, el método puede generar dos tipos de datos de salida. Mientras que los datos de salida pueden relacionarse con un estudio sugerido o pruebas médicas adicionales 105a, los datos de salida también pueden indicar la densidad o la clasificación del tejido 105b. Los datos de salida pueden indicar una salida binaria en cuanto al requisito de pruebas adicionales. Opcionalmente, los datos de salida pueden incluir datos relacionados con cómo se alcanzó la salida binaria, incluidos cualquiera de; patrón de Tabar; tipos de clasificación de tejidos; densidad mamaria; densidades nodulares; densidades lineales; tejido fibroso homogéneo; tejido graso radiolúcido; categoría BI-RADS; una medida de características superpuestas dentro de las imágenes; índice de probabilidad y/o confianza.
La mamografía es una modalidad de imagen médica ampliamente usada para la detección del cáncer de mama. La mamografía utiliza rayos X "suaves" para producir imágenes detalladas de la estructura interna del seno humano; estas imágenes se denominan mamografías y este método se considera el estándar de oro en la detección temprana de anomalías mamarias que proporcionan un diagnóstico válido de un cáncer en una fase curable.
Desafortunadamente, el procedimiento de análisis de mamografías suele ser un desafío. La densidad y el tipo de tejido de las mamas son muy variados y a su vez presentan una gran variedad de características visuales debido a la genética de las pacientes. Estos patrones visuales de fondo pueden oscurecer los signos, a menudo diminutos, de tumores malignos que el ojo humano puede pasar fácilmente por alto. Por lo tanto, los análisis de las mamografías a menudo conducen a resultados de diagnóstico falsos positivos o falsos negativos que pueden provocar la omisión del tratamiento (en el caso de falsos negativos), así como también consecuencias psicológicas y subóptimas no deseadas en el diagnóstico y el tratamiento (en el caso de falsos positivos).
La mayoría de los países desarrollados mantienen un programa de detección para toda la población, que comprende un sistema integral para llamar a las mujeres de un determinado grupo de edad (incluso si no presentan síntomas) para que se realicen exámenes de detección de mama con regularidad. Estos programas de detección requieren protocolos altamente estandarizados que deben seguir médicos especialistas capacitados que puedan analizar de manera confiable una gran cantidad de mamografías de forma rutinaria. La mayoría de las pautas profesionales recomiendan encarecidamente la lectura de cada mamografía por dos radiólogos igualmente expertos (también conocida como lectura doble). Hoy en día, cuando el número de radiólogos disponibles es insuficiente y está disminuyendo, el requisito de la doble lectura suele ser poco práctico o imposible.
Cuando se analizan mamografías, la identificación confiable de las estructuras anatómicas es importante para la evaluación visual y especialmente para la evaluación analítica de las características visuales en función de su localización anatómica y su relación con las estructuras anatómicas, lo que puede tener profundas implicaciones en los resultados diagnósticos finales. En el caso de que las estructuras anatómicas aparezcan distorsionadas también pueden indicar la presencia de posibles malignidades.
La radiografía convencional es una modalidad de imagen médica ampliamente usada para la detección de anomalías estructurales relacionadas con las estructuras que contienen aire y los huesos, así como también aquellas enfermedades que repercuten en ellos. La radiografía convencional es el método de imagen más usado y utiliza rayos X "duros" para producir imágenes detalladas de la estructura interna de los pulmones y el esqueleto. Estas imágenes se denominan radiografías o simplemente rayos X.
Desafortunadamente, el procedimiento de análisis de rayos X a menudo es un desafío, especialmente cuando se analizan rayos X de pulmón para detectar enfermedades infecciosas (por ejemplo, tuberculosis) o cáncer de pulmón en etapa temprana.
Las modalidades de imágenes médicas transversales se utilizan ampliamente para la detección de anomalías y enfermedades estructurales o funcionales que tienen un impacto estructural identificable visualmente en los órganos internos humanos. Generalmente, las imágenes muestran las estructuras internas en múltiples secciones transversales del cuerpo. A continuación, se describe la esencia de las técnicas transversales más utilizadas.
La tomografía computarizada (TC) es un método de imagen ampliamente usado y hace uso de rayos X "duros" producidos y detectados por un instrumento giratorio especial y los datos de atenuación resultantes (también conocidos como datos sin procesar) se presentan mediante un software analítico computarizado que produce imágenes detalladas de la estructura interna de los órganos internos. Los conjuntos de imágenes producidos se denominan tomografías computarizadas que pueden constituir múltiples series con diferentes configuraciones y diferentes fases del agente de contraste para presentar las estructuras anatómicas internas en secciones transversales perpendiculares al eje del cuerpo humano (o secciones sintetizadas en otros ángulos).
La resonancia magnética nuclear (RMN) es una técnica de diagnóstico avanzada que usa el efecto de los impactos del campo magnético en los movimientos de los protones, que son los elementos esenciales más pequeños de todos los tejidos vivos. En las máquinas de resonancia magnética, los detectores son antenas y las señales son analizadas por una computadora que crea imágenes detalladas de las estructuras internas en cualquier sección del cuerpo humano. La resonancia magnética puede agregar información funcional útil basada en la intensidad de la señal generada por los protones en movimiento.
Sin embargo, el procedimiento de análisis de cualquier tipo de imágenes transversales a menudo es un desafío, especialmente en el caso de una enfermedad oncológica, ya que los signos iniciales a menudo están ocultos y la apariencia de las áreas afectadas difiere mínimamente de la normal.
Al analizar exploraciones transversales, el diagnóstico se basa en la evaluación visual de las estructuras anatómicas. La evaluación confiable, especialmente para la evaluación analítica, de la apariencia visual basada en su localización anatómica y su relación con las estructuras anatómicas, puede tener profundas implicaciones en los resultados diagnósticos finales. En el caso de que las estructuras anatómicas aparezcan distorsionadas también pueden indicar la presencia de posibles malignidades.
Generalmente, en el caso de todos los métodos de radiología diagnóstica (que incluyen mamografía, rayos X convencionales, tomografía computarizada, resonancia magnética), la identificación, localización (registro), segmentación y clasificación de anomalías y/o hallazgos son etapas interrelacionadas importantes en el flujo de trabajo de diagnóstico.
En el caso de los flujos de trabajo de diagnóstico ordinarios llevados a cabo por radiólogos humanos, es posible que estas etapas solo se realicen parcialmente o inconsciente, pero en el caso de los diagnósticos y análisis basados en computadora o asistidos por ordenador, las etapas deben realizarse a menudo de forma clara, concreta, descriptiva y precisa.
La localidad y la clasificación pueden definir e influir significativamente en los diagnósticos. Tanto la localidad como la clasificación pueden basarse en la segmentación en términos de la forma y extensión exactas de las características visuales (es decir, tamaño y localización de los límites, distancia y relación con otras características y/o anatomía). La segmentación también puede proporcionar información importante sobre el cambio en el estado de la enfermedad (por ejemplo, progresión o recesión).
El aprendizaje automático es el campo de estudio en el que una computadora o computadoras aprenden a realizar clases de tareas mediante el uso de la retroalimentación generada a partir de la experiencia o los datos recopilados que el proceso de aprendizaje automático adquiere durante la ejecución de esas tareas por parte de la computadora.
Típicamente, el aprendizaje automático se puede clasificar en sentido amplio como enfoques supervisados y no supervisados, aunque existen enfoques particulares, tal como el aprendizaje por refuerzo y el aprendizaje semisupervisado, que tienen reglas, técnicas y/o enfoques especiales. El aprendizaje automático supervisado se ocupa de que una computadora aprenda una o más reglas o funciones para mapear entre entradas de ejemplo y salidas deseadas según lo predeterminado por un operador o programador, generalmente donde se etiqueta un conjunto de datos que contiene las entradas.
El aprendizaje no supervisado se ocupa de determinar una estructura para los datos de entrada, por ejemplo, cuando se realiza el reconocimiento de patrones y, típicamente, utiliza conjuntos de datos no etiquetados. El aprendizaje por refuerzo se ocupa de permitir que una computadora o computadoras interactúen con un entorno dinámico, por ejemplo, al jugar o conducir un vehículo.
Son posibles híbridos varios de estas categorías, tal como el aprendizaje automático "semisupervisado", donde un conjunto de datos de entrenamiento solo se ha etiquetado parcialmente. Para el aprendizaje automático no supervisado, existe un intervalo de aplicaciones posibles, tal como, por ejemplo, la aplicación de técnicas de visión por ordenador al procesamiento de imágenes o la mejora de videos. El aprendizaje automático no supervisado típicamente se aplica para resolver problemas en los que una estructura de datos desconocida puede estar presente en los datos. Como los datos no están etiquetados, se requiere que el proceso de aprendizaje automático opere para identificar relaciones implícitas entre los datos, por ejemplo, derivando una métrica de agrupación basada en información derivada internamente. Por ejemplo, puede usarse una técnica de aprendizaje no supervisada para reducir la dimensionalidad de un conjunto de datos e intentar identificar y modelar las relaciones entre los grupos en el conjunto de datos y, por ejemplo, generar medidas de pertenencia a grupos o identificar centros o nodos en o entre grupos (por ejemplo, mediante el uso de una técnica conocida como análisis de red de correlación ponderada, que se puede aplicar a conjuntos de datos de alta dimensión, o mediante el uso de agrupamiento de k-medias para agrupar datos por una medida de la distancia euclidiana entre cada dato).
El aprendizaje semisupervisado típicamente se aplica para resolver problemas en los que hay un conjunto de datos parcialmente etiquetado, por ejemplo, donde solo se etiqueta un subconjunto de los datos. El aprendizaje automático semisupervisado usa etiquetas y funciones objetivas proporcionadas externamente, así como también cualquier relación de datos implícita. Cuando se configura inicialmente un sistema de aprendizaje automático, particularmente cuando se usa un enfoque de aprendizaje automático supervisado, el algoritmo de aprendizaje automático puede recibir algunos datos de entrenamiento o un conjunto de ejemplos de entrenamiento, en los que cada ejemplo es típicamente un par de señales/vectores de entrada y un valor de salida deseado, etiqueta (o clasificación) o señal. El algoritmo de aprendizaje automático analiza los datos de entrenamiento y produce una función generalizada que puede usarse con conjuntos de datos no vistos para producir valores de salida deseados o señales para los vectores/señales de entrada no vistos. El usuario debe decidir qué tipo de datos son usados como datos de entrenamiento y preparar un conjunto de datos representativo del mundo real. Sin embargo, el usuario debe asegurarse de que los datos de entrenamiento contienen suficiente información para predecir con precisión los valores de salida deseados sin proporcionar demasiadas características (lo que puede dar lugar a que el proceso de aprendizaje automático considere demasiadas dimensiones durante el entrenamiento y también podría significar que el proceso de aprendizaje automático no converja a buenas soluciones para todos los ejemplos o para algunos específicos). El usuario también debe determinar la estructura deseada de la función aprendida o generalizada, por ejemplo, si usar máquinas de vectores de soporte o árboles de decisión.
El uso de enfoques de aprendizaje automático no supervisados o semisupervisados a veces se usa cuando los datos etiquetados no están disponibles fácilmente, o cuando el sistema genera nuevos datos etiquetados a partir de datos desconocidos dadas algunas etiquetas semillas iniciales.
El aprendizaje automático se puede realizar mediante el uso de uno o más de: un algoritmo jerárquico no lineal; red neuronal; red neuronal convolucional; red neuronal recurrente; larga red de memoria a corto plazo; red convolucional multidimensional; una red de memoria; La red totalmente convolucional o una red recurrente cerrada permite un enfoque flexible al generar el bloque predicho de datos visuales. El uso de un algoritmo con una unidad de memoria tal como una red de memoria a largo plazo (LSTM), una red de memoria o una red recurrente cerrada puede mantener el estado de los bloques predichos de los procesos de compensación de movimiento realizados en el mismo cuadro de entrada original. El uso de estas redes puede mejorar la eficiencia computacional y también mejorar la consistencia temporal en el proceso de compensación de movimiento a lo largo de varios cuadros, ya que el algoritmo mantiene algún tipo de estado o memoria de los cambios en el movimiento. Esto puede resultar adicionalmente en una reducción de las tasas de error.
El desarrollo de un sistema de aprendizaje automático típicamente consta de dos etapas: (1) entrenamiento y (2) producción. Durante el entrenamiento, los parámetros del modelo de aprendizaje automático se cambian iterativamente para optimizar un objetivo de aprendizaje particular, conocido como función objetivo o pérdida. Una vez que se entrena el modelo, puede usarse en producción, donde el modelo toma una entrada y produce una salida mediante el uso de los parámetros entrenados.
Durante la etapa de entrenamiento de las redes neuronales, se proporcionan entradas verificadas y, por lo tanto, es posible comparar la salida calculada de la red neuronal con la red correcta que debe ser. Se puede establecer un término de error o una función de pérdida para cada nodo en la red neuronal, y se pueden ajustar los pesos, de modo que los resultados futuros estén más cerca de un resultado esperado. Las técnicas de retropropagación también se pueden utilizar en el programa de entrenamiento para la o cada red neuronal.
El modelo puede ser entrenado mediante el uso de la retropropagación y el paso hacia adelante a través de la red. La función de pérdida para el entrenamiento denso es la suma de las dimensiones espaciales de las funciones de pérdida de los píxeles individuales.
Figure imgf000008_0001
Aquí L(x) es la pérdida sobre toda la imagen y I'(xi,j) es la pérdida del píxel en i, j. Esto permite que el sistema identifique automáticamente una o más lesiones a partir de la imagen creada por el sistema.
La función de pérdida puede ser la pérdida DICE, que se define como
Figure imgf000009_0001
donde y r representan los valores continuos del mapa de predicción e [0,..., 1] y la verdad fundamental en cada píxel i, respectivamente. Alternativamente, puede usarse una entropía cruzada. La pérdida de entropía cruzada para el píxel en i, j se define como
Figure imgf000009_0002
donde C es el número de clases, y e {0,1} es el indicador binario para la clase c, y ses el puntaje de la clase c. La pérdida de la imagen completa, x, se define como la suma de todas las pérdidas de los píxeles:
c
Leste) = ^ ( - ^ y * ío#(>))
i, j c = 1
Una vez que la red neuronal genera una salida, se pueden muestrear uno o más parches de la salida. El muestreo puede ser proporcional a la probabilidad de presencia de lesiones, en particular, el muestreo puede tomarse de áreas con una mayor probabilidad de ser una lesión definida por un umbral predeterminado. Alternativamente, puede usarse el muestreo de Poisson o el muestreo uniforme para muestrear parches. El muestreo Poisson puede brindar una mejor cobertura de todo el tejido mamario. La CNN también puede entrenarse mediante el uso de los resultados de un proceso diferente, por ejemplo, un selector de candidatos basado en Random Forest o cualquier método de detección de lesiones similar.
En el entorno de aprendizaje multitarea, la pérdida constará de varias partes. Un término de pérdida para cada tarea.
Figure imgf000009_0003
Donde L1, L 2 son los términos de pérdida para dos tareas diferentes y A 1, A2 son términos de ponderación.
Cualquier característica del sistema como se describe en la presente descripción también se puede proporcionar como características del método, y viceversa. Como se usa en la presente descripción, las características de los medios más la función pueden expresarse alternativamente en términos de su estructura correspondiente.
Cualquier característica en un aspecto puede aplicarse a otros aspectos, en cualquier combinación apropiada. En particular, los aspectos del método pueden aplicarse a los aspectos del sistema, y viceversa. Además, cualquiera, algunas y/o todas las características de un aspecto pueden aplicarse a cualquiera, algunas y/o todas las características de cualquier otro aspecto, en cualquier combinación adecuada.
También debe apreciarse que las combinaciones particulares de las diversas características descritas y definidas en cualquier aspecto de la invención pueden implementarse y/o suministrarse y/o usarse independientemente.

Claims (15)

REIVINDICACIONES
1. Un método asistido por ordenador para analizar imágenes médicas sustancialmente en tiempo real, el método que comprende las etapas de:
recibir una o más imágenes médicas;
analizar una o más imágenes médicas para determinar una o más características mediante el uso de uno o más modelos de aprendizaje automático entrenados (104), en donde la etapa de analizar y determinar comprende identificar el tipo de tejido y la categoría de densidad (105b); y
generar datos de salida (105) basados en una o más características determinadas, en donde los datos de salida (105) son indicativos de un requisito para obtener una o más pruebas médicas adicionales (105a), además en donde los datos de salida (105) se basan en al menos el tipo de tejido identificado y la categoría de densidad (105b).
2. El método de cualquier reivindicación anterior, en donde la una o más prueba médicas adicionales (105a) comprenden cualquiera o cualquier combinación de: una tomografía computarizada (TC); una ecografía; una imagen por resonancia magnética (IRM); una exploración de tomosíntesis; y/o una biopsia.
3. El método de cualquier reivindicación anterior, en donde la una o más imágenes médicas comprenden una o más exploraciones mamográficas o de rayos X.
4. El método de la reivindicación 1, en donde uno o más modelos de aprendizaje automático entrenados (104) comprenden redes neuronales convolucionales.
5. El método de cualquier reivindicación anterior en donde la etapa de analizar y determinar comprende segmentar una o más regiones anatómicas, opcionalmente en donde los datos de salida (105) comprenden además datos superpuestos que indican un contorno de segmentación y/o máscaras de probabilidad que muestran una o más ubicaciones de una o más regiones segmentadas.
6. El método de la reivindicación 2, en donde la una o más pruebas médicas adicionales (105a) dependen de la categoría de densidad (105b) determinada en base a la una o más imágenes médicas.
7. El método de cualquier reivindicación anterior, en donde la etapa de analizar y determinar comprende identificar automáticamente una o más regiones anómalas en la imagen médica.
8. El método de cualquier reivindicación anterior en donde la etapa de analizar y determinar comprende identificar y distinguir entre una lesión maligna y/o una lesión benigna y/o una lesión típica, opcionalmente en donde los datos de salida (105) comprenden además datos superpuestos que indican una máscara de probabilidad para la una o más lesiones.
9. El método de cualquier reivindicación anterior, en donde la etapa de analizar y determinar comprende identificar la distorsión arquitectónica.
10. El método de cualquier reivindicación anterior, en donde las unas o más imágenes médicas y las unas o más imágenes médicas adicionales comprenden el uso de archivos de imágenes digitales y comunicaciones en medicina, DICOM.
11. Un sistema para analizar imágenes médicas sustancialmente en tiempo real, el sistema que comprende una unidad de procesamiento configurada para realizar el método de cualquiera de las reivindicaciones 1 a 10.
12. El sistema de la reivindicación 11 que comprende además:
un dispositivo de formación de imágenes médicas (101);
un sistema de comunicación de archivo de imágenes, PACS (102);
en donde la unidad de procesamiento (201) puede operarse para analizar una o más imágenes médicas en el PACS (102); y
un visor de salida (202) operable para visualizar datos de salida (105).
13. El sistema de la reivindicación 12 en donde la unidad de procesamiento (201) está integrada con el dispositivo de formación de imágenes médicas (101).
14. El sistema de la reivindicación 12, en donde la unidad de procesamiento (201) está ubicada de forma remota y es accesible a través de un canal de comunicaciones.
15. Un producto de programa informático que comprende instrucciones que, cuando se ejecutan por la unidad de procesamiento de acuerdo con la reivindicación 11, hacen que la unidad de procesamiento realice el método de acuerdo con las reivindicaciones 1 a 10.
ES19744777T 2018-06-14 2019-06-14 Estudio inmediato Active ES2914387T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
GB1809796.4A GB2574659A (en) 2018-06-14 2018-06-14 Immediate workup
GB1819329.2A GB2579244A (en) 2018-11-27 2018-11-27 Second reader
GB201900212 2019-01-07
PCT/GB2019/051666 WO2019239153A1 (en) 2018-06-14 2019-06-14 Immediate workup

Publications (1)

Publication Number Publication Date
ES2914387T3 true ES2914387T3 (es) 2022-06-10

Family

ID=67439247

Family Applications (3)

Application Number Title Priority Date Filing Date
ES19744779T Active ES2914873T3 (es) 2018-06-14 2019-06-14 Sugerencia de segunda lectura
ES19744778T Active ES2914415T3 (es) 2018-06-14 2019-06-14 Segundo lector
ES19744777T Active ES2914387T3 (es) 2018-06-14 2019-06-14 Estudio inmediato

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES19744779T Active ES2914873T3 (es) 2018-06-14 2019-06-14 Sugerencia de segunda lectura
ES19744778T Active ES2914415T3 (es) 2018-06-14 2019-06-14 Segundo lector

Country Status (10)

Country Link
US (3) US11455723B2 (es)
EP (3) EP3806746B1 (es)
JP (3) JP2021527473A (es)
AU (3) AU2019285394A1 (es)
CA (3) CA3102173A1 (es)
DK (3) DK3806745T3 (es)
ES (3) ES2914873T3 (es)
HU (2) HUE058907T2 (es)
SI (3) SI3806745T1 (es)
WO (3) WO2019239155A1 (es)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
DK3806745T3 (da) 2018-06-14 2022-05-23 Kheiron Medical Tech Ltd Anden læser
WO2020048620A1 (en) * 2018-09-07 2020-03-12 Toyota Motor Europe Method and system for processing an image by determining rotation hypotheses
CN110459319B (zh) * 2019-05-16 2021-05-25 腾讯科技(深圳)有限公司 基于人工智能的乳腺钼靶图像的辅助诊断系统
US20200395123A1 (en) * 2019-06-16 2020-12-17 International Business Machines Corporation Systems and methods for predicting likelihood of malignancy in a target tissue
CN112446476B (zh) * 2019-09-04 2025-04-15 华为技术有限公司 神经网络模型压缩的方法、装置、存储介质和芯片
EP4546261A3 (en) 2019-12-20 2025-07-16 Genentech, Inc. Automated tumor identification and segmentation with medical images
JP7415787B2 (ja) * 2020-05-15 2024-01-17 コニカミノルタ株式会社 医用画像システム
JP2022041978A (ja) * 2020-09-01 2022-03-11 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置及び医用データ処理装置
WO2022112731A1 (en) * 2020-11-26 2022-06-02 Kheiron Medical Technologies Ltd Decision for double reader
EP4033497A1 (en) 2021-01-25 2022-07-27 Aigea Medical S.r.l. Training procedure and system for artificial intelligence intended for the analysis of mammographic data for the identification or exclusion of the presence of breast cancer
WO2023283443A1 (en) * 2021-07-09 2023-01-12 Whiterabbit.Ai Inc. Methods and systems for expedited radiological screening
JP2023047909A (ja) * 2021-09-27 2023-04-06 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
JP7785494B2 (ja) * 2021-09-30 2025-12-15 富士フイルム株式会社 学習装置、画像生成装置、学習方法、画像生成方法、学習プログラム、及び画像生成プログラム
US20230118546A1 (en) * 2021-10-19 2023-04-20 PaxeraHealth Corp High-definition labeling system for medical imaging AI algorithms
US12316946B2 (en) * 2021-11-19 2025-05-27 Motorola Solutions, Inc. Method, system and computer program product for divided processing in providing object detection focus
US20230281987A1 (en) * 2022-03-03 2023-09-07 Blue River Technology Inc. Compensating for occlusions in a detection system of a farming machine
US12121382B2 (en) * 2022-03-09 2024-10-22 GE Precision Healthcare LLC X-ray tomosynthesis system providing neural-net guided resolution enhancement and thinner slice generation
JP7674295B2 (ja) * 2022-03-22 2025-05-09 株式会社日立製作所 モデル生成システム及びモデル生成方法
KR102694439B1 (ko) * 2022-03-24 2024-08-13 인하대학교 산학협력단 고화질 유방 촬영 영상을 이용한 유방암 검출 방법
US12322507B2 (en) 2022-04-27 2025-06-03 MX Healthcare GmbH System and method for identifying breast cancer
US12450793B2 (en) * 2022-09-20 2025-10-21 United Imaging Intelligence (Beijing) Co., Ltd. Systems and methods for processing breast slice images through an artificial neural network to predict abnormalities in breasts
WO2024123311A1 (en) * 2022-12-06 2024-06-13 Google Llc Mammography device outputs for broad system compatibility
WO2025013213A1 (ja) * 2023-07-11 2025-01-16 日本電気株式会社 情報処理装置、情報処理方法、記憶媒体

Family Cites Families (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251038A (ja) * 1993-03-01 1994-09-09 Toshiba Corp 医用診断支援システム
US6075879A (en) 1993-09-29 2000-06-13 R2 Technology, Inc. Method and system for computer-aided lesion detection using information from multiple images
WO1996002897A2 (en) 1994-07-14 1996-02-01 Philips Electronics N.V. Mass detection in digital x-ray images using multiple threshold levels to discriminate spots
CA2232164A1 (en) 1995-09-19 1997-03-27 Morphometrix Technologies Inc. A neural network assisted multi-spectral segmentation system
US6058322A (en) * 1997-07-25 2000-05-02 Arch Development Corporation Methods for improving the accuracy in differential diagnosis on radiologic examinations
US5999639A (en) * 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US6901156B2 (en) * 2000-02-04 2005-05-31 Arch Development Corporation Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images
US6574304B1 (en) * 2002-09-13 2003-06-03 Ge Medical Systems Global Technology Company, Llc Computer aided acquisition of medical images
US7593562B2 (en) 2002-09-24 2009-09-22 Carestream Health, Inc. Method and system for computer aided detection (CAD) cued reading of medical images
US7418119B2 (en) * 2002-10-31 2008-08-26 Siemens Computer Aided Diagnosis Ltd. Display for computer-aided evaluation of medical images and for establishing clinical recommendation therefrom
US7203350B2 (en) * 2002-10-31 2007-04-10 Siemens Computer Aided Diagnosis Ltd. Display for computer-aided diagnosis of mammograms
US7490085B2 (en) * 2002-12-18 2009-02-10 Ge Medical Systems Global Technology Company, Llc Computer-assisted data processing system and method incorporating automated learning
US20040228509A1 (en) 2003-05-15 2004-11-18 Beth Israel Deaconess Medical Center, Inc. Automatic spacial identification of tissue implanted linear sources using medical imaging
JP2007524461A (ja) * 2003-06-25 2007-08-30 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド 乳房撮像の自動診断及び決定支援システム及び方法
US7529394B2 (en) 2003-06-27 2009-05-05 Siemens Medical Solutions Usa, Inc. CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system
US20050113651A1 (en) 2003-11-26 2005-05-26 Confirma, Inc. Apparatus and method for surgical planning and treatment monitoring
DE102004051401A1 (de) 2004-10-21 2006-05-24 Siemens Ag Verfahren zur Befundung in der dreidimensionalen Bildgebung, insbesondere in der Mammographie
US7646902B2 (en) 2005-02-08 2010-01-12 Regents Of The University Of Michigan Computerized detection of breast cancer on digital tomosynthesis mammograms
JP2006325638A (ja) * 2005-05-23 2006-12-07 Konica Minolta Medical & Graphic Inc 異常陰影候補の検出方法及び医用画像処理システム
AU2006254689B2 (en) 2005-06-02 2012-03-08 Salient Imaging, Inc. System and method of computer-aided detection
US7809175B2 (en) 2005-07-01 2010-10-05 Hologic, Inc. Displaying and navigating computer-aided detection results on a review workstation
FR2897182A1 (fr) 2006-02-09 2007-08-10 Gen Electric Procede de traitement d'images de projection en tomosynthese pour une detection de signes radiologiques
GB0602739D0 (en) * 2006-02-10 2006-03-22 Ccbr As Breast tissue density measure
ITRM20060213A1 (it) * 2006-04-13 2007-10-14 Univ Palermo Metodo di elaborazione di immagini biomediche
US8238637B2 (en) 2006-10-25 2012-08-07 Siemens Computer Aided Diagnosis Ltd. Computer-aided diagnosis of malignancies of suspect regions and false positives in images
US7903861B2 (en) 2006-12-28 2011-03-08 Carestream Health, Inc. Method for classifying breast tissue density using computed image features
US8203338B2 (en) 2007-08-06 2012-06-19 Carestream Health, Inc. Linear structure verification in medical applications
JP5264136B2 (ja) 2007-09-27 2013-08-14 キヤノン株式会社 医用診断支援装置及びその制御方法、ならびにコンピュータプログラム及び記憶媒体
JP2009082182A (ja) * 2007-09-27 2009-04-23 Fujifilm Corp 検査作業支援装置及び方法、並びに検査作業支援システム
JP5100285B2 (ja) 2007-09-28 2012-12-19 キヤノン株式会社 医用診断支援装置およびその制御方法、プログラム、記憶媒体
US7942829B2 (en) * 2007-11-06 2011-05-17 Eigen, Inc. Biopsy planning and display apparatus
US20100135562A1 (en) 2008-11-28 2010-06-03 Siemens Computer Aided Diagnosis Ltd. Computer-aided detection with enhanced workflow
US20100158332A1 (en) 2008-12-22 2010-06-24 Dan Rico Method and system of automated detection of lesions in medical images
US8687860B2 (en) * 2009-11-24 2014-04-01 Penrad Technologies, Inc. Mammography statistical diagnostic profiler and prediction system
US8064677B2 (en) 2009-11-25 2011-11-22 Fujifilm Corporation Systems and methods for measurement of objects of interest in medical images
US8582858B2 (en) 2009-12-17 2013-11-12 The Regents Of The University Of California Method and apparatus for quantitative analysis of breast density morphology based on MRI
US20120099771A1 (en) * 2010-10-20 2012-04-26 Lao Zhiqiang Computer aided detection of architectural distortion in mammography
JP5875285B2 (ja) 2011-08-16 2016-03-02 キヤノン株式会社 医療診断支援装置、情報処理方法及びプログラム
US20130218045A1 (en) 2011-08-22 2013-08-22 Joel Ironstone Method and System for Disease Risk Management
JP5945803B2 (ja) * 2012-03-07 2016-07-05 東芝メディカルシステムズ株式会社 医用画像読影システム
US8891841B2 (en) 2012-06-04 2014-11-18 Verizon Patent And Licensing Inc. Mobile dermatology collection and analysis system
TWI483711B (zh) 2012-07-10 2015-05-11 Univ Nat Taiwan Tumor detection system and method of breast ultrasound image
US9047664B2 (en) 2013-05-31 2015-06-02 Kathryn Pearson Peyton Apparatus and method for utilizing mammogram images for verification
WO2015031641A1 (en) 2013-08-29 2015-03-05 Mayo Foundation For Medical Education And Research System and method for boundary classification and automatic polyp detection
EP3072082A4 (en) 2013-11-19 2017-09-13 Vucomp, Inc. Obtaining breast density measurements and classifications
DE102014208411A1 (de) * 2014-05-06 2015-11-12 Siemens Aktiengesellschaft Auswertung eines während einer Mammographie erzeugten Röntgenbildes einer Brust
WO2016057960A1 (en) 2014-10-10 2016-04-14 Radish Medical Solutions, Inc. Apparatus, system and method for cloud based diagnostics and image archiving and retrieval
US9550912B2 (en) 2014-12-19 2017-01-24 Hexion Inc Curing agent for epoxy coatings
US9519966B2 (en) 2015-04-22 2016-12-13 King Fahd University Of Petroleum And Minerals Method, system and computer program product for breast density classification using parts-based local features
US9922433B2 (en) 2015-05-29 2018-03-20 Moira F. Schieke Method and system for identifying biomarkers using a probability map
US10275877B2 (en) 2015-06-12 2019-04-30 International Business Machines Corporation Methods and systems for automatically determining diagnosis discrepancies for clinical images
EP3391284B1 (en) * 2015-12-18 2024-04-17 The Regents of The University of California Interpretation and quantification of emergency features on head computed tomography
US10339650B2 (en) 2016-01-07 2019-07-02 Koios Medical, Inc. Method and means of CAD system personalization to reduce intraoperator and interoperator variation
CN106096491B (zh) 2016-02-04 2022-04-12 上海市第一人民医院 一种眼底彩色照相图像中微动脉瘤自动化识别方法
CN105931226A (zh) 2016-04-14 2016-09-07 南京信息工程大学 基于深度学习的自适应椭圆拟合细胞自动检测分割方法
CN106204587B (zh) 2016-05-27 2019-01-08 浙江德尚韵兴图像科技有限公司 基于深度卷积神经网络和区域竞争模型的多器官分割方法
WO2017210690A1 (en) 2016-06-03 2017-12-07 Lu Le Spatial aggregation of holistically-nested convolutional neural networks for automated organ localization and segmentation in 3d medical scans
US9589374B1 (en) 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
JP7021215B2 (ja) * 2016-08-11 2022-02-16 コイオス メディカル,インコーポレイテッド Cadシステム推薦に関する確信レベル指標を提供するためのcadシステムパーソナライゼーションの方法及び手段
US10417788B2 (en) 2016-09-21 2019-09-17 Realize, Inc. Anomaly detection in volumetric medical images using sequential convolutional and recurrent neural networks
JP2018061771A (ja) * 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法
US20180129900A1 (en) 2016-11-04 2018-05-10 Siemens Healthcare Gmbh Anonymous and Secure Classification Using a Deep Learning Network
US11449985B2 (en) 2016-12-02 2022-09-20 Regents Of The University Of Minnesota Computer vision for cancerous tissue recognition
EP3573520A4 (en) 2017-01-27 2020-11-04 Arterys Inc. AUTOMATED SEGMENTATION USING FULLY CONVOLUTIVE NETWORKS
GB201705876D0 (en) 2017-04-11 2017-05-24 Kheiron Medical Tech Ltd Recist
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
US10223610B1 (en) 2017-10-15 2019-03-05 International Business Machines Corporation System and method for detection and classification of findings in images
US10916341B2 (en) * 2017-12-15 2021-02-09 International Business Machines Corporation Automated report generation based on cognitive classification of medical images
WO2019210292A1 (en) * 2018-04-27 2019-10-31 Delphinus Medical Technologies, Inc. System and method for feature extraction and classification on ultrasound tomography images
EP3791325A4 (en) * 2018-05-07 2022-04-13 Zebra Medical Vision Ltd. SYSTEMS AND METHODS FOR DETECTING AN INDICATION OF A TYPE OF VISUAL SEARCH IN AN ANATOMICAL IMAGE
US10706545B2 (en) * 2018-05-07 2020-07-07 Zebra Medical Vision Ltd. Systems and methods for analysis of anatomical images
DK3806745T3 (da) 2018-06-14 2022-05-23 Kheiron Medical Tech Ltd Anden læser
GB2579244A (en) 2018-11-27 2020-06-17 Kheiron Medical Tech Ltd Second reader

Also Published As

Publication number Publication date
EP3806746A1 (en) 2021-04-21
US11488306B2 (en) 2022-11-01
US20210312618A1 (en) 2021-10-07
AU2019285392A1 (en) 2021-01-07
WO2019239153A1 (en) 2019-12-19
EP3806744B1 (en) 2022-02-16
SI3806745T1 (sl) 2022-07-29
AU2019285393B2 (en) 2022-12-08
ES2914415T3 (es) 2022-06-10
HUE058687T2 (hu) 2022-09-28
DK3806745T3 (da) 2022-05-23
US11455723B2 (en) 2022-09-27
AU2019285393A9 (en) 2023-02-02
DK3806746T3 (da) 2022-05-23
WO2019239155A1 (en) 2019-12-19
JP2021527478A (ja) 2021-10-14
CA3102174A1 (en) 2019-12-19
EP3806746B1 (en) 2022-03-02
JP2021527473A (ja) 2021-10-14
DK3806744T3 (da) 2022-05-23
CA3102174C (en) 2022-07-19
ES2914873T3 (es) 2022-06-17
JP2021527472A (ja) 2021-10-14
EP3806745B1 (en) 2022-02-16
CA3102173A1 (en) 2019-12-19
SI3806744T1 (sl) 2022-07-29
AU2019285394A1 (en) 2021-01-07
CA3102170A1 (en) 2019-12-19
SI3806746T1 (sl) 2022-07-29
WO2019239154A1 (en) 2019-12-19
US20210313043A1 (en) 2021-10-07
AU2019285393A1 (en) 2021-01-07
US20210248744A1 (en) 2021-08-12
EP3806745A1 (en) 2021-04-21
HUE058907T2 (hu) 2022-09-28
US11410307B2 (en) 2022-08-09
EP3806744A1 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
ES2914387T3 (es) Estudio inmediato
US11127137B2 (en) Malignancy assessment for tumors
US7058210B2 (en) Method and system for lung disease detection
CN109583440B (zh) 结合影像识别与报告编辑的医学影像辅助诊断方法及系统
US10593035B2 (en) Image-based automated measurement model to predict pelvic organ prolapse
WO2021030629A1 (en) Three dimensional object segmentation of medical images localized with object detection
KR20200080626A (ko) 병변 진단에 대한 정보 제공 방법 및 이를 이용한 병변 진단에 대한 정보 제공용 디바이스
US7873196B2 (en) Medical imaging visibility index system and method for cancer lesions
CN110728239B (zh) 一种利用深度学习的胃癌增强ct图像自动识别系统
US20220076421A1 (en) Method for identifying bone images
Lin et al. Using deep learning in ultrasound imaging of bicipital peritendinous effusion to grade inflammation severity
CN112638262A (zh) 相似度确定装置、方法及程序
Wang et al. Bone marrow sparing oriented multi-model image registration in cervical cancer radiotherapy
Xu et al. Clinical-inspired framework for automatic kidney stone recognition and analysis on transverse CT images
CN113450306A (zh) 提供骨折检测工具的方法
Giv et al. Lung segmentation using active shape model to detect the disease from chest radiography
GB2574659A (en) Immediate workup
CN111127636B (zh) 一种智能的复杂关节内骨折桌面级三维诊断系统
WO2022112731A1 (en) Decision for double reader
Das et al. Combining image texture and morphological features in low-resource perception models for signal detection tasks
Jantana et al. Maxillofacial fracture detection and classification in computed tomography images using convolutional neural network‑based models
Stoel Jingnan Jia1, Irene Hernández-Girón1, Anne A. Schouffoer2, Jeska K. de Vries-Bouwstra2, Maarten K. Ninaber3, Julie C. Korving4, Marius Staring1, Lucia JM Kroft4 &
KR20240081186A (ko) 멀티모달 딥러닝 기반 비소세포폐암 환자의 생존율 예측 시스템 및 이에 대한 방법