[go: up one dir, main page]

ES2841508T3 - Método y aparato para determinar los datos volumétricos de una característica anatómica predeterminada - Google Patents

Método y aparato para determinar los datos volumétricos de una característica anatómica predeterminada Download PDF

Info

Publication number
ES2841508T3
ES2841508T3 ES16762852T ES16762852T ES2841508T3 ES 2841508 T3 ES2841508 T3 ES 2841508T3 ES 16762852 T ES16762852 T ES 16762852T ES 16762852 T ES16762852 T ES 16762852T ES 2841508 T3 ES2841508 T3 ES 2841508T3
Authority
ES
Spain
Prior art keywords
anatomical body
body part
volume
camera apparatus
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16762852T
Other languages
English (en)
Inventor
Shamus Husheer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heartfelt Tech Ltd
Original Assignee
Heartfelt Tech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heartfelt Tech Ltd filed Critical Heartfelt Tech Ltd
Application granted granted Critical
Publication of ES2841508T3 publication Critical patent/ES2841508T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1073Measuring volume, e.g. of limbs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4869Determining body composition
    • A61B5/4875Hydration status, fluid retention of the body
    • A61B5/4878Evaluating oedema
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)

Abstract

Un método implementado por ordenador para monitorizar edemas determinando un volumen de una parte corporal anatómica predeterminada, el método comprendiendo: monitorizar un campo de visión de un aparato de cámara de detección de profundidad (102, 104); obtener datos tridimensionales de una o más partes del cuerpo anatómicas presentes en el campo de visión del aparato de cámara de detección de profundidad; determinar un volumen de una o más partes del cuerpo anatómicas presentes en el campo de visión de un aparato de cámara de detección de profundidad en base a los datos tridimensionales, en donde determinar el volumen comprende procesar los datos tridimensionales dependiendo de la representación tridimensional de la parte del cuerpo anatómica predeterminada; identificar que una parte del cuerpo anatómica predeterminada está presente en el campo de visión del aparato de cámara de detección de profundidad; asociar el volumen de una de la una o más partes del cuerpo anatómicas con la parte del cuerpo anatómica predeterminada; y generar el volumen de la parte del cuerpo anatómica predeterminada.

Description

DESCRIPCIÓN
Método y aparato para determinar los datos volumétricos de una característica anatómica predeterminada
La invención se refiere a un método y un aparato para determinar los datos volumétricos de una característica anatómica predeterminada. Se presenta un método y aparato no invasivos para monitorizar el volumen de partes del cuerpo, o parte de las mismas, de un animal o humano, mediante la aplicación de técnicas de visión artificial para crear y comparar modelos tridimensionales (3D) de las partes del cuerpo con el tiempo. La invención tiene aplicabilidad en las áreas de la salud humana y animal, particularmente en la monitorización de edema periférico asociado con una variedad de patologías que incluyen insuficiencia cardíaca.
Antecedentes
La retención de agua resultante de la insuficiencia cardíaca crónica puede detectarse mediante una serie de métodos, más comúnmente mediante la medición del aumento de peso o el aumento del volumen de la extremidad.
El estudio WHARF de Goldberg et al. (Am Heart J. Volumen 146(4), páginas 705 a 712, 2003) demostró que los pacientes cumplidores que monitorizan su peso de forma regular podrían reducir la mortalidad por insuficiencia cardíaca crónica en un 50%. Desafortunadamente, tales beneficios no se observan comúnmente en poblaciones normales de pacientes debido al incumplimiento de un régimen diario de monitorización de peso, incluso cuando se usan básculas de pesaje conectadas a Internet para eliminar cualquier necesidad de que los pacientes registren o informen la información recopilada.
Brijker et al. (Clinical Physiology, volumen 20, número 1, páginas 56 a 61, enero de 2000) demostró que el volumen de la extremidad es una medida mucho más sensible para los propósitos de la monitorización de la insuficiencia cardíaca que el aumento de peso. La medición del peso tiene una serie de fluctuaciones conocidas, como el nivel de hidratación y como de recientemente se ha evacuado el intestino, que pueden interferir con la señal deseada indicativa de retención excesiva de agua. El estudio de Brijker et al. demostraron que los pacientes mostraron un cambio de aproximadamente un 5,9% en el peso entre el ingreso hospitalario y el alta, en comparación con un cambio del 13,1% en el volumen de la pierna y un cambio del 7,1% en la circunferencia de la pierna. Además, el coeficiente de variación entre la medición del peso y el volumen de la pierna fue de solo r = 0.37, lo que sugiere que los dos métodos son algo independientes, por lo tanto la monitorización del volumen de la pierna puede añadir significancia a la evaluación del edema en comparación con la medición solo del peso.
Desafortunadamente, el patrón clínico para la medición del volumen de la extremidad es una técnica de desplazamiento de agua que sufre una variación significativa entre operadores y es engorrosa y propensa a errores al administrar. Esencialmente, la extremidad de interés se sumerge en un recipiente con agua a varias profundidades, y el agua desplazada del recipiente se captura y registra.
Como los pacientes son capaces de sobrevivir durante muchos años después de la aparición de la insuficiencia cardíaca crónica, el problema de encontrar una solución a la monitorización rutinaria de los cambios en el volumen de las extremidades para el paciente que cumple de forma esporádica en un entorno doméstico es un área de actividad.
Por lo tanto, se han ideado una multitud de dispositivos para medir cambios en el volumen de las extremidades, típicamente en forma de varios calcetines "inteligentes" o similares, como se describe en la US8827930B2. El problema fundamental con tales enfoques es que el incumplimiento por parte del paciente es un factor importante en la monitorización eficaz a largo plazo.
Un enfoque alternativo y no invasivo consiste en aplicar conceptos de "visión artificial", en los que la extremidad en cuestión se mide usando un sistema de obtención de imágenes 3D. Hayn et al. aplicó el sistema de cámara de medición de profundidad Kinect de Microsoft a la medición del volumen de la pierna para la detección del edema (AT513091B1). El enfoque adoptado por Hayn et al. era identificar un conjunto específico de puntos, líneas, curvas o planos de referencia que se había demostrado que se correlacionaban con el volumen de la extremidad. Desafortunadamente, este enfoque proporcionó solo una modesta correlación con el peso, y también requiere que el paciente esté orientado de una manera particular con respecto al sistema de obtención de imágenes para capturar los puntos/líneas/curvas/planos de referencia. Esto es claramente susceptible a los mismos problemas de cumplimiento señalados anteriormente.
Se han adoptado otros enfoques para la obtención de imágenes en 3D de las extremidades, típicamente en el entorno hospitalario, lo que implica el uso de un sistema de obtención de imágenes en 3D para la medición rutinaria del volumen de las extremidades. Desafortunadamente, tales sistemas requieren típicamente que se gire al paciente con respecto al sistema de obtención de imágenes, y que las extremidades que no son de interés estén cubiertos para no interferir con la observación de la extremidad de interés. Claramente, esto no es práctico para uso doméstico.
Un enfoque alternativo se describe en la EP0760622A1, que describe un escáner 3D particularmente económico, en el que una parte del cuerpo a digitalizar está provista de una cubierta elástica que lleva marcas para ser evaluadas por fotogrametría. Las imágenes superpuestas se toman usando una o más cámaras colocadas de forma aproximada, y se genera un modelo 3D de la parte del cuerpo a partir de la combinación de estas imágenes bidimensionales (2D). Desafortunadamente, tal sistema no es práctico para el uso doméstico por parte del paciente que cumple esporádicamente, ya que no se puede esperar que use ropa especial con diligencia.
Los sistemas basados en medias han sido objeto de importantes investigaciones académicas, por ejemplo, Hirai et al. en "Improvement of a three-dimensional measurement system for the evaluation of foot edema" (Skin Research and Technology, volumen 18, número 1, páginas 120 a 124) y Pratsch et al. en "Perceived swelling, clinical swelling and manifest lymphoedema - difficulties with the quantifying of leg swellings" (Phlebologie, volumen 41, páginas 5 a 11, 2012). Sin embargo, el problema con la usabilidad sigue siendo importante.
Otros métodos y dispositivos relacionados con el análisis de imágenes se describen en la US8908928B1, la US2011295112A1 y la US2015216477A1.
La publicación "Improvement of a three-dimensional measurement system for the evaluation of foot edema", M. Hirai et al., Skin Research and Technology 2012; 18:120-124 se refiere a un sistema de medición del volumen del pie usando proyección de luz estructurada.
Por consiguiente, un objetivo de la presente invención es proporcionar un método y un aparato oportunistas no invasivos para monitorizar el edema periférico asociado con una variedad de patologías que incluyen insuficiencia cardíaca en animales o humanos, y notificar los resultados del mismo.
Breve descripción de los dibujos
La presente divulgación puede entenderse con referencia a la descripción de las realizaciones expuestas a continuación, junto con los dibujos adjuntos en los que:
La Figura 1 ilustra un aparato de acuerdo con una realización de la invención;
La Figura 2 ilustra datos de imágenes en 3D de un pie cuando se observa mediante un aparato de cámara de detección de profundidad;
La Figura 3 ilustra un ejemplo de un modelo 3D de referencia de un pie;
La Figura 4 ilustra un modelo 3D después de que se haya realizado el ajuste de un parámetro para un ángulo de pierna a pie;
La Figura 5 ilustra el modelo 3D después del ajuste de un segundo parámetro para el volumen cónico de la parte inferior de la pierna.
La Figura 6 ilustra el modelo resultante que se asemeja más a los datos 3D observados;
La Figura 7 ilustra una imagen de un pie capturada por un aparato de obtención de imágenes en 3D;
La Figura 8 ilustra la imagen del pie rotada alrededor de un eje, mostrando que no se ha formado la imagen del otro lado del pie;
La Figura 9 ilustra un modelo 3D que se va a ajustar a los datos de imagen 3D ilustrados en la Figura 7;
La Figura 10 ilustra el modelo 3D después de que se ha ajustado a los datos de imagen 3D capturados; y la Figura 11 ilustra un método según una realización de la invención.
Descripción
De acuerdo con un primer aspecto de la invención, se proporciona un método de acuerdo con la reivindicación 1.
El paso de identificar una característica anatómica predeterminada como se presenta en un campo de visión del aparato de cámara de detección de profundidad puede realizarse antes del paso de determinar los datos volumétricos de una o más características anatómicas presentes en el campo de visión del aparato de cámara de detección de profundidad.
Tras la identificación de la característica anatómica predeterminada que está presente en el campo de visión del aparato de cámara de profundidad, el método puede comprender obtener datos tridimensionales de la característica anatómica predeterminada y determinar los datos volumétricos de la característica anatómica predeterminada en base a los datos tridimensionales.
El método puede comprender adquirir una imagen bidimensional del aparato de cámara de detección de profundidad e identificar la característica anatómica predeterminada como presente en un campo de visión del aparato de cámara de detección de profundidad de acuerdo con la imagen bidimensional.
El paso de identificar una característica anatómica predeterminada como presente en un campo de visión del aparato de cámara de detección de profundidad puede realizarse después del paso de determinar los datos volumétricos de una o más características anatómicas presentes en el campo de visión del aparato de cámara de detección de profundidad.
Los datos volumétricos de una de las una o más características pueden asociarse con la característica anatómica predeterminada identificada comparando los datos volumétricos de cada una de las una o más características anatómicas con una representación tridimensional de una característica anatómica predeterminada, e identificando una de la una o más características anatómicas como la característica anatómica predeterminada.
La representación tridimensional de la característica anatómica predeterminada puede ser un modelo tridimensional deformable, y en donde el método puede comprender deformar paramétricamente el modelo tridimensional para ajustar los datos tridimensionales de la característica anatómica predeterminada.
El modelo tridimensional puede deformarse por uno o más de rotación, alterando un ángulo articular y cambio volumétrico.
La representación tridimensional de la característica anatómica predeterminada puede ser un modelo tridimensional deformable, y en donde el método puede comprender deformar los datos tridimensionales de la característica anatómica predeterminada para que se ajusten al modelo tridimensional.
Los datos tridimensionales pueden comprender múltiples conjuntos de datos de características anatómicas en diferentes orientaciones.
Los datos pueden recibirse periódica o continuamente desde el aparato de cámara de detección de profundidad. Los datos tridimensionales pueden comprender datos de imágenes tridimensionales.
Los datos tridimensionales pueden representar por lo menos una representación parcial de la característica anatómica predeterminada.
La característica anatómica predeterminada puede ser una extremidad y puede ser un pie.
El aparato de cámara de detección de profundidad puede comprender por lo menos un emisor y una matriz de detectores, o por lo menos dos matrices de detectores.
El método puede comprender registrar el momento en el que se capturan los datos tridimensionales, y en donde los datos volumétricos pueden generarse en función del tiempo registrado.
De acuerdo con un segundo aspecto de la invención, se proporciona un sistema que comprende: un aparato de cámara de detección de profundidad; y un procesador acoplado al aparato de cámara de detección de profundidad; en donde el procesador está configurado para realizar cualquiera de los métodos descritos anteriormente. El aparato de cámara de detección de profundidad puede comprender por lo menos un emisor y una matriz de detectores, o por lo menos dos matrices de detectores.
De acuerdo con un tercer aspecto de la invención, se proporciona un medio legible por ordenador que tiene instrucciones almacenadas en el mismo que, cuando se ejecutan en un procesador, hacen que el procesador realice cualquiera de los métodos descritos anteriormente.
La Figura 1 ilustra un aparato 100 de acuerdo con una realización de la invención. El aparato 100 o sistema incluye un aparato de cámara de detección de profundidad. El aparato de cámara en esta realización incluye dos cámaras 102, 104 sensibles a la luz visible e infrarroja. Cada cámara 102, 104 también incluye un emisor de infrarrojos (IR) controlado. Por consiguiente, el aparato 100 puede observar continuamente un volumen de obtención de imágenes o un campo de visión sin molestar al paciente. En la realización preferida, las cámaras de detección de profundidad son sensibles tanto a IR como a la luz visible, de tal manera que controlar el emisor de IR permite que el sistema de obtención de imágenes capture por lo menos imágenes IR y datos 3D. Si la iluminación visible es suficiente, la cámara también puede usarse para capturar información de color visible. Esta disposición tiene la ventaja de no molestar al paciente, a la vez que captura información de color cuando sea posible. La información del color puede ser un complemento útil de la información del volumen de la extremidad cuando un profesional médico está evaluando un posible edema.
Se apreciará que el aparato de cámara puede incluir por lo menos una cámara sensible a infrarrojos, y por lo menos un proyector de luz controlada (por ejemplo, emisor de infrarrojos o láser), o por lo menos dos cámaras convencionales separadas (es decir, cámaras que contienen una única matriz de obtención de imágenes 2D).
El aparato 100 incluye además un dispositivo de procesamiento 106 que recibe datos de imágenes, en este ejemplo datos de imagen en 2D, de la cámara 102. El dispositivo de procesamiento 106 está configurado para identificar si una extremidad de interés (por ejemplo, el pie 200) está presente dentro del entorno 3D del que se han tomado imágenes por la cámara 102, por ejemplo. El dispositivo de procesamiento 106 incluye software o hardware de análisis de imágenes 2D, que es capaz de identificar una extremidad predeterminada a partir de una imagen 2D. El software o hardware de análisis utiliza algoritmos similares a los usados para el reconocimiento facial. Por ejemplo, los elementos de la extremidad se identifican extrayendo puntos de referencia, o características, de una imagen adquirida anteriormente de la extremidad del paciente. Por consiguiente, se usa un algoritmo para analizar la posición relativa, el tamaño y/o la forma de elementos de la extremidad (por ejemplo, dedos, tobillo y talón de un pie 200), y estos elementos se usan para buscar una imagen 2D. El marcado por radio de la extremidad de interés también puede usarse para identificar más fácilmente si la extremidad de interés está en el campo de visión o en el entorno de obtención de imágenes de la cámara 102. El dispositivo de procesamiento 106 está configurado para activar la adquisición de datos de imágenes 3D desde el cámaras 102, 104, cuando se identifica la extremidad del paciente como presente en el campo de visión de la cámara 102. Los datos de imagen 3D se adquieren mediante un dispositivo de procesamiento 108.
El dispositivo de procesamiento 108 adquiere los datos de imágenes del aparato de cámara de detección de profundidad 102, 104 y está configurado para extraer información volumétrica sobre la extremidad del paciente. Los datos volumétricos se pasan o transfieren posteriormente a un dispositivo 110, para informar. El dispositivo 110 es un dispositivo informático personal e incluye una interfaz de usuario (por ejemplo, pantalla/monitor y un dispositivo de entrada) para permitir a un usuario visualizar los datos volumétricos. El dispositivo 110 en este ejemplo está localizado en la misma localización que el aparato de cámara de detección de profundidad y está configurado para comunicarse a través de Internet, incluyendo una red GSM, o una intranet, por ejemplo, con un sistema informático 112 localizado remotamente o sistema de computación en la nube. El dispositivo de procesamiento 108 también puede comunicarse directamente con el sistema informático localizado remotamente 112, de tal manera que no se requiere el sistema informático 110. El sistema informático localizado remotamente 112 puede ser accesible por un médico u otro asistente.
En este ejemplo, cada uno de los dispositivos de procesamiento 106, 108 incluye un procesador capaz de iniciar y ejecutar programas de software (por ejemplo, aplicaciones) almacenados en una memoria (por ejemplo, RAM y/o ROM) y una interfaz de entrada/salida configurada para comunicar entre sí, el sistema de cámara de detección de profundidad 102, 104 y el dispositivo informático 110 y/o el sistema informático 112. Se apreciará que los dos dispositivos de procesamiento 106, 108 podrían proporcionarse como un único dispositivo, y pueden incluir uno o más aplicaciones o programas de software, o pueden incluir uno o más circuitos integrados específicos de la aplicación. A este respecto, los dispositivos de procesamiento 106, 108, pueden empaquetarse junto con el sistema de cámara de detección de profundidad 102, 104 en una sola unidad comercial, que está configurada para comunicarse con el dispositivo informático 110 o el sistema informático localizado remotamente 112. Tal unidad comercial única también puede incluir una interfaz de usuario (por ejemplo, una pantalla sensible al tacto/superposición sensible al tacto en una pantalla). Cada uno de los dispositivos de sistema de cámara de detección de profundidad y procesamiento 106, 108, 110 también puede incluir un sistema de comunicación inalámbrico de corto alcance y puede incluir un mecanismo de comunicación compatible con el protocolo de bus inalámbrico, como un módulo de comunicación Bluetooth® para proporcionar comunicación con sistemas y dispositivos habilitados de manera similar o estándares de radio IEEE 802.1 1, que es conocido más comúnmente como WiFi.
El método que realiza el aparato 100 ilustrado en la Figura 1 se describe ahora asociado con las Figuras 2 a 10.
El aparato de cámara de detección de profundidad 102, 104 está dispuesto dentro del entorno doméstico de un paciente, de tal manera que es probable que se observen imágenes oportunistas de los pies/piernas. Se ha descubierto que localizar el aparato de cámara de detección de profundidad 102, 104 cerca de la cama para escanear el área desde la cual es probable que el paciente se acueste y/o se levante de la cama, es particularmente ventajoso ya que hay pocas otras ocasiones en las que los pacientes tendrán típicamente expuestos los pies/piernas sin calzado, calcetines, etc. Además, se ha descubierto que una disposición horizontal de cámaras dentro de un cierre tipo barras es adecuada para su fijación a una pared a una distancia de aproximadamente 70 cm (es decir, una distancia en el intervalo de 50 cm a 100 cm) del suelo y a1 m de la cama, con una distancia entre cámaras de 100 mm en este ejemplo. Se contemplan otras disposiciones y posiciones de las cámaras. Por ejemplo, cerca de un punto de acceso a una ducha o bañera. Las disposiciones alternativas incluyen, por ejemplo, un semicírculo de cámaras alrededor de un volumen de obtención de imágenes. Aunque es preferible para la recogida de imágenes, una disposición semicircular de este tipo puede considerarse más molesta en el entorno del paciente.
El sistema de cámara con sensor de profundidad incluye opcionalmente la posibilidad de ajustar automáticamente varias condiciones de iluminación, sin afectar al paciente. Preferiblemente, esto se realiza mediante el uso de cámaras en color sin filtros de infrarrojos, de tal manera que en condiciones de poca luz puede usarse un LED de infrarrojos para proporcionar luz IR. El sistema de cámara de detección de profundidad está configurado para ajustar dinámicamente la potencia del LED de infrarrojos para proporcionar condiciones óptimas de iluminación para monitorizar la escena, como se sabe en la técnica.
El dispositivo de procesamiento 106 está configurado para recibir datos de imágenes de la cámara 102 y para monitorizar el entorno o campo de visión de la cámara 102 para el objeto de interés (es decir, el pie 200 de un paciente). Esto se logra continuamente, mediante captura y análisis de vídeo, o periódicamente, por ejemplo, una vez por segundo. Se prefiere el análisis de video (es decir, continuamente), ya que la captura de datos de imágenes en 3D puede activarse cuando el reconocimiento de características u objetos ha determinado que hay un pie presente en el campo de visión o entorno del aparato de cámara de detección de profundidad, y se ha determinado que el pie no se mueve demasiado rápido (por ejemplo, menos de 100 mm/s) a través del entorno visto por el aparato de cámara de detección de profundidad. Si el pie se mueve a más de 100 mm/s, puede introducirse desenfoque de movimiento en las imágenes 2D y los artefactos de profundidad pueden introducirse en los datos de la imagen 3D. La velocidad del pie puede determinarse midiendo la distancia que el pie se ha movido entre fotogramas de video, por ejemplo. Sin embargo, el reconocimiento de la velocidad del video puede afectar a las limitaciones en la cantidad de procesamiento que puede realizarse para el reconocimiento del pie. Por lo tanto, es preferible activar de manera oportunista la recopilación de datos de imágenes en 3D sobre la base de una estimación rápida de que un pie puede estar presente, y posteriormente descartar cualquier imagen de datos si se determina que el pie de interés no está de hecho presente. Una vez que se ha reconocido optimistamente un pie y, opcionalmente, se ha determinado que se mueve lo suficientemente lento como para recopilar datos robustos de imágenes en 3D, se activa una medición en 3D. También es preferible hacer coincidir un pie del que se han tomado imágenes frente a un conjunto de pies objetivo (es decir, múltiples coincidencias) para minimizar falsas activaciones por pies que no pertenecen al paciente.
La medición 3D incluye recopilar o adquirir en el dispositivo de procesamiento 108 imágenes de las cámaras 102, 104 del aparato de detección de profundidad 100, que se enfocan en el volumen de obtención de imágenes o campo de visión. En este ejemplo se usan dos cámaras pero desde diferentes localizaciones. La relación trigonométrica entre la escena observada o el entorno observado por cada cámara (o proyectado por cada proyector) permite calcular la distancia desde cada cámara o proyector. Esta relación permite calcular la resolución de profundidad máxima que es posible para un conjunto dado de cámaras y proyectores, que es una función de la separación entre las cámaras/proyectores (que en este ejemplo es de 100 mm), la separación entre las cámaras/proyectores y el objetivo que se está midiendo (que en este ejemplo es 1 m), y la resolución angular de cada píxel en las cámaras/proyectores, que es una función de la óptica de la cámara/proyector y del tamaño físico de cada píxel. El software usado para este tipo de análisis 3D se denomina comúnmente software de "reconstrucción 3D", "Estéreo de múltiples vistas" o "Estructura a partir del movimiento", que típicamente hace coincidir los píxeles entre las cámaras/proyectores para calcular la distancia 3D al objetivo, o construye una simulación en 3D del objetivo que mejor coincide con las observaciones realizadas (es decir, o resolviendo un problema de coincidencia u optimizando el problema inverso). Este análisis puede refinarse adicionalmente usando técnicas de "Estructura a partir del sombreado", donde el detalle de una superficie puede reconstruirse a partir de imágenes en 2D recopiladas dadas algunas suposiciones sobre la iluminación presente en la escena.
Los datos 3D o la medición comprenden múltiples imágenes, preferiblemente de alta resolución, tomadas en sucesión de la matriz de sensores de cada una de las cámaras 102, 104. Las imágenes de cada cámara se sincronizan típicamente en el tiempo, para evitar artefactos debido al movimiento dentro de la escena. Esto se hace para reducir la incertidumbre de profundidad debida a la incertidumbre de tiempo al activar una velocidad máxima de movimiento en la escena. Por ejemplo, si dos cámaras con una separación de 100 mm y una resolución angular de 0,02 grados por píxel están configuradas para monitorizar una escena a 1000 mm de distancia de las cámaras, la resolución de profundidad (z) será del orden de 5 mm para una incertidumbre de 1 píxel entre cámaras. La resolución (x, y) de cada píxel en cada cámara es, por tanto, del orden de 0,5 mm. Por consiguiente, una incertidumbre de 0,5 mm en la posición a través de la imagen debida al movimiento combinado con el error de sincronización de la cámara corresponderá a aproximadamente un error de 5 mm en la percepción de profundidad. Si se supone que un pie durante una caminata lenta, mientras está de pie en el suelo pero con un cambio de ángulo del pie a la pierna, se mueve a 100 mm/seg, entonces la fluctuación de tiempo debe mantenerse por debajo de 5 mseg (es decir, 0,5/100), y preferiblemente mucho menos que esto. Esto puede lograrse usando sistemas sincronizados electrónicamente.
Es preferible ayudar a los algoritmos de coincidencia estereoscópica posteriores, si el aparato de cámara de detección de profundidad no contiene un proyector de luz conocido, configurando por lo menos el aparato para controlar una fuente de luz de "proyección de textura", que proyecta un patrón de luz IR sobre la escena de modo que los objetos de color uniforme tengan por lo menos alguna textura proyectada sobre ellos. También es preferible, si la cámara es sensible a IR, tomar mediciones en varios niveles de iluminación IR, de tal manera que sea posible la extrapolación a iluminación IR cero para extraer información de color visible de la cámara de manera más fiable. Esta información de color visible puede ser útil para que los profesionales médicos evalúen visualmente un posible edema que identifica el sistema. La información de color también es útil para evaluar la curación de heridas, para lo cual la información de color y 3D es una combinación particularmente útil. Por lo tanto, el proceso de captura de imágenes en 3D incluye preferiblemente una serie de imágenes sincronizadas tomadas desde múltiples cámaras con varios niveles de iluminación IR y proyección de textura IR aplicada.
Una vez que el dispositivo de procesamiento 108 ha recopilado los datos de imágenes 3D, los datos se procesan mediante un algoritmo de estimación de calidad en el dispositivo de procesamiento 108 para determinar la probabilidad de datos de buena calidad resultantes de las etapas de procesamiento posteriores. Si se determina que es probable que los datos de las imágenes den lugar a un buen resultado, los datos de las imágenes se introducen en una cola en la memoria del dispositivo de procesamiento 108 para su procesamiento, con los datos que tienen el mejor resultado anticipado primero. Por ejemplo, se espera un buen resultado anticipado de un conjunto de imágenes donde el pie está localizado aproximadamente en el centro del volumen de imagen, se mueve lentamente, no está ocluido por otros objetos en la escena y la orientación del pie no es muy similar (es decir, es diferente) a otras muestras adquiridas recientemente. Esto es beneficioso ya que el solicitante ha descubierto que una vez que el sistema observa a un paciente una vez, es más probable que se observe al paciente varias veces en un período corto de tiempo (por ejemplo, si está caminando alrededor de una habitación). El sistema permite entonces priorizar los "mejores" datos, así como los datos de la mayor variedad de orientaciones observadas, si hay un espacio de almacenamiento limitado o tiempo de procesamiento disponible dentro del sistema, y en casos de limitaciones de recursos (por ejemplo, espacio de almacenamiento o tiempo) puede permitir que se eliminen los conjuntos de imágenes deficientes esperados antes del procesamiento completo. El uso de una cola asegura que la combinación de espacio de almacenamiento temporal y tiempo de procesamiento se use de manera óptima, y que generalmente la cola nunca se vacíe por completo (es decir, los datos de menor calidad previstos nunca se procesan realmente, se descartan por la llegada de nuevos datos de alta calidad que hacen que la cola se desborde). Este sistema de colas localizado en la memoria del dispositivo de procesamiento 108 puede expandirse a múltiples colas si, por ejemplo mientras se realiza la estimación de calidad completa, pueden adquirirse más datos de imagen. Por ejemplo, una primera cola podría basarse en la calidad de imagen 2D y el reconocimiento positivo del pie del paciente en lugar de los de otros ocupantes de una casa, y una segunda cola de priorización podría basarse en la incorporación de procesamiento 3D para ayudar a priorizar un amplio intervalo de orientaciones del pie al sistema de obtención de imágenes.
Los datos de imágenes se recuperan de la parte superior de la cola y el dispositivo de procesamiento 108 genera una nube de puntos (es decir, datos 3D) usando un algoritmo de reconstrucción 3D, como se conoce en la técnica. Los datos de imágenes en 3D para cada adquisición o exposición se derivan de por lo menos dos imágenes, ya sea de las dos cámaras separadas o de un proyector y por lo menos una cámara A. Un resumen de varios de tales algoritmos se proporciona por D. Scharstein y R. Szeliski A taxonomy and evaluation of dense two-frame stereo correspondence algorithms" (International Journal of Computer Vision, 47(1/2/3), páginas 7 a 42, abril-junio de 2002). El dispositivo de procesamiento 108 también realiza varias funciones de procesamiento de imágenes en los datos de imágenes, por ejemplo, rectificación, y también en los datos 3D de la nube de puntos, por ejemplo, eliminación de ruido. Los datos 3D de la nube de puntos pueden procesarse adicionalmente para eliminar los artefactos de fondo. La Figura 2 ilustra un ejemplo de los datos de imágenes 3D de un pie tal como es observado por el aparato de cámara de detección de profundidad 102, 104.
Los datos 3D de la nube de puntos se usan luego en asociación con un modelo 3D de un pie para ajustar el modelo 3D a los datos 3D de la nube de puntos. La extremidad de interés se identifica usando el mismo reconocimiento 2D usado para identificar el pie anteriormente, o se usa un método de reconocimiento 3D separado, como se conoce en la técnica. La Figura 3 ilustra un ejemplo de un modelo 3D de referencia de un pie. Esto se logra ajustando paramétricamente el modelo 3D hasta que se encuentre una buena coincidencia entre el modelo 3D y los datos 3D de la nube de puntos. Por ejemplo, puede usarse el método del punto más cercano iterativo bien conocido mediante el cual una selección aleatoria de puntos de los datos 3D de la nube de puntos se comparan con sus puntos más cercanos en el modelo 3D, a la vez que se ajustan los parámetros del modelo, para encontrar el mejor conjunto de parámetros del modelo (por ejemplo, orientación, ángulos articulares, distorsiones volumétricas, etc.). Esto se repite usando diferentes muestreos aleatorios para de tal manera que se minimice el impacto de los puntos atípicos, hasta que se encuentra una buena coincidencia entre el modelo 3D y los datos observados (es decir, esto se repite hasta que se encuentra una coincidencia con el error más bajo). Por ejemplo, el modelo de referencia 3D original puede estar orientado con el lado izquierdo del pie orientado hacia la cámara, un ángulo de pierna a pie de 90 grados y la parte inferior de la pierna representada por un cilindro que tiene una circunferencia de 30 cm y una altura desde el suelo de 25cm. El mejor ajuste del modelo 3D a los datos 3D de la nube de puntos, en este ejemplo, es con el pie orientado hacia el frental de la cámara, con un ángulo del pie a la pierna de 80 grados y una circunferencia de la parte inferior de la pierna de 33 cm. Si no se puede lograr una buena coincidencia, los datos de la imagen 3D se descartan y el proceso se inicia de nuevo usando el siguiente conjunto de datos de la imagen 3D de la cola. Será evidente que se usan por lo menos dos imágenes para generar la nube de puntos, y estas dos imágenes representan datos de imágenes tridimensionales, pero pueden usarse más de dos imágenes.
El modelo de referencia 3D puede modificarse para excluir regiones que sean particularmente variables o problemáticas de medir, de tal manera que se mejore la precisión de medición de las regiones modeladas. Por ejemplo, los dedos del pie consisten de una gran cantidad de articulaciones que pueden estar en un intervalo de orientaciones relativas, así como de una serie de regiones entre los dedos que son difíciles de medir de manera efectiva durante cualquier observación. Por lo tanto, un modelo 3D de referencia de un pie puede truncarse a cierta distancia de la parte posterior del pie, para excluir esta región de alto ruido de los cálculos del volumen del pie con propósitos de monitorización de edemas. Por ejemplo, los 5 cm delanteros del pie pueden cortarse del modelo 3D para eliminar los dedos del pie y las articulaciones complejas que rodean los dedos del pie, ya que ajustar tantos parámetros puede ser problemático y no relevante cuando se determinan los cambios en el volumen del pie.
La Figura 4 ilustra el modelo 3D después de realizar el ajuste de un parámetro para el ángulo de la pierna al pie. La Figura 5 ilustra el modelo 3D después del ajuste de un segundo parámetro para el volumen cónico de la parte inferior de la pierna. El modelo resultante se ilustra en la Figura 6, que se asemeja más a los datos 3D observados y permite realizar un cálculo de los datos de volumen 3D con respecto al modelo de referencia. Por ejemplo, el cambio de volumen debido al volumen cónico de la parte inferior de la pierna se determina sin ningún impacto del cambio en el ángulo de la pierna al pie, como se analiza a continuación.
El modelo 3D distorsionado es posteriormente modificado por el dispositivo de procesamiento 10 para revertir o desaplicar distorsiones no volumétricas que se realizaron al hacer coincidir el modelo 3D con los datos 3D de la nube de puntos. Por ejemplo, el ángulo de 80 grados del pie a la pierna se transforma o invierte a un ángulo de 90 grados dl pie a la pierna, pero se conserva la circunferencia de la parte inferior de la pierna del modelo 3D que se hico coincidir con los datos 3D de la nube de puntos. Por consiguiente, se mantienen los cambios relevantes para el volumen y el modelo 3D vuelve de otra manera a su estado de referencia.
El dispositivo de procesamiento 108 integra el modelo ajustado por volumen sobre una región específica, por ejemplo, en cada parte de 1 mm desde el suelo o la parte inferior del modelo 3D en la orientación ilustrada. De esta manera, el modelo distorsionable proporciona un mecanismo consistente para obtener datos de volumen como si el pie estuviera en una orientación de referencia, permitiendo incluso las orientaciones arbitrarias y ángulos articulares que se observan cuando se recopilan datos oportunistas. Por tanto, se obtienen datos volumétricos en forma de volumen de la extremidad o característica observada.
Las imágenes de fuente (imágenes 2D y 3D) pueden "enmascararse" para borrar los píxeles que no son relevantes para ajustarse al modelo de pie, por ejemplo, píxeles que pueden corresponder a otros objetos en el entorno del paciente. Esto se hace por la privacidad del paciente por si estas imágenes se trasmiten a cualquier trabajador sanitario.
Los parámetros del modelo de pie y el volumen calculado resultantes, así como las imágenes enmascaradas, se transmiten luego a un servicio en la nube donde pueden activarse alarmas para los trabajadores sanitarios si se observa una tendencia preocupante en el cambio de volumen. Luego, un trabajador sanitario puede inspeccionar las imágenes y/o modelos de pie relevantes para evaluar la gravedad y urgencia del caso y proceder con una ruta de atención. Como se ha descrito anteriormente, el dispositivo de procesamiento 108 puede enviar los datos resultantes a un dispositivo de computación local 110, que posteriormente transmite los datos a un dispositivo externo 112 como un servicio en la nube, usando una conexión a Internet o intranet.
El método y el aparato se han descrito para un ciclo de captura y análisis de imágenes. Sin embargo, se apreciará que el proceso de ajustar el modelo 3D a los datos de imágenes puede repetirse periódicamente para generar un perfil de datos de volumen frente al tiempo. Este perfil puede transmitirse a un médico o trabajador sanitario. El proceso puede realizarse periódicamente (por ejemplo, una vez al día, a la semana o al mes), o puede realizarse cada vez que se activa la captura de datos de imágenes en 3D. Por ejemplo, el dispositivo de procesamiento 108 puede incluir un programa pre-almacenado, que puede activar la captura de imágenes, o puede activar el procesamiento de imágenes en base a imágenes adquiridas de manera oportunista. El programa puede ser una vez al día, una vez a la semana o una vez al mes, o cualquier otro período especificado por un médico. Por lo tanto, la invención proporciona un sistema y método de monitorización e informes.
Ahora se describe la generación del modelo de pie 3D inicial en el que se basa el procesamiento. Esto puede recopilarse de varias formas, ya sea usando un sistema de escaneo de referencia separado (por ejemplo, escáner láser 3D o escáner MRI) o haciendo que el paciente realice una serie de capturas de imágenes 3D en condiciones conocidas usando el mismo hardware descrito anteriormente. En cualquier caso, los datos 3D resultantes de la extremidad completa, tomados en múltiples orientaciones y ángulos articulares, se usan para generar un modelo paramétricamente distorsionable para su posterior procesamiento. El modelo paramétricamente distorsionable está diseñado de tal manera que se corresponda tan bien como sea posible con los datos de las imágenes 3D de la extremidad completa en múltiples orientaciones y ángulos articulares, sin que ello implique ningún cambio en el volumen general del pie. Esto puede lograrse generando un modelo multiparámetro preciso que incluya todas las articulaciones, músculos, y demás relevantes, o usando un modelo paramétrico más simple e incluyendo un conjunto de términos de "cancelación de volumen" dentro del modelo. Por ejemplo, se ha descubierto que si el modelo subestima sistemáticamente el volumen total a medida que aumenta el ángulo de la pierna al pie, puede aplicarse un término de "cancelación de volumen" para aumentar el volumen aparente de acuerdo con el ángulo de la pierna al pie observado.
Se apreciará que, con el tiempo, el cuerpo del paciente puede ajustarse de formas que llevan a que el modelo 3D de referencia se vuelva sistemáticamente poco representativo, por ejemplo, como resultado de la dieta o el ejercicio. Por lo tanto, los datos 3D de referencia iniciales en una amplia variedad de orientaciones y ángulos articulares pueden combinarse con los datos 3D recopilados a lo largo del tiempo para producir un modelo 3D de referencia autoajustable lentamente. Esto puede no ser adecuado para algunas áreas de aplicación donde son importantes los cambios sutiles en el volumen absoluto durante períodos de tiempo prolongados, pero para la monitorización de edemas en pacientes con insuficiencia cardíaca, el cambio de volumen que es clínicamente relevante es del orden del 10% durante dos semanas. Por lo tanto, un modelo autoajustable con un período de tiempo de meses no debería tener un impacto negativo en la evaluación de los edemas, a la vez que garantiza que el modelo sigue siendo relevante durante períodos de tiempo prolongados y evita la necesidad de recalibraciones periódicas. Por consiguiente, es preferible actualizar el modelo 3D periódicamente cuando esté disponible un nuevo modelo de referencia, por ejemplo, como resultado de una exploración completa de la extremidad en cuestión. Alternativamente, el modelo 3D se actualiza gradualmente con el tiempo.
El uso de un modelo 3D deformable como referencia con el que se comparan los datos capturados durante cualquier medición es ventajoso cuando se aplica a la recopilación de datos en series temporales de una manera oportunista, como en la presente invención. Aunque cualquier conjunto recopilado de datos de imágenes 3D puede mapearse en el modelo 3D, es muy poco probable que cualquier conjunto de datos de imágenes 3D describa todos los cambios entre el modelo de referencia 3D y el estado actual de la extremidad en consideración. Por ejemplo, el sistema de obtención de imágenes solo puede capturar datos 3D sobre el lado de la extremidad orientada hacia el aparato de cámara de detección de profundidad, si el aparato de cámara de detección de profundidad no cubre una circunferencia completa de 360 grados (o el ángulo sólido completo de una esfera). Sin embargo, con el tiempo, es probable que una serie de datos de imágenes 3D recopilados de manera oportunista describa todas, o en general todas, las superficies del modelo de referencia 3D. Por tanto, el modelo 3D de referencia puede actualizarse con el tiempo a partir de esta serie temporal. Por ejemplo, a medida que el paciente se mueve por su entorno, el sistema de obtención de imágenes puede observar la extremidad en consideración en una variedad de orientaciones, lo que permite que el modelo 3D de referencia evolucione con el tiempo. Preferiblemente, las regiones del modelo 3D solo se actualizan usando datos que han pasado comprobaciones de calidad y consistencia predefinidos, por ejemplo, habiendo observado la misma discrepancia consistente entre los datos observados y el modelo de referencia 3D durante por lo menos un cierto número de observaciones separadas en tiempo durante por lo menos un cierto período. De esta manera, por ejemplo, la "textura" de un modelo 3D podría actualizarse automáticamente después de que un paciente se haga un tatuaje, y el sistema determina que no se trata de un cambio temporal en al complexión de la piel.
Se ha informado que el volumen de la extremidad puede cambiar dependiendo de la historia reciente, por ejemplo, si el paciente ha estado durmiendo horizontalmente justo antes de la medición, en lugar de estar de pie verticalmente. Por lo tanto, el aparato también puede registrar el momento en el que se capturan las imágenes y estos datos temporales pueden enviarse junto con los datos/perfil volumétricos. Además, estos datos temporales pueden usarse como entrada para el modelo distorsionable en 3D para compensar el momento en el que se capturan las imágenes. Por ejemplo, si el aparato captura regularmente a un usuario que se levanta efectivamente de la cama por la mañana, en lugar de irse a la cama por la noche, el dispositivo de procesamiento 110 puede construir un modelo de esta variación típica durante varios días de mediciones, o puede usar estos datos temporales para distorsionar adicionalmente el modelo 3D distorsionable/deformable para compensar el momento del día en el que se capturan las imágenes 3D.
Las Figuras 7 a 10 ilustran un ejemplo en el que se obtiene información volumétrica usando las técnicas descritas en la presente cuando solo una parte de la extremidad es visible para el aparato de cámara de detección de profundidad 102, 104. La Figura 7 ilustra un pie como se presenta al sistema de obtención de imágenes 3D. La Figura 8 ilustra la imagen del pie rotado alrededor de un eje, mostrando que el otro lado del pie falta por completo en esta vista. La Figura 9 ilustra un modelo de malla 3D que se ajustará a los datos de la imagen 3D. La Figura 10 ilustra el modelo 3D tal como se ha ajustado a los datos de la imagen 3D observados. Por tanto, se permite la extracción de datos volumétricos completos de este modelo 3D aunque solo una parte de la extremidad sea visible para el sistema de obtención de imágenes.
La Figura 11 ilustra un método para determinar datos volumétricos de una característica anatómica predeterminada de acuerdo con una realización de la invención que puede ser realizada por el dispositivo de procesamiento 108 o 110.Cada uno de los pasos puede realizarse en un orden diferente (por ejemplo, el paso 304 puede realizarse antes del paso 302) y puede omitirse.
En el paso 302, se determinan los datos volumétricos de una o más características anatómicas presentes en un campo de visión de un aparato de cámara de detección de profundidad.
En el paso 304, se identifica una característica anatómica predeterminada como presente en el campo de visión del aparato de cámara de detección de profundidad.
En el paso 306, los datos volumétricos de una de las una o más características anatómicas se asocian con la característica anatómica predeterminada identificada.
En el paso 308, se envían los datos volumétricos de la característica anatómica predeterminada.
El aparato 100 ilustrado en la Figura 1 y descrito anteriormente, es capaz de identificar no sólo una extremidad de interés general, sino también de identificar cuál entre un cuerpo de posibles extremidades está actualmente en el campo de visión del aparato de cámara de detección de profundidad. Por tanto, el aparato podría clasificar, por ejemplo, tanto el pie izquierdo como el derecho de varios ocupantes de una casa siempre que se dispusiera de suficientes datos de formación. De esta manera, el aparato puede activar el escaneo 3D completo solo cuando una del conjunto deseado de extremidades de interés está a la vista. Esto también permite que el aparato siga a múltiples pacientes y/o extremidades por paciente.
Para obtener mediciones de volumen clínicamente relevantes para la detección de edemas, se ha descubierto que para obtener mediciones volumétricas con una precisión del 5%, sobre un volumen de alrededor de 2,5 litros, se requiere una precisión dimensional del orden de 2,5 mm asumiendo errores iguales en cada dimensión. Por lo tanto, el aparato descrito en la presente es capaz de lograr por lo menos una resolución de medición de 2,5 mm en cada dimensión para cada píxel, y preferiblemente una resolución mejor de 1 mm en las 3 dimensiones.
En una realización alternativa, el modelo 3D de referencia puede permanecer fijo, y se aplican una serie de distorsiones a los datos 3D de la nube de puntos observados para hacer coincidir los datos con el modelo 3D de referencia. Cuando se hacen referencias a distorsiones del modelo 3D para que coincidan con lo observado, los datos 3D de la nube de puntos pueden distorsionarse mediante el proceso inverso para que coincidan con los datos del modelo 3D de referencia. De igual manera, una realización alternativa adicional podría realizar ajustes en los datos de imágenes 2D recopilados de tal manera que coincidan con el modelo 3D, o podrían realizarse ajustes en el modelo 3D y luego podrían usarse técnicas de renderizado para que coincidan con los datos de imágenes 2D observados.
El solicitante ha descubierto que es posible usar sistemas de obtención de imágenes en 3D con una resolución inferior a 2,5 mm en todo el volumen de exploración. Sin embargo, esto se vuelve cada vez más dependiente de la distribución estadística de múltiples mediciones de profundidad en diferentes puntos, lo que proporciona una medición de profundidad "media" correcta y, por tanto, proporciona una coincidencia precisa con un modelo de extremidad 3D distorsionable. Por ejemplo, es posible ajustar una nube de puntos de baja resolución con un modelo 3D de mayor resolución calculando el error de mínimos cuadrados en las posiciones entre los puntos y el modelo. Ajustar una serie de parámetros de distorsión del modelo 3D para minimizar este error de mínimos cuadrados, asumiendo que cada punto de baja resolución tiene errores independientes asociados, puede resultar en un conjunto más fiable de parámetros de distorsión del modelo 3D. Sin embargo, es evidente que a medida que los puntos medidos tienen una resolución cada vez menor, y particularmente si los puntos no tienen mediciones independientes entre ellos, esta técnica se degrada rápidamente. El solicitante ha descubierto que este es el caso, por ejemplo, cuando las mediciones de profundidad se cuantifican, como sucede a menudo como resultado de algoritmos de coincidencia de bloques estéreo en varias categorías de escáneres 3D basados en cámaras, o cuando muchos puntos x, y comparten la misma información de profundidad. Por lo tanto, el aparato descrito en la presente está configurado para adquirir datos de imágenes con una resolución de medición de por lo menos 2,5 mm en por lo menos dos dimensiones para cada píxel, junto con un modelo para mejorar estadísticamente la resolución de la tercera dimensión a más de 2,5 mm después del procesamiento.
En combinación con la implementación técnica proporcionada anteriormente, que implica el uso de un modelo 3D completo de la extremidad de interés que incluye tanto los cambios de orientación entre la extremidad y el aparato de cámara como las orientaciones relativas entre las articulaciones de la extremidad, es posible usar la técnica de "silueta" para permitir la cuantificación del volumen de la extremidad con respecto a un modelo 3D detallado, aplicando distorsiones matemáticas al modelo para hacer coincidir la obtención de imágenes bidimensionales de alta resolución observadas dependiendo de las mediciones de profundidad de menor resolución. En este enfoque, los pequeños errores de cuantificación en la medición de profundidad se ignoran efectivamente, ya que la información de profundidad se usa para estimar el área del mundo real ocupada por cada píxel observado y, por tanto, la distancia del mundo real entre los píxeles que componen la silueta de la extremidad. Por ejemplo, una silueta de 100 mm de anchura de un objeto visto por la cámara a una distancia de 1000 mm y una incertidumbre de /- 10 mm de profundidad, produce una incertidumbre en la anchura de solo /- 1 mm en la anchura de la silueta. Por lo tanto, siempre que el modelo 3D esté correctamente orientado y distorsionado para coincidir con los datos observados, estos datos de silueta pueden superar los errores de medición de profundidad en gran medida.
Los datos adquiridos se han descrito típicamente como datos de imágenes. Sin embargo, si se usan una fuente de luz conocida (por ejemplo, un láser) y una matriz de sensores, se apreciará que los datos son una representación de la distancia desde cada píxel en la matriz a las objeciones en el campo de visión o el entorno de la matriz de sensores.
En una realización adicional, los datos de imágenes en 3D se recopilan sin determinar primero la presencia de la característica (por ejemplo, una extremidad) de interés. Estos datos de imágenes 3D se procesan luego como se ha descrito anteriormente para producir una nube de puntos 3D, contra la cual se ajusta iterativamente un modelo distorsionable de la característica de interés para maximizar el ajuste. Se apreciará que aquí en ninguna etapa se realizó un reconocimiento explícito de la característica de interés, sin embargo, en el caso de que la característica de interés esté presente, los parámetros del modelo distorsionable/deformable convergerán en valores significativos. Sin embargo, es posible el reconocimiento implícito de la característica de interés, por ejemplo, estableciendo límites permitidos en los valores de los parámetros para el modelo, o niveles de umbral en la calidad de ajuste entre los datos observados y el modelo 3D. Por lo tanto, se entenderá que puede realizarse un paso implícito de determinar la presencia o ausencia de la característica de interés después de que se complete toda la captura de datos 3D y el ajuste del modelo. Esto puede tomar la forma de filtrar los parámetros del modelo resultantes (por ejemplo, mediciones del volumen del pie) de una serie temporal de datos de imágenes 3D y retener solo los datos de esos puntos temporales que cumplen con algunos criterios de calidad de los datos. También se reconocerá que, en lugar de utilizar un umbral absoluto sobre la calidad de los datos o la presencia o ausencia de la característica de interés, es posible ponderar los resultados del análisis por alguna medida de bondad de ajuste o probabilidad calculada que las observaciones corresponden a la característica de interés. De esta manera, el reconocimiento de características puede ser tanto implícito como difuso en lugar de un simple corte binario, y los resultados acumulados del análisis tenderán a representar predominantemente información de la característica de interés sobre múltiples mediciones.
Se ha descrito una técnica para obtener el volumen de un pie. Sin embargo, se apreciará que la técnica puede aplicarse a otras extremidades o características (por ejemplo, cicatrices, heridas, etc.) de las extremidades, o cualquier otra característica anatómica o extremidad. Además, la técnica descrita en la presente se ha centrado en el uso de medir el volumen de un pie o pies para orientarse a la insuficiencia cardíaca. Sin embargo, se apreciará que la técnica puede usarse durante el embarazo o para el linfedema asociado con el cáncer de mama.
Las realizaciones descritas de acuerdo con la presente invención pueden proporcionarse como un producto de software informático. El producto de software informático puede proporcionarse en, sobre o soportado por un medio legible por ordenador que podría proporcionarse como todas las formas posibles permanentes y no permanentes de medio legible por ordenador, ya sea de naturaleza transitoria, como en una señal de transmisión de datos, por ejemplo enviada por Internet, o almacenamiento no volátil como una memoria. Por otro lado, el medio legible por ordenador puede ser un medio legible por ordenador no transitorio que comprende todos los medios legibles por ordenador.
El término "medio legible por ordenador" (o medio legible por ordenador no transitorio) como se usa en la presente significa cualquier medio que pueda almacenar instrucciones para su uso o ejecución por un ordenador u otro dispositivo informático, incluyendo, pero no limitado a, un disquete de ordenador portátil, una unidad de disco duro (HDD), una memoria de acceso aleatorio (RAM), una memoria de solo lectura (ROM), una memoria de solo lectura programable y borrable (EPROM) o una memoria flash, un disco óptico como un disco compacto (CD), disco versátil digital (DVD) o disco Blu-ray™, y un dispositivo de almacenamiento de estado sólido (por ejemplo, memoria flash NAND o RAM dinámica síncrona (SDRAM)). Se apreciará que el análisis anterior se refiere a realizaciones particulares. Sin embargo, en otras realizaciones, pueden combinarse varios aspectos y ejemplos.
Los encabezados usados en la presente son solo con propósitos organizativos y no se pretende que se usen para limitar el alcance de la descripción. Como se usa en esta solicitud, la palabra "puede" se usa en un sentido permisivo (es decir, que significa "podría") en lugar de en el sentido obligatorio (es decir, que significa "debe"). De manera similar, las palabras “incluir”, “incluyendo”, e “incluye” significan que incluye, pero no está limitado a.

Claims (14)

REIVINDICACIONES
1. Un método implementado por ordenador para monitorizar edemas determinando un volumen de una parte corporal anatómica predeterminada, el método comprendiendo:
monitorizar un campo de visión de un aparato de cámara de detección de profundidad (102, 104);
obtener datos tridimensionales de una o más partes del cuerpo anatómicas presentes en el campo de visión del aparato de cámara de detección de profundidad;
determinar un volumen de una o más partes del cuerpo anatómicas presentes en el campo de visión de un aparato de cámara de detección de profundidad en base a los datos tridimensionales, en donde determinar el volumen comprende procesar los datos tridimensionales dependiendo de la representación tridimensional de la parte del cuerpo anatómica predeterminada;
identificar que una parte del cuerpo anatómica predeterminada está presente en el campo de visión del aparato de cámara de detección de profundidad;
asociar el volumen de una de la una o más partes del cuerpo anatómicas con la parte del cuerpo anatómica predeterminada; y
generar el volumen de la parte del cuerpo anatómica predeterminada.
2. El método de la reivindicación 1, en donde el paso de identificar que una parte del cuerpo anatómica predeterminada está presente en un campo de visión del aparato de cámara de detección de profundidad se realiza antes del paso de determinar un volumen de una o más partes del cuerpo anatómicas presentes en el campo de visión del aparato de cámara de detección de profundidad.
3. El método de la reivindicación 2, el método comprendiendo:
tras la identificación de que la parte del cuerpo anatómica está presente en el campo de visión del aparato de cámara de detección de profundidad, obtener los datos tridimensionales de la parte del cuerpo anatómica predeterminada.
4. El método de la reivindicación 2 o la reivindicación 3, que comprende adquirir una imagen bidimensional desde el aparato de cámara de detección de profundidad e identificar que la parte del cuerpo anatómica predeterminada está presente en un campo de visión del aparato de cámara de detección de profundidad de acuerdo con la imagen bidimensional.
5. El método de la reivindicación 1, en donde el paso de identificar que una parte del cuerpo anatómica predeterminada está presente en un campo de visión del aparato de cámara de detección de profundidad se realiza después del paso de determinar un volumen de una o más partes del cuerpo anatómicas presentes en el campo de visión del aparato de cámara de detección de profundidad.
6. El método de la reivindicación 5, en donde el volumen de una de las una o más partes del cuerpo anatómicas se asocia con la parte del cuerpo anatómica predeterminada identificada comparando los datos tridimensionales de cada una de las una o más partes del cuerpo anatómicas con una representación tridimensional de una parte del cuerpo anatómica predeterminada, e identificar que una de las una o más partes del cuerpo anatómicas es la parte del cuerpo anatómica predeterminada.
7. El método de la reivindicación 1, en donde la representación tridimensional de la parte del cuerpo anatómica predeterminada es un modelo tridimensional deformable, y en donde el método comprende deformar paramétricamente el modelo tridimensional para ajustar los datos tridimensionales de la parte del cuerpo anatómica predeterminada.
8. El método de la reivindicación 7, en donde el modelo tridimensional se deforma por uno o más de rotación, alteración de un ángulo articular y cambio de volumen.
9. El método de la reivindicación 1, en donde la representación tridimensional de la parte del cuerpo anatómica predeterminada es un modelo tridimensional deformable, y en donde el método comprende deformar los datos tridimensionales de la parte del cuerpo anatómica predeterminada para ajustar el modelo tridimensional.
10. El método de la reivindicación 1, en donde los datos tridimensionales comprenden múltiples conjuntos de datos de partes del cuerpo anatómicas en diferentes orientaciones.
11. El método de la reivindicación 1, en donde los datos tridimensionales comprenden datos de imágenes tridimensionales.
12. El método de la reivindicación 1, en donde los datos tridimensionales representan por lo menos una representación parcial de la parte del cuerpo anatómica predeterminada.
13. Un sistema que comprende:
un aparato de cámara de detección de profundidad; y
un procesador acoplado al aparato de cámara de detección de profundidad;
en donde el procesador está configurado para realizar el método de acuerdo con cualquiera de las reivindicaciones 1 a 12.
14. Un medio legible por ordenador que tiene almacenadas en el mismo instrucciones que, cuando se ejecutan en un procesador, hacen que el procesador realice el método de acuerdo con cualquiera de las realizaciones 1 a 12.
ES16762852T 2015-09-03 2016-09-02 Método y aparato para determinar los datos volumétricos de una característica anatómica predeterminada Active ES2841508T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1515634.2A GB2542114B (en) 2015-09-03 2015-09-03 Method and apparatus for determining volumetric data of a predetermined anatomical feature
PCT/GB2016/052719 WO2017037472A1 (en) 2015-09-03 2016-09-02 Method and apparatus for determining volumetric data of a predetermined anatomical feature

Publications (1)

Publication Number Publication Date
ES2841508T3 true ES2841508T3 (es) 2021-07-08

Family

ID=54345729

Family Applications (2)

Application Number Title Priority Date Filing Date
ES20205506T Active ES3037498T3 (en) 2015-09-03 2016-09-02 Method and apparatus for determining volumetric data of a predetermined anatomical feature
ES16762852T Active ES2841508T3 (es) 2015-09-03 2016-09-02 Método y aparato para determinar los datos volumétricos de una característica anatómica predeterminada

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES20205506T Active ES3037498T3 (en) 2015-09-03 2016-09-02 Method and apparatus for determining volumetric data of a predetermined anatomical feature

Country Status (10)

Country Link
US (6) US10573004B2 (es)
EP (2) EP3843037B1 (es)
CN (1) CN107924564B (es)
AU (1) AU2016313961B2 (es)
CA (1) CA2997338C (es)
ES (2) ES3037498T3 (es)
GB (1) GB2542114B (es)
MX (1) MX2018002741A (es)
PL (2) PL3843037T3 (es)
WO (1) WO2017037472A1 (es)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109804404A (zh) 2016-09-06 2019-05-24 耐克创新有限合伙公司 用于个性化购物的系统、平台、装置和方法
US20180160777A1 (en) 2016-12-14 2018-06-14 Black Brass, Inc. Foot measuring and sizing application
KR102534170B1 (ko) 2017-01-06 2023-05-17 나이키 이노베이트 씨.브이. 자동 쇼핑 어시스턴트를 이용한 개인화 쇼핑을 위한 시스템, 플랫폼 및 방법
CN120374213A (zh) 2017-06-27 2025-07-25 耐克创新有限合伙公司 使用自动化购物助手进行个性化购物的系统、平台以及方法
US10945657B2 (en) * 2017-08-18 2021-03-16 Massachusetts Institute Of Technology Automated surface area assessment for dermatologic lesions
US10842412B2 (en) 2017-10-31 2020-11-24 Pixa4 Llc Systems and methods to estimate human length
US12211076B2 (en) 2018-01-24 2025-01-28 Nike, Inc. System, platform and method for personalized shopping using a virtual shopping assistant
US11031134B2 (en) * 2018-02-05 2021-06-08 International Business Machines Corporation Monitoring individuals for water retention management
US10755431B2 (en) * 2018-07-19 2020-08-25 Radius Technologies, LLC Systems and methods for sizing objects via a computing device
GB2576770B (en) 2018-08-31 2020-09-23 Heartfelt Tech Limited System and method for identifying fluid retention in a body part
WO2020059716A1 (ja) * 2018-09-21 2020-03-26 株式会社Zozo サイズ測定システム
US10803612B2 (en) * 2018-09-25 2020-10-13 General Electric Company Method and system for structure recognition in three-dimensional ultrasound data based on volume renderings
EP3934513A1 (en) * 2019-03-08 2022-01-12 Naked Labs Austria GmbH 3d body scanner for generating 3d body models
US11176738B2 (en) * 2019-05-15 2021-11-16 Fittin, Llc Method for calculating the comfort level of footwear
US11430564B2 (en) 2019-11-27 2022-08-30 Shanghai United Imaging Intelligence Co., Ltd. Personalized patient positioning, verification and treatment
EP3838116A1 (en) * 2019-12-20 2021-06-23 Nagravision S.A. System for detecting a change in contour of a living tissue
EP3900611A1 (en) * 2020-04-24 2021-10-27 Elmedix NV Monitoring fluid balance
KR20230028316A (ko) 2020-05-29 2023-02-28 나이키 이노베이트 씨.브이. 캡처된 이미지를 처리하기 위한 시스템 및 방법
GB202110738D0 (en) * 2021-07-26 2021-09-08 Lumirithmic Ltd Acquisition of optical characteristics
EP4184454A1 (en) * 2021-11-19 2023-05-24 Koninklijke Philips N.V. Weight estimation of a patient
CN115249287A (zh) * 2021-12-21 2022-10-28 上海市第六人民医院 一种应用于糖尿病足的足部模型构建方法

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4417872A1 (de) 1994-05-22 1995-11-23 Robert Prof Dr Ing Massen Optische Digitalisierung von Körperteilen
US5915386A (en) * 1997-10-28 1999-06-29 Alere Medical Incorporated Method and device for detecting edema
GB0404269D0 (en) * 2004-02-26 2004-03-31 Leuven K U Res & Dev Time-dependent three-dimensional musculo-skeletal modeling based on dynamic surface measurements of bodies
ES2751995T3 (es) * 2004-06-18 2020-04-02 Impedimed Ltd Detección de edema
TWI235041B (en) * 2004-12-09 2005-07-01 Univ Tsinghua Characteristic points automatically identification method for three-dimensional space scanning data of human body
US7496222B2 (en) * 2005-06-23 2009-02-24 General Electric Company Method to define the 3D oblique cross-section of anatomy at a specific angle and be able to easily modify multiple angles of display simultaneously
US8199981B2 (en) * 2006-05-18 2012-06-12 Elekta Ltd. Methods and systems for segmentation using boundary reparameterization
US8331635B2 (en) * 2006-07-06 2012-12-11 University Of South Florida Cartesian human morpho-informatic system
JP4559501B2 (ja) * 2007-03-14 2010-10-06 富士フイルム株式会社 心機能表示装置、心機能表示方法およびそのプログラム
JP4709177B2 (ja) * 2007-04-12 2011-06-22 富士フイルム株式会社 三次元画像処理装置および方法並びにプログラム
US8811692B2 (en) * 2007-04-17 2014-08-19 Francine J. Prokoski System and method for using three dimensional infrared imaging for libraries of standardized medical imagery
US8103070B2 (en) * 2007-11-22 2012-01-24 Toshiba Medical Visualization Systems Europe, Limited Volume rendering apparatus and method
AU2008331807A1 (en) * 2007-12-03 2009-06-11 Dataphysics Research, Inc. Systems and methods for efficient imaging
US8795204B2 (en) * 2008-01-09 2014-08-05 Allergan, Inc. Anatomical recognition and dimensional analysis of breast volume to assist breast surgery
WO2010044845A1 (en) 2008-10-13 2010-04-22 George Papaioannou Non-invasive wound prevention, detection, and analysis
JP5355074B2 (ja) * 2008-12-26 2013-11-27 キヤノン株式会社 3次元形状データ処理装置、3次元形状データ処理方法及びプログラム
US8340432B2 (en) * 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8830263B2 (en) * 2009-07-24 2014-09-09 Hitachi Medical Corporation Medical image display device and medical image display method
US20110172526A1 (en) * 2010-01-12 2011-07-14 Martin Lachaine Feature Tracking Using Ultrasound
GB2478329B (en) * 2010-03-03 2015-03-04 Samsung Electronics Co Ltd Medical image processing
US9502073B2 (en) * 2010-03-08 2016-11-22 Magisto Ltd. System and method for semi-automatic video editing
US8908928B1 (en) * 2010-05-31 2014-12-09 Andrew S. Hansen Body modeling and garment fitting using an electronic device
US8827930B2 (en) 2011-01-10 2014-09-09 Bioguidance Llc System and method for patient monitoring
US20120253170A1 (en) * 2011-03-29 2012-10-04 Samsung Electronics Co., Ltd. Method and apparatus for generating medical image of body organ by using 3-d model
US20130237804A1 (en) * 2011-08-30 2013-09-12 Qi Imaging, Llc Time varying density of tissues
US8744211B2 (en) * 2011-08-31 2014-06-03 Analogic Corporation Multi-modality image acquisition
KR101982149B1 (ko) * 2011-09-05 2019-05-27 삼성전자주식회사 의료 영상의 일부 정보를 활용한 장기 영상 생성 방법 및 장치
JP5706389B2 (ja) * 2011-12-20 2015-04-22 富士フイルム株式会社 画像処理装置および画像処理方法、並びに、画像処理プログラム
US9196091B2 (en) * 2012-01-24 2015-11-24 Kabushiki Kaisha Toshiba Image processing method and system
US8913809B2 (en) * 2012-06-13 2014-12-16 Microsoft Corporation Monitoring physical body changes via image sensor
US20140164169A1 (en) * 2012-06-18 2014-06-12 Willow Garage, Inc. Foot and footwear analysis configuration
AT513091B1 (de) 2012-06-28 2014-12-15 Ait Austrian Inst Technology Verfahren und Vorrichtung zur Bestimmung der Veränderung einer Wasseransammlung in einem Körperteil
GB2504711B (en) * 2012-08-07 2015-06-03 Toshiba Res Europ Ltd Methods and systems for generating a 3D representation of a subject
KR102070427B1 (ko) * 2012-08-08 2020-01-28 삼성전자주식회사 종양의 위치를 추적하는 방법 및 장치
CN102920509A (zh) * 2012-10-30 2013-02-13 华南理工大学 一种基于超声波的实时无线手术导航装置
US20140193056A1 (en) * 2013-01-10 2014-07-10 Siemens Medical Solutions Usa, Inc. Systems and Methods for Patient Anatomical Image Volume Data Visualization Using A Portable Processing Device
US9225969B2 (en) * 2013-02-11 2015-12-29 EchoPixel, Inc. Graphical system with enhanced stereopsis
US20150302594A1 (en) * 2013-07-12 2015-10-22 Richard H. Moore System and Method For Object Detection Using Structured Light
US9218542B2 (en) * 2013-08-09 2015-12-22 Siemens Medical Solutions Usa, Inc. Localization of anatomical structures using learning-based regression and efficient searching or deformation strategy
KR102205898B1 (ko) * 2013-09-04 2021-01-21 삼성전자주식회사 의료영상들을 정합하는 방법 및 장치
CN105793893B (zh) * 2013-12-04 2020-01-31 皇家飞利浦有限公司 解剖结构的基于模型的分割
KR20150068162A (ko) * 2013-12-11 2015-06-19 삼성전자주식회사 3차원 초음파 영상 통합 장치 및 방법
US20150216477A1 (en) * 2014-02-06 2015-08-06 Samir I. Sayegh Methods for detecting lymphedema
US9384528B2 (en) * 2014-05-28 2016-07-05 EchoPixel, Inc. Image annotation using a haptic plane
US9830700B2 (en) * 2014-02-18 2017-11-28 Judy Yee Enhanced computed-tomography colonography
US9361684B2 (en) * 2014-02-18 2016-06-07 EchoPixel, Inc. Feature validation using orientation difference vector
JP6548393B2 (ja) * 2014-04-10 2019-07-24 キヤノンメディカルシステムズ株式会社 医用画像表示装置および医用画像表示システム
US10271817B2 (en) * 2014-06-23 2019-04-30 Siemens Medical Solutions Usa, Inc. Valve regurgitant detection for echocardiography
US10373719B2 (en) * 2014-09-10 2019-08-06 Intuitive Surgical Operations, Inc. Systems and methods for pre-operative modeling
EP3212063A4 (en) * 2014-10-30 2018-06-20 BAE Systems Information Electronic Systems Integration Inc. Three-dimensional thermal imaging for medical applications
US9848856B2 (en) * 2014-12-16 2017-12-26 Siemens Medical Solutions Usa, Inc. Valve modeling with dense chordae from medical scan data
US10251594B2 (en) * 2015-01-16 2019-04-09 Koninklijke Philips N.V. Vertebral feature identification
US10092191B2 (en) * 2015-01-16 2018-10-09 Siemens Healthcare Gmbh Joint visualization of 3D reconstructed photograph and internal medical scan
US20160235354A1 (en) * 2015-02-12 2016-08-18 Lymphatech, Inc. Methods for detecting, monitoring and treating lymphedema
CN110322550B (zh) * 2015-02-16 2023-06-20 深圳迈瑞生物医疗电子股份有限公司 三维成像数据的显示处理方法和三维超声成像方法及系统
US10002419B2 (en) * 2015-03-05 2018-06-19 Siemens Healthcare Gmbh Direct computation of image-derived biomarkers
US9962086B2 (en) * 2015-03-31 2018-05-08 Toshiba Medical Systems Corporation Medical image data processing apparatus and method for determining the presence of an abnormality
JP6436442B2 (ja) * 2015-04-10 2018-12-12 キヤノン株式会社 光音響装置および画像処理方法
CN107851323B (zh) * 2015-05-13 2022-08-05 无装饰实验室奥地利股份有限公司 3d身体扫描仪数据处理流程
CN108697376B (zh) * 2016-01-13 2022-03-18 丹麦专用绷带股份有限公司 水肿治疗和监测水肿治疗
WO2018031793A1 (en) * 2016-08-10 2018-02-15 WEILER, Michael, J. Methods of generating compression garment measurement information for a patient body part or body area of interest and use thereof
US11138790B2 (en) * 2016-10-14 2021-10-05 Axial Medical Printing Limited Method for generating a 3D physical model of a patient specific anatomic feature from 2D medical images
US20190029592A1 (en) * 2017-07-28 2019-01-31 East Carolina University Device and method for assessing peripheral edema
US10657709B2 (en) * 2017-10-23 2020-05-19 Fit3D, Inc. Generation of body models and measurements

Also Published As

Publication number Publication date
US10573004B2 (en) 2020-02-25
US11182902B2 (en) 2021-11-23
WO2017037472A1 (en) 2017-03-09
US11948304B2 (en) 2024-04-02
ES3037498T3 (en) 2025-10-02
AU2016313961B2 (en) 2021-06-03
EP3843037A1 (en) 2021-06-30
EP3843037C0 (en) 2025-06-25
MX2018002741A (es) 2018-06-13
EP3345157A1 (en) 2018-07-11
GB2542114B (en) 2018-06-27
AU2016313961A1 (en) 2018-03-22
US11682116B2 (en) 2023-06-20
US20200175687A1 (en) 2020-06-04
US20220036559A1 (en) 2022-02-03
PL3843037T3 (pl) 2025-09-08
GB201515634D0 (en) 2015-10-21
US20240212156A1 (en) 2024-06-27
US12322108B2 (en) 2025-06-03
US20250259307A1 (en) 2025-08-14
GB2542114A (en) 2017-03-15
US20180240238A1 (en) 2018-08-23
EP3345157B1 (en) 2020-11-04
EP3843037B1 (en) 2025-06-25
PL3345157T3 (pl) 2021-07-19
CA2997338C (en) 2024-05-28
CA2997338A1 (en) 2017-03-09
EP3345157B8 (en) 2021-01-06
CN107924564A (zh) 2018-04-17
US20230206448A1 (en) 2023-06-29
CN107924564B (zh) 2022-03-25

Similar Documents

Publication Publication Date Title
ES2841508T3 (es) Método y aparato para determinar los datos volumétricos de una característica anatómica predeterminada
US11576645B2 (en) Systems and methods for scanning a patient in an imaging system
US11576578B2 (en) Systems and methods for scanning a patient in an imaging system
Lane et al. Completing the 3-dimensional picture
US7899220B2 (en) Time-dependent three-dimensional musculo-skeletal modeling based on dynamic surface measurements of bodies
EP4183328A1 (en) Anatomical surface assessment methods, devices and systems
Barone et al. Computer-aided modelling of three-dimensional maxillofacial tissues through multi-modal imaging
EP3699929A1 (en) Patient weight estimation from surface data using a patient model
Malian et al. Medphos: A new photogrammetric system for medical measurement
CN114787869A (zh) 用于在医学成像流程期间监测对象的装置、方法和计算机程序
GB2564243A (en) Method and apparatus for determining volumetric data of a predetermined anatomical feature
Groisser et al. 3d reconstruction of scoliotic spines from stereoradiography and depth imaging
Hussien et al. Stereo photogrammetry vs computed tomography for 3D medical measurements
Procházka et al. Multi-camera systems use for dental arch shape measurement
CN112330799B (zh) 一种瘢痕测量方法
KR102222059B1 (ko) 마커가 형성된 진단기를 이용한 대상체 위치 및 진단 결과를 출력시키는 대상체 위치인식형 진단장치
JP7695221B2 (ja) データ生成装置、データ生成方法、およびデータ生成プログラム
Kandasamy Development and evaluation of a low cost, 3D imaging mobile surface topography system (MSTS) for measuring posture and back shape in clinical settings
Rahman et al. Validity of close range photogrammetry technique on craniofacial soft tissue measurement
TR201616018U (tr) Bi̇r skolyoz taki̇p tarama si̇stemi̇