[go: up one dir, main page]

ES2966070T3 - Mapeo de propagación de pulsos - Google Patents

Mapeo de propagación de pulsos Download PDF

Info

Publication number
ES2966070T3
ES2966070T3 ES21167919T ES21167919T ES2966070T3 ES 2966070 T3 ES2966070 T3 ES 2966070T3 ES 21167919 T ES21167919 T ES 21167919T ES 21167919 T ES21167919 T ES 21167919T ES 2966070 T3 ES2966070 T3 ES 2966070T3
Authority
ES
Spain
Prior art keywords
shutter
images
capture
difference map
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES21167919T
Other languages
English (en)
Inventor
Christopher Wright
Harry Cronin
Phil Catton
William Schnabel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Technologies Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Technologies Oy filed Critical Nokia Technologies Oy
Application granted granted Critical
Publication of ES2966070T3 publication Critical patent/ES2966070T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00026Methods therefor
    • H04N1/00068Calculating or estimating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/021Measuring pressure in heart or blood vessels
    • A61B5/02108Measuring pressure in heart or blood vessels from analysis of pulse wave characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/024Measuring pulse rate or heart rate
    • A61B5/02416Measuring pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00005Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00026Methods therefor
    • H04N1/00042Monitoring, i.e. observation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/58Means for changing the camera field of view without moving the camera body, e.g. nutating or panning of optics or image sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0079Medical imaging device

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Cardiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Physiology (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Vascular Medicine (AREA)
  • Studio Devices (AREA)
  • Optical Modulation, Optical Deflection, Nonlinear Optics, Optical Demodulation, Optical Logic Elements (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

Los ejemplos de la divulgación se refieren al menos a aparatos, métodos y programas informáticos, configurados para controlar la captura de dos imágenes de un área, a través de la cual se propaga un pulso, usando diferentes direcciones de escaneo del obturador. O las imágenes se convierten en mapas de fase de pulso del área y se obtiene un mapa de diferencia de fase de pulso que identifica las diferencias entre los mapas de fase de pulso del área, o se obtiene un mapa de diferencia de color que identifica las diferencias entre las dos imágenes y la El mapa de diferencia de color se convierte en un mapa de diferencia de fase de pulso. Se obtiene un mapa de diferencia de tiempo de obturación que identifica las diferencias entre los tiempos de captura de ubicaciones correspondientes en las dos imágenes. Utilizando el mapa de diferencia de tiempo de obturación, el mapa de diferencia de fase de impulso se corrige para obtener un mapa de los cambios de fase de impulso que se han producido durante una exploración de obturación. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Mapeo de propagación de pulsos
Campo técnico
Las realizaciones de la presente descripción se refieren al mapeo de la propagación de pulsos. Algunas se refieren al mapeo de la propagación de pulsos a través de un área que se produce dentro de una duración de un escaneo del obturador.
Antecedentes
La propagación de un pulso a través de un área puede medirse mediante el uso de mediciones de la fase de pulso al menos en dos momentos diferentes. La capacidad de resolver los cambios de fase está limitada por la velocidad de fotogramas de la cámara. Además, si se usa una cámara de obturador rodante (rolling shutter), se producirán cambios de fase desconocidos dentro de la duración de escaneo del obturador.
El documento de patente CN111429345A se refiere a un dispositivo de fotopletismografía (PPG) para mapear la propagación de pulsos usando un sensor CMOS. Dichos sensores, aunque no se mencionan explícitamente en el documento CN111429345A, típicamente hacen uso de un obturador rodante.
En la bibliografía no de patente XP081653471 (YURIY MIRONENKO, “ Remote Photopletismography: Rarly Considered Factors” , ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, ITHACA, NY 14853, 2020-04-27) el efecto del obturador rodante se menciona explícitamente en el contexto de un dispositivo PPG. Sin embargo, este documento simplemente menciona que “ es importante excluir posibles artefactos de escaneo progresivo (es decir, efecto del obturador rodante) en el desplazamiento de fase de las señales rPPG” , y que ese “ (efecto del obturador rodante) debe tenerse en cuenta correctamente y las interpretaciones de los desplazamientos de fase señal de PPG” , sin sugerir ninguna solución específica.
Breve resumen
La invención se define por el juego de reivindicaciones adjuntas. Las reivindicaciones dependientes definen además realizaciones detalladas.
De acuerdo con diversas realizaciones, pero no necesariamente todas, se proporciona un aparato que comprende medios para: controlar la captura de dos imágenes de un área, a través de las cuales se propaga un pulso, mediante el uso de diferentes direcciones de escaneo del obturador; convertir las imágenes en mapas de fase de pulso del área; obtener un mapa de diferencia de fase de pulso que identifica las diferencias entre los mapas de fase de pulso del área; obtener un mapa de diferencia de tiempo del obturador que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes; y corregir el mapa de diferencia de fase de pulso usando el mapa de diferencia de tiempo del obturador para obtener un mapa de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
De acuerdo con diversas realizaciones, pero no necesariamente todas, se proporciona un aparato que comprende medios para: controlar la captura de dos imágenes de un área, a través de las cuales se propaga un pulso, mediante el uso de diferentes direcciones de escaneo del obturador; obtener un mapa de diferencias de color que identifica las diferencias entre las dos imágenes; convertir el mapa de diferencias de color en un mapa de diferencia de fase de pulso; obtener un mapa de diferencia de tiempo del obturador que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes; y corregir el mapa de diferencia de fase de pulso usando el mapa de diferencia de tiempo del obturador para obtener un mapa de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
De acuerdo con diversas realizaciones, pero no necesariamente todas, se proporciona un aparato que comprende medios para: controlar la captura de dos imágenes de un área, a través de las cuales se propaga un pulso, mediante el uso de diferentes direcciones de escaneo del obturador y comenzando al mismo tiempo o un múltiplo entero de un intervalo de eje; obtener un mapa de diferencias de color que identifica las diferencias entre las dos imágenes; obtener un mapa de diferencia de tiempo del obturador que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes; y obtener un mapa de tasas de cambio de color mediante el uso del mapa de diferencia de color y el mapa de diferencia de tiempo del obturador, donde las tasas de cambio de color son indicativas de cambios de fase de pulso que han ocurrido durante una duración de un escaneo del obturador.
De acuerdo con diversas realizaciones, pero no necesariamente todas, se proporciona un método que comprende: controlar la captura de dos imágenes de un área, a través de las cuales se propaga un pulso, usando diferentes direcciones de escaneo del obturador; convertir las imágenes en mapas de fase de pulso del área y obtener un mapa de diferencia de fase de pulso que identifica las diferencias entre los mapas de fase de pulso del área, u obtener un mapa de diferencia de color que identifica las diferencias entre las dos imágenes y convertir el mapa de diferencia de color en un mapa de diferencia de fase de pulso; obtener un mapa de diferencia de tiempo del obturador que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes; y corregir el mapa de diferencia de fase de pulso usando el mapa de diferencia de tiempo del obturador para obtener un mapa de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
De acuerdo con diversas realizaciones, pero no necesariamente todas, se proporciona un programa informático que, cuando se ejecuta en un ordenador, realiza el control de la captura de dos imágenes de un área, a través de las cuales se propaga un pulso, mediante el uso de diferentes direcciones de escaneo del obturador; convertir las imágenes en mapas de fase de pulso del área y obtener un mapa de diferencia de fase de pulso que identifica las diferencias entre los mapas de fase de pulso del área, u obtener un mapa de diferencia de color que identifica las diferencias entre las dos imágenes y convertir el mapa de diferencia de color en un mapa de diferencia de fase de pulso; obtener un mapa de diferencia de tiempo del obturador que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes; y corregir el mapa de diferencia de fase de pulso usando el mapa de diferencia de tiempo del obturador para obtener un mapa de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
De acuerdo con diversas realizaciones, pero no necesariamente todas, se proporciona un medio legible por ordenador no transitorio que comprende instrucciones para realizar al menos lo siguiente o para hacer que un aparato realice al menos lo siguiente: provocar el control de la captura de dos imágenes de un área, a través de las cuales se propaga un pulso, usando diferentes direcciones de escaneo del obturador; convertir las imágenes en mapas de fase de pulso del área y obtener un mapa de diferencia de fase de pulso que identifica las diferencias entre los mapas de fase de pulso del área, u obtener un mapa de diferencia de color que identifica las diferencias entre las dos imágenes y convertir el mapa de diferencia de color en un mapa de diferencia de fase de pulso; obtener un mapa de diferencia de tiempo del obturador que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes; y corregir el mapa de diferencia de fase de pulso usando el mapa de diferencia de tiempo del obturador para obtener un mapa de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
La siguiente sección de este “ Resumen” describe varias características que pueden ser características de cualquiera de las realizaciones descritas en la parte anterior de la sección “ Resumen” . La descripción de una función debe considerarse adicionalmente para describir también cualquier medio adecuado para realizar esa función.
Controlar la captura de las dos imágenes puede comprender controlar el tiempo de captura en base a un intervalo de pulsos.
Controlar la captura de las dos imágenes puede comprender controlar el tiempo de captura para seguir la captura de imágenes de referencia respectivas del área usando la misma dirección de escaneo del obturador después de un retardo de la misma duración.
Controlar la captura de las dos imágenes puede comprender controlar el tiempo de captura para coincidir sustancialmente con la propagación de una característica objetivo de una forma de onda de pulso a través de una parte del área de interés.
Controlar la captura de las dos imágenes puede comprender configurar la configuración de uno o más de: un ángulo entre las diferentes direcciones de escaneo del obturador; una velocidad de escaneo del obturador; y un tamaño de apertura del obturador. La una o más configuraciones pueden modificarse para lograr diferencias en los tiempos de captura entre un primer subconjunto de ubicaciones correspondientes en las dos imágenes que son de mayor duración que las diferencias en los tiempos de captura entre un segundo subconjunto de ubicaciones correspondientes en las dos imágenes. El primer subconjunto representa una parte del área de interés y el segundo subconjunto representa otra parte del área.
Controlar la captura de las dos imágenes puede comprender configurar la configuración de uno o más de: un ángulo entre las diferentes direcciones de escaneo del obturador; una velocidad de escaneo del obturador; y un tamaño de apertura del obturador. La una o más configuraciones pueden configurarse basándose en una diferencia objetivo para capturar los tiempos entre ubicaciones correspondientes en las dos imágenes y/o una duración objetivo de un escaneo del obturador.
Obtener un mapa de diferencia de fase de pulso a partir de las dos imágenes puede comprender usar una relación periódica almacenada entre el color del área y el tiempo para inferir un fase de pulso de un color.
La conversión de las dos imágenes en mapas de fase de pulso del área puede comprender generar dos mapas de diferencia de color, cada uno de los cuales identifica diferencias entre las dos imágenes y las imágenes de referencia respectivas del área capturada usando la misma dirección de escaneo del obturador. Las tasas de cambio de color pueden usarse para identificar las fases de pulso en el momento de la captura.
La corrección del mapa de diferencia de fase de pulso puede comprender convertir el mapa de diferencia de tiempo del obturador al mapa de diferencia de fase de obturador. La conversión puede basarse en un intervalo de pulsos. El mapa de diferencia de fase de obturador puede restarse del mapa de diferencia de fase de pulso para corregir el mapa de diferencia de fase de pulso.
Se puede hacer que uno o más actuadores giratorios giren un sensor de imagen para permitir la captura del área mediante el uso de las diferentes direcciones de escaneo del obturador.
Puede producirse la provisión de orientación para un usuario entre la captura de las dos imágenes. La guía puede indicar una rotación manual de un sensor de imagen o el área que permite la captura del área mediante el uso de las diferentes direcciones de escaneo del obturador.
La captura de una segunda de las dos imágenes puede activarse en respuesta a una determinación de un cambio de orientación entre el área y un sensor de imagen que permite la captura del área mediante el uso de las diferentes direcciones de escaneo del obturador.
El control de la captura de las dos imágenes puede comprender la activación, sustancialmente al mismo tiempo, de la captura usando dos sensores de imagen que tienen diferentes direcciones de escaneo del obturador.
El control de la captura de las dos imágenes puede activarse mediante un evento de solicitud de autenticación. Según diversas realizaciones pero no necesariamente todas, se proporcionan ejemplos como se reivindica en las reivindicaciones adjuntas. Las reivindicaciones independientes exponen el alcance de protección pretendido para diversas realizaciones de la invención. Debe interpretarse que las realizaciones y las características, si las hubiera, descritas en esta memoria descriptiva que no estén dentro del alcance de las reivindicaciones independientes son ejemplos útiles para comprender diversas realizaciones de la invención.
Breve descripción
A continuación se describirán algunos ejemplos con referencia a los dibujos adjuntos, donde:
la figura 1 muestra un método ilustrativo;
la figura 2 ilustra un ejemplo de método;
la figura 3 muestra tiempos ilustrativos de captura de imágenes;
la figura 4 muestra ejemplos de configuración para la captura de imágenes;
las figuras 5A a 5C muestran ejemplos para lograr una dirección de escaneo del obturador diferente para la captura de imágenes;
la figura 6 muestra otro método ilustrativo;
la figura 7 muestra un aparato de ejemplo; y
la figura 8 muestra un ejemplo de mecanismo de entrega para un programa informático.
Descripción detallada
Los ejemplos de la divulgación se refieren al uso de imágenes capturadas con diferentes direcciones de escaneo del obturador para resolver información acerca de la propagación del pulso hasta dentro de una duración de un escaneo del obturador. La resolución temporal de la información acerca de la propagación del pulso depende, por lo tanto, de la velocidad de escaneo del obturador. Se puede lograr una resolución temporal más alta aumentando la velocidad de escaneo del obturador.
En algunos, pero no necesariamente todos los ejemplos descritos en el presente documento, el pulso es un pulso de tensión arterial en el que la tensión arterial aumenta y disminuye, respondiendo al ciclo cardíaco. Por consiguiente, el pulso es una función periódica, que tiene una forma de onda periódica, y una fase del pulso (fase de pulso) representa en qué etapa del ciclo cardíaco responde la presión sanguínea en una ubicación específica. En algunos pero no necesariamente todos los ejemplos descritos en el presente documento, el área a través de la cual se observa la propagación del pulso es una superficie corporal, por ejemplo, una cara o una palma, formada por tejido y vasculatura subyacente y microvasculatura (vasos sanguíneos) a través de los cuales fluye la sangre. El aumento y la caída de la presión sanguínea provocan cambios en el volumen de sangre subyacente a la superficie corporal. Los cambios en el volumen de sangre varían entre individuos por motivos que incluyen diferentes distribuciones espaciales de vasos sanguíneos y diferentes distancias de dichos vasos sanguíneos del corazón, donde una mayor distancia puede aumentar la amortiguación y el momento del cambio de presión. Los cambios en el volumen de sangre también pueden variar en función del estado emocional (a través de la liberación hormonal) y la salud del individuo, ya que estos factores pueden afectar a la elasticidad de las paredes de los vasos sanguíneos y, por lo tanto, a su resistencia a los cambios en el volumen.
En consecuencia, el pulso puede ser indicativo de un estado individual o de salud de un individuo o un estado emocional de un individuo. Por lo tanto, puede haber muchas razones para resolver la información sobre la propagación del pulso. Las razones pueden incluir, por ejemplo, identificación, salud y detección de mentiras. Los ejemplos de la presente descripción pueden encontrar aplicación en métodos y aparatos relacionados, por ejemplo, con identificación, salud y detección de mentiras.
Los cambios en el volumen de sangre subyacente a la superficie corporal dan como resultado cambios de color durante el período del ciclo cardíaco. Por lo tanto, los cambios en el volumen pueden detectarse detectando los cambios de color. Los cambios de color pueden detectarse en la reflectancia o absorbancia de luz por la superficie del cuerpo.
A pesar de lo anterior, debe apreciarse que los métodos y aparatos descritos en la presente descripción pueden usarse para resolver información sobre otras señales de pulso que se propagan a través de otras áreas tales como, por ejemplo, otras señales de pulso que provocan cambios ópticos periódicos, que incluyen cambios de color periódico, en el área a través de las cuales se propagan.
La figura 1 muestra un método de ejemplo 1 para obtener información espacio-temporal sobre una evolución del pulso. La información espacio-temporal obtenida está en forma de un mapa 31 de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador. El método 1 se describe también con referencia a la figura 2, que ilustra los bloques en el método que se muestran en la figura 1.
En el bloque 3, el método 1 comprende controlar la captura de dos imágenes 5, 7 de un área 33, a través de la cual se propaga el pulso, usando diferentes direcciones de escaneo del obturador 35, 43.
El escaneo del obturador expone sucesivamente tramos lineales paralelos de los sensores (fotositos discretos) de un sensor de imágenes usado para capturar una o ambas imágenes 5, 7 del área 33. El obturador puede ser un obturador mecánico, donde la luz incide solo en aquellas partes lineales de los sensores alineadas con la abertura del obturador. El obturador puede ser un obturador electrónico (virtual), donde la luz puede incidir en todos los sensel mientras, en un momento dado, las señales solo se leen desde un subconjunto formado en una amplitud lineal.
La captura de las dos imágenes 5, 7 usando diferentes direcciones de escaneo del obturador 35, 43 se ilustra en la figura 2.
Una primera imagen 5 se captura usando una primera dirección de escaneo del obturador 35. Una primera sección 37 del área 33 se captura en el tiempo T, una segunda sección 39 en un tiempo T+T, y una tercera sección 41 en el tiempo T+ 2t. La combinación de estas tres secciones 37, 39, 41 produce la primera imagen 5. Se apreciará que la primera imagen 5 puede producirse mediante la combinación de más de tres partes capturadas sucesivamente.
Una segunda imagen 7 se captura usando una segunda dirección de escaneo del obturador 43. Una cuarta sección 45 del área 33 se captura en un tiempo T' (tiempo T y tiempo T' puede ser iguales o diferentes), una quinta sección 47 en el tiempo T'+T, y una sexta sección 49 en el tiempo T'+ 2t. La combinación de estas tres secciones 45, 47, 49 produce la segunda imagen 7. Se apreciará que la segunda imagen 7 puede producirse mediante la combinación de más de tres secciones capturadas sucesivamente.
La segunda dirección de escaneo del obturador 43 es diferente a la primera dirección de escaneo del obturador 35. Las direcciones de escaneo del obturador primera y segunda 35, 43 son direcciones diferentes con respecto al área 33. Pueden no ser diferentes direcciones en relación con un sensor de imagen. Por ejemplo, si se utiliza un obturador mecánico que tiene una dirección de escaneo fija con respecto a un sensor de imagen para realizar el escaneo del obturador y el sensor de imagen se gira con relación al área 33 entre la captura de la primera imagen 5 y la captura de la segunda imagen 7, entonces las primera y segunda direcciones de escaneo del obturador 35, 43 serán direcciones diferentes con respecto al área 33. En otros ejemplos, pueden ser direcciones diferentes también con respecto al sensor de imágenes. Por ejemplo, si un sensor de imágenes usado para capturar la primera y segunda imágenes 5, 7 utiliza un obturador electrónico (virtual), entonces las primera y segunda direcciones de escaneo del obturador 35, 43 también pueden ser direcciones diferentes con respecto al sensor de imagen.
Las dos imágenes 5, 7 pueden capturarse usando sustancialmente la misma velocidad de escaneo del obturador y sustancialmente la misma anchura de apertura del obturador.
Las dos imágenes 5, 7 pueden capturarse como tramas de un vídeo.
En algunos ejemplos, controlar la captura de las dos imágenes 5, 7 y, por lo tanto, el método 1 en su conjunto, puede activarse mediante un evento de solicitud de autenticación. Controlar la captura de las dos imágenes 5, 7 puede, en otros ejemplos, activarse por otros eventos de disparo tales como, por ejemplo, una entrada de usuario a un dispositivo en el que se realiza el método 1 o una solicitud de una o más aplicaciones ejecutadas en ese dispositivo. Las solicitudes pueden realizarse mediante cualquier aplicación para la cual será beneficiosa una alta resolución temporal de la propagación de un pulso dentro del área 33.
En algunos ejemplos, las imágenes del área 33 pueden capturarse usando más de solo dos direcciones de escaneo del obturador diferentes. Por ejemplo, una o más imágenes pueden capturarse usando una o más direcciones de escaneo del obturador que están orientadas entre las direcciones de escaneo del obturador primera y segunda 35, 43. Por ejemplo, cuando las direcciones de escaneo del obturador primera y segunda 35, 43 difieren en 90 grados en arco, una tercera imagen puede capturarse usando una dirección de escaneo del obturador que difiere de la primera y segunda direcciones de escaneo del obturador 35, 43 en 45 grados en arco. Imágenes tales como esta tercera imagen proporcionan mediciones de repetición y, por lo tanto, reducción de ruido.
El método 1 comprende obtener un mapa de diferencia de fase de pulso 17 a partir de las dos imágenes 5, 7. En el presente documento se describen dos alternativas para obtener el mapa de diferencia de fase de pulso 17. Estas alternativas se muestran por dos trayectorias paralelas, usando líneas discontinuas, en la figura 1. Ambas alternativas implican un elemento de comparación y conversión de valores de color con valores de fase de pulso, aunque debe apreciarse que en otros ejemplos otras características de imagen además del color pueden ser indicativas de fase de pulso y, por lo tanto, pueden usarse para volver a parametrizar las dos imágenes 5, 7 o derivados de las mismas, en el dominio de fase de pulso.
En la primera alternativa (ruta izquierda mostrada en la figura 1), el procedimiento 1 comprende los bloques 9 y 15.
En el bloque 9, el método 1 comprende convertir las imágenes 5, 7 en mapas de fase de pulso 11, 13 del área 33. Los mapas de fase de pulso 11, 13 difieren entre sí. La fase de pulso tiene una distribución espacio-temporal en el área 33. El área 33 se captura de acuerdo con diferentes distribuciones temporales como resultado de las diferentes direcciones de escaneo del obturador 35, 43. Por lo tanto, se grabarán diferentes distribuciones espaciales de fase de pulso dentro del área 33 (mediante diferencias de color) en las dos imágenes 5, 7.
En algunos ejemplos, convertir las imágenes 5, 7 en mapas de fase de pulso 11, 13 comprende usar una relación periódica almacenada entre el color del área 33 y el tiempo para inferir un fase de pulso de un color. La relación de período almacenada puede ser genérica para la clase o subclase de área a la que pertenece el área 33. Por ejemplo, cuando el área 33 es una cara, la relación periódica almacenada puede ser genérica para caras o puede ser genérica para caras, pero, por ejemplo, de la misma edad. La relación periódica almacenada puede ser específica para el área 33. Por ejemplo, la relación periódica almacenada puede haberse capturado durante la propagación de un pulso anterior a través del área 33.
En algunos ejemplos, fase de pulso dentro del mapa de fase de pulso 11 puede normalizarse restando el valor de fase de pulso mínimo derivado de la primera imagen 5 de los valores de fase de pulso en cada ubicación de modo que el mapa de fase de pulso 11 identifica los fase de pulso relativos entre las ubicaciones mapeadas. El mapa de fase de pulso 13 también puede normalizarse restando el valor mínimo de fase de pulso derivado de la segunda imagen 7 de los valores de fase de pulso en cada ubicación de modo que el mapa de fase de pulso 13 identifica los fase de pulso relativos entre las ubicaciones mapeadas.
En algunos ejemplos, la fase de pulso dentro del mapa de fase de pulso 11 puede normalizarse restando el promedio, por ejemplo medio promedio, el valor de fase de pulso derivado de la primera imagen 5 de los valores de fase de pulso en cada ubicación de modo que el mapa de fase de pulso 11 identifica los fase de pulso relativos entre las ubicaciones mapeadas. El mapa de fase de pulso 13 también puede normalizarse restando el valor promedio, por ejemplo medio promedio, el valor de fase de pulso derivado de la segunda imagen 7 de los valores de fase de pulso en cada ubicación de modo que el mapa de fase de pulso 13 identifica los fase de pulso relativos entre las ubicaciones mapeadas.
En el bloque 15, el método 1 comprende obtener el mapa de diferencia de fase de pulso 17 que identifica las diferencias entre los mapas de fase de pulso 11, 13 del área 33. Las diferencias entre los mapas de fase de pulso 11, 13 pueden identificarse restando los valores de fase de pulso en las ubicaciones correspondientes en los mapas de fase de pulso 11, 13. “ Ubicaciones correspondientes” se refieren a la misma subsección del área 33. Esto es: un valor de fase de pulso para una subsección del área 33 que se registra en uno de los mapas de fase de pulso 11, 13 se resta del valor de fase de pulso para la misma subsección del área 33 como se registra en el otro de los mapas de fase 11, 13 para obtener un valor de diferencia de fase de pulso para esa subsección del área 33 que se va a registrar en el mapa de diferencia de fase de pulso 17, que registra los valores de diferencia de fase de pulso para todas las subsecciones del área 33.
En la segunda alternativa (ruta derecha mostrada en la figura 1), el procedimiento 1 comprende los bloques 19 y 23.
En el bloque 19, el método 1 comprende obtener un mapa de diferencia de color 21 que identifica diferencias entre las dos imágenes 5, 7. Las diferencias entre las imágenes 5, 7 pueden identificarse restando los valores de color de las ubicaciones correspondientes en las dos imágenes 5, 7. Cada sensel de un sensor de imágenes captura una subsección del área 33 como un píxel en las respectivas imágenes 5, 7. “ Ubicaciones correspondientes en las dos imágenes 5, 7” se refiere a la misma subsección del área 33, no a la misma posición de píxel, aunque esto también puede ser cierto si las imágenes 5, 7 están alineadas adecuadamente.
En el bloque 23, el método 1 comprende convertir el mapa de diferencia de color 21 en un mapa de diferencia de fase de pulso 17. En algunos ejemplos, esta conversión usa la relación periódica almacenada entre el color del área 33 y el tiempo, descrito con referencia al bloque 9, para inferir el fase de pulso del color.
En el bloque 25, el método 1 comprende obtener un mapa de diferencia de tiempo del obturador 27 que identifica diferencias entre tiempos de captura de ubicaciones correspondientes en las dos imágenes 5, 7. Como anteriormente, “ ubicaciones correspondientes en las dos imágenes 5, 7” se refiere a la misma subsección del área 33. Los tiempos de captura pueden considerarse en relación con el comienzo de la captura de imágenes respectivas. Los tiempos de captura pueden expresarse como diferencias de tiempo positivas en relación con el momento en el que se captura un píxel tal como, por ejemplo, el tiempo T para la primera imagen 5 y el tiempo T' para la segunda imagen 7.
La figura 2 ilustra un mapa de diferencia de tiempo del obturador 27 ilustrativo en el que el ángulo entre las diferentes direcciones de escaneo del obturador 35, 43 es de 90 grados. Las ubicaciones correspondientes a lo largo de una diagonal central tal como, por ejemplo, de arriba izquierda a abajo-derecha, se capturarían al mismo tiempo en relación con los respectivos principiantes de la captura y, por lo tanto, las diferencias en el tiempo de captura entre estas ubicaciones correspondientes son cero. En el ejemplo ilustrado en la figura 2 con las imágenes 5, 7 se compone de cada una de las tres secciones capturadas en diferentes momentos, una mayor diferencia en el tiempo de captura viene para esas subsecciones del área 33 que son parte de las secciones primera y sexta 37, 49 del área 33 o una parte de la tercera y cuarta secciones 41, 45 del área 33. Para estas ubicaciones correspondientes, las diferencias de tiempo de captura son 2t. Como se apreciará, por lo tanto, el mapa de diferencia de tiempo del obturador 27 depende del ángulo entre las diferentes direcciones de escaneo del obturador 35, 43 y configuraciones de obturador tales como la velocidad de escaneo del obturador y el tamaño de apertura del obturador. Por lo tanto, en algunos ejemplos donde los ajustes de ángulo y obturador son fijos o usan una configuración preestablecida, obtener el mapa de diferencia de tiempo del obturador 27 puede comprender la recuperación de una versión almacenada desde una memoria. En otros ejemplos, el mapa de diferencia de tiempo del obturador 27 se puede calcular a partir de los ajustes de ángulo y obturador.
En el bloque 29, el método 1 comprende corregir el mapa de diferencia de fase de pulso 17 mediante el uso del mapa de diferencia de tiempo del obturador 27 para obtener un mapa de cambios de fase de pulso 31 que se han producido durante la duración de un escaneo del obturador. La duración de un escaneo del obturador es el tiempo necesario para capturar una sola imagen usando captura de imagen de obturador rodante. Es el tiempo necesario para que el obturador escanee a través del sensor de imágenes, exponiendo cada uno de los sensel durante un tiempo de exposición determinado.
En algunos ejemplos, corregir el mapa de diferencia de fase de pulso 17 comprende convertir el mapa de diferencia de tiempo del obturador 27 en un mapa de diferencia de fase de obturador. Esta conversión se basa en un intervalo de pulso; es decir: en el período del ciclo cardíaco. Para un ser humano promedio en reposo, esto es aproximadamente 1 segundo. Se puede considerar una diferencia de fase que representa una proporción del período de una función periódica. Por lo tanto, un tiempo puede convertirse en una diferencia de fase de pulso mediante el uso del intervalo de pulsos. Las diferencias en los tiempos de captura para las ubicaciones correspondientes en las imágenes 5, 7 se pueden convertir en diferencias de fase de pulso usando el intervalo de pulsos. El mapa de diferencia de fase de obturador resultante representa la diferencia de fase de pulso que se vería entre los mapas de fase de pulso 11, 13 (o entre las dos imágenes 5, 7 si se convirtieron en mapas de fase de pulso) si fase de pulso en cada ubicación dentro del área 33 cambió de la misma manera. Sin embargo, el pulso en cada ubicación dentro del área 33 tiene una evolución diferente debido, por ejemplo, a diferencias en la vasculatura subyacente y/o microvasculatura, y por lo tanto no cambia de la misma manera. Por lo tanto, si restamos el mapa de diferencia de fase de obturador del mapa de diferencia de fase de pulso 17, lo que obtenemos es un mapa 31 de los cambios de fase de pulso que se produjeron dentro del área 33 debido a la evolución del pulso durante la duración del escaneo del obturador.
El orden respectivo de los bloques 15 o 23 y el bloque 29 en el método 1 mostrado en la figura 1 no deben entenderse como que requieren que se realicen completamente sucesivamente. La obtención y corrección del mapa de diferencia de fase de pulso 17 puede realizarse sustancialmente de forma simultánea, por ejemplo, obteniendo y corrigiendo la diferencia de fase de pulso para cada ubicación correspondiente en la imagen 5, 7 a su vez o por cualquier otro medio de obtención incremental o progresivamente del mapa 31 de cambios de fase de pulso.
La figura 3 ilustra un número de ejemplos de cómo se puede controlar la sincronización de la captura de las dos imágenes 5, 7. El control del tiempo de captura puede ser un aspecto de controlar la captura en el bloque 3 del método 1.
En algunos ejemplos, la temporización de la captura de las dos imágenes 5, 7 puede basarse en el momento de la captura de las respectivas imágenes de referencia 51,53. El bloque 3 del método 1 puede comprender controlar el tiempo de captura de las dos imágenes 5, 7 para seguir captura de las respectivas imágenes de referencia 51, 53 del área 33, usando la misma dirección de escaneo del obturador, después de un retardo 55 de la misma duración. Es decir, el tiempo de captura de la primera imagen 5 sigue la captura de una primera imagen 51 a la que se hace referencia después de un retardo 55. La primera imagen 5 se captura usando la misma dirección de escaneo del obturador 35 como la primera imagen de referencia 51. El tiempo de captura de la segunda imagen 7 sigue la captura de una segunda imagen de referencia 53 después de un retardo 55 de la misma duración (el intervalo entre los tiempos T<1>y T<2>es el mismo entre los tiempos T<1>' y T<2>'). La segunda imagen 7 se captura usando la misma dirección de escaneo del obturador 43 como la segunda imagen de referencia 53.
Las imágenes de referencia 51, 53 pueden capturarse usando sustancialmente la misma velocidad de escaneo del obturador y sustancialmente la misma anchura de apertura del obturador que se usan para capturar las imágenes 5, 7.
Aunque la figura 3 muestra la captura tanto de la primera imagen de referencia 51 como de la primera imagen 5 antes de la captura de la segunda imagen de referencia 53 y la segunda imagen 7 (el intervalo entre los tiempos T<1>y T<1>' es mayor entre los tiempos T<1>y T<2>), se apreciará que las dos imágenes de referencia 51, 53 pueden capturarse antes de cualquiera de las dos imágenes 5, 7. Por ejemplo, el orden de captura puede ser el siguiente: la primera imagen de referencia 51, la segunda imagen de referencia 53, la primera imagen 5 y luego la segunda imagen 7 (el intervalo entre los tiempos T<1>y T<1>' puede ser menor que el intervalo entre los tiempos T<1>y T<2>). Esto implica el cambio de la dirección de escaneo del obturador entre cada captura de imagen. Alternativamente, la primera y segunda imágenes de referencia 51, 53 pueden capturarse sustancialmente al mismo tiempo (tiempo T<1>y T<1>' puede ser el mismo), seguido de la primera y segunda imágenes 5, 7 capturadas sustancialmente al mismo tiempo (tiempo T<2>y T<2>' puede ser el mismo).
Las imágenes 51,53 referenciadas pueden usarse para tener en cuenta las diferencias en las fases de pulsos en el momento en que comienzan las respectivas capturas de las imágenes 5, 7. Esto permite que las dos imágenes 5, 7 se capturen dentro de un solo intervalo de pulsos 57 (dentro de un solo ciclo cardíaco). La conversión de las dos imágenes 5, 7 en mapas fase de pulso 11, 13 del área 33, según el bloque 9 del método 1, puede comprender generar dos mapas de diferencia de color, cada uno de los cuales identifica diferencias entre las dos imágenes 5, 7 y las imágenes de referencia 51, 53 respectivas del área 33 capturadas usando la misma dirección de escaneo del obturador. Las tasas de cambio de color pueden determinarse mediante el uso de los mapas de diferencia de color y el retardo 55. Las tasas de cambio de color se pueden usar para identificar fases de pulsos en el momento de la captura de las dos imágenes 5, 7. El uso de tasas de cambio de color en lugar de valores de color para realizar la conversión al dominio en fase de pulso puede dar como resultado un menor ruido.
Un ejemplo de una relación temporal entre el momento de la captura de las imágenes 5, 7 y una evolución (forma de onda 59) de un pulso en, por ejemplo, una sección del área 33 de interés se muestra también en la figura 3.
En algunos ejemplos, el momento de la captura puede basarse en el intervalo de pulsos 57. El inicio de la captura de captura y de obturador con respecto a la primera imagen 5 puede ser seguido después de un retardo, igual al intervalo de pulsos 57, mediante el inicio de la captura y el escaneo del obturador con respecto a la segunda imagen 7. Debe apreciarse que las capturas pueden comenzar otro múltiplo entero del intervalo de pulsos 57 aparte. Por lo tanto, el bloque 3 del método 1 puede comprender, en algunos ejemplos, controlar la captura de las dos imágenes 5, 7 de modo que las capturas comienzan un múltiplo entero del intervalo de pulsos 57. Al comenzar a capturar un múltiplo entero del intervalo de pulsos 57 aparte, las capturas comenzarán a los mismos fase de pulso que permiten que las imágenes 5, 7 (o derivados de ellos tales como los mapas de fase de pulso 11, 13) se comparen directamente. En algunos de tales ejemplos, las imágenes 51, 53 referenciadas pueden no capturarse.
En algunos ejemplos, el momento de la captura puede basarse en una característica objetivo 61 de la forma de onda de impulso 59. El bloque 3 del método 1 puede comprender controlar la temporización de la captura de una o más de las dos imágenes 5, 7 para coincidir sustancialmente con la propagación de una característica de destino 61 de una forma de onda de pulso 59 a través de una parte del área 33 de interés. En algunos ejemplos, para habilitar que la captura se programe para que coincida con la característica objetivo 61, la temporización del elemento objetivo 61 puede determinarse a partir de la observación de un cambio de color en la sección, que es característico de la característica objetivo 61, en un ciclo de cambio de color anterior y la captura de imágenes 5, 7 puede realizarse en cualquier múltiplo entero del intervalo de pulsos 57 después. El elemento objetivo 61 puede ser una característica de la forma de onda de impulso 59 que permite un reconocimiento de fase más preciso. Un ejemplo de tal característica es la muesca dicrótica, que está marcada como la característica objetivo 61 en la figura 3.
El momento de la captura puede basarse en uno o ambos del intervalo de pulsos 57 y la característica objetivo 61 de la forma de onda de pulso 59.
En algunos ejemplos, el tiempo de captura de las imágenes 5, 7 puede no controlarse específicamente. En cambio, las imágenes 5, 7 (y las imágenes de referencia 51, 53, si se usan) pueden seleccionarse de una secuencia de tramas obtenidas por captura de vídeo.
El criterio de selección principal puede ser la dirección de escaneo del obturador con la que se capturan las tramas. Por ejemplo, si solo se captura una trama usando la primera dirección de escaneo del obturador 35, entonces esta trama se seleccionará como la primera imagen 5 y si solo una trama se captura usando la segunda dirección de escaneo del obturador 43, entonces esta trama se seleccionará como la segunda imagen 7.
Los criterios de selección secundarios pueden incluir las consideraciones de temporización descritas con referencia a la figura 3 anterior.
Por ejemplo, cuando se capturan múltiples tramas usando la primera dirección de escaneo del obturador 35, uno de estos estativos que también coincide sustancialmente con la propagación de una característica objetivo 61 de una forma de onda de pulso 59 a través de una sección del área 33 de interés puede seleccionarse como la primera imagen 5. Asimismo, cuando se capturan múltiples tramas usando la segunda dirección de escaneo del obturador 43, uno de estos estativos que también coincide sustancialmente con la propagación de una característica objetivo 61 de una forma de onda de pulso 59 a través de una sección del área 33 de interés puede seleccionarse como la segunda imagen 7.
La primera y la segunda imágenes 5, 7 pueden seleccionarse pares de tramas (en el caso de que haya más de un par) que se capturan respectivamente utilizando las direcciones de escaneo del obturador primera y segunda 35, 43 y se capturan un múltiplo entero del intervalo de pulsos 57 aparte.
A partir de aquellas tramas capturadas usando la primera dirección de escaneo del obturador 35, se puede seleccionar un par de tramas con un retardo 55 entre sus respectivas capturas como la primera imagen de referencia 51 y la primera imagen 5 si, entre aquellas tramas capturadas usando la segunda dirección de escaneo del obturador 43, hay un par de tramas que tienen el mismo retardo 55 entre sus respectivas capturas. Ese par de tramas, entre las capturadas usando la segunda dirección de escaneo del obturador 43, puede seleccionarse como la segunda imagen de referencia 53 y la segunda imagen 7.
La figura 4 ilustra ejemplos de configuración de configuraciones relacionadas con capturas. Los ejemplos de configuraciones relacionadas con la captura pueden incluir, por ejemplo: un ángulo 71 entre las diferentes direcciones 35, 43; una velocidad de escaneo del obturador 73; y un tamaño 75 de apertura del obturador. En los ejemplos de la figura 4, se pueden configurar los ajustes de uno o más de estos. El control de la captura de imágenes 5, 7 en el bloque 3 del método 1 puede basarse en la configuración resultante. Por lo tanto, los bloques 63 y 77 ilustrados en la figura 4 pueden ser subbloques del bloque 3.
En algunos ejemplos, en el bloque 63, el método 1 comprende configurar la configuración de uno o más de: un ángulo 71 entre las diferentes direcciones 35, 43; una velocidad de escaneo del obturador 73; y un tamaño 75 de apertura de obturador, para lograr diferencias en tiempos de captura entre un primer subconjunto de ubicaciones correspondientes en las dos imágenes 5, 7 que son de mayor duración que las diferencias en los tiempos de captura entre un segundo subconjunto de ubicaciones correspondientes en las dos imágenes 5, 7. En estos ejemplos, el primer subconjunto representa una sección 65 del área 33 de interés y el segundo subconjunto representa otra sección del área 33. Las secciones 65 del área de interés 33 pueden incluir aquellas que tienen una vasculatura subyacente y/o microvasculatura que es suficientemente distintiva para permitir la identificación del usuario con fines de autorización. Un registro de tales secciones 65 puede almacenarse en una memoria y recuperarse con el fin de configurar los ajustes de los parámetros relacionados con la captura. Las secciones 65 del área 33 que se sabe que son de interés pueden reconocerse a partir de una imagen en vivo del área 33 mediante el uso, por ejemplo, de la visión del ordenador.
En algunos ejemplos, en el bloque 63, el método 1 comprende configurar configuraciones basándose en una diferencia objetivo en tiempos de captura (diferencia tiempo de captura objetivo 67) entre ubicaciones correspondientes en las dos imágenes 5, 7 y/o una duración objetivo 69 de un escaneo del obturador.
La diferencia de tiempo de captura objetivo 67 puede ser para al menos un subconjunto de las ubicaciones correspondientes y no necesariamente para todas las ubicaciones correspondientes. Dicho subconjunto puede ser el primer subconjunto mencionado anteriormente que representa una sección 65 del área 33 de interés. La diferencia de tiempo de captura objetivo 67 proporciona un contraste de color suficiente entre ubicaciones correspondientes para permitir que fase de pulso se resuelva con precisión. Por lo tanto, la diferencia de tiempo de captura objetivo 67 puede basarse en la sensibilidad del sensor de imagen a diferencias de color y también puede basarse en las condiciones de iluminación actuales.
La duración objetivo 69 de un escaneo del obturador puede basarse en una resolución temporal objetivo de cambios de fase de pulso. Al configurar los ajustes, puede ser aceptable superar este objetivo, lo que significa que una duración más corta del escaneo del obturador que la duración del objetivo 69 y, por lo tanto, se puede obtener una mayor resolución temporal que la resolución temporal objetivo.
En algunos ejemplos, la diferencia de tiempo de captura objetivo 67 y la duración objetivo 69 del escaneo del obturador pueden entrar en conflicto. Por ejemplo, puede ser posible lograr la diferencia de tiempo de captura objetivo 67 solo si la duración del escaneo del obturador es superior a la duración objetivo 69. Por lo tanto, la configuración de los ajustes, como en el bloque 63, puede comprender una optimización que toma una o ambas de las diferencias de tiempo de captura objetivo 67 y la duración objetivo 69 del escaneo del obturador como restricciones parciales, donde no es esencial que los objetivos se cumplan pero su incumplimiento para satisfacer las mismas y la extensión a la que no se satisfacen se penaliza en la optimización.
Las figuras 5A a 5C ilustran ejemplos de cómo se pueden lograr las diferentes direcciones 35, 43 de escaneo del obturador.
Cada una de las figuras 5A a 5C muestra sensores de imágenes 81 (y 83) comprendidos en un dispositivo 79. Los sensores de imagen 81 (y 83) pueden ser sensibles a la luz visible o infrarroja. Los sensores de imagen 81 (y 83) pueden ser sensores de imagen de obturador rodante. El obturador puede ser un obturador mecánico o un obturador electrónico (virtual). Los sensores de imagen 81 (y 83) pueden configurarse para capturar vídeo. El dispositivo 79 puede ser un aparato electrónico. Puede ser portátil, tal como un dispositivo de usuario, o fijarse a una estructura, tal como un edificio o vehículo.
En el ejemplo de la figura 5A, para habilitar la captura del área 33 usando las diferentes direcciones de escaneo del obturador 35, 43 usando un único sensor de imagen 81, el sensor de imagen 81 se gira con respecto al dispositivo 79 en el que está comprendido. Por ejemplo, el dispositivo 79 puede comprender uno o más actuadores giratorios 85 configurados para girar el sensor de imagen 81. El sensor de imagen 81 puede girarse alrededor de un eje óptico de una lente asociada con el sensor de imagen 81.
Por lo tanto, incluso si la dirección de escaneo del obturador se fija con respecto al sensor de imagen 81, girando el sensor de imagen 81 con respecto al dispositivo 79, se puede cambiar la dirección de escaneo del obturador para capturar diferentes imágenes mientras el dispositivo 79 se mantiene en su posición con relación al área 33 que debe capturarse.
Por lo tanto, el método 1 puede comprender hacer que uno o más actuadores giratorios 85 giren un sensor de imagen 81 para permitir la captura del área 33 mediante el uso de las diferentes direcciones de escaneo del obturador 35, 43.
El uso de uno o más actuadores giratorios 85 para girar un sensor de imagen 81 permite una reorientación relativamente rápida de la dirección de escaneo del obturador. Por ejemplo, el uno o más actuadores giratorios 85 pueden configurarse para girar el sensor de imagen 81 a 270 grados en arco o más dentro de un solo intervalo de pulso 57, que, para un ser humano promedio en reposo, es de aproximadamente 1 segundo. Por lo tanto, el ejemplo de la figura 5A es adecuado para implementar el método 1 donde las direcciones de escaneo del obturador se cambian entre cada captura de imagen. Por ejemplo, el ejemplo de la figura 5A es adecuado para capturar la primera imagen de referencia 51, la segunda imagen de referencia 53, la primera imagen 5 y la segunda imagen 7 en ese orden dentro de un solo intervalo de pulso 57. La captura de estas imágenes dentro de un solo intervalo de pulso 57 puede dar como resultado un menor ruido en el mapa 31 de cambios en fase de pulso.
En el ejemplo de la figura 5B, el sensor de imagen 81 no es giratorio con respecto al dispositivo 79 en el que está comprendido. La dirección de escaneo del obturador se fija con relación al sensor de imágenes 81. Para habilitar la captura del área 33 usando las diferentes direcciones 35, 43 de escaneo del obturador, el dispositivo 79 puede girarse con respecto al área 33 que debe capturarse. El dispositivo 79 puede comprender una interfaz de usuario 87 configurada para proporcionar orientación a un usuario entre la captura de las dos imágenes 5, 7. La guía indica una rotación manual del sensor de imagen 81 (por medio de la rotación manual del dispositivo 79 en el que está compuesto) o el área 33 que permite la captura del área 33 usando las diferentes direcciones de escaneo del obturador 35, 43.
La guía puede comprender características visuales en ejemplos donde la interfaz de usuario 87 es una pantalla o características auditivas en ejemplos donde la interfaz de usuario 87 es un altavoz.
La guía puede guiar al usuario para mover el dispositivo 79 continuamente a través de un arco de rotación que cambia la orientación del sensor de imagen 81 con respecto al área 33 pero que minimiza el movimiento de la posición del sensor de imagen en el espacio.
Alternativamente, la guía puede indicar una o múltiples orientaciones para que el usuario efectúe entre el dispositivo 79 (y el sensor de imagen 81) y el área 33 sin proporcionar orientación sobre cómo mover el dispositivo 79 entre estas orientaciones.
La guía también puede guiar al usuario a girar el área 33 con respecto al dispositivo 79 de manera que el dispositivo 79 pueda permanecer estático. Por ejemplo, el usuario puede guiarse para inclinar su cabeza para girar su cara con respecto al dispositivo 79 o para girar una palma con respecto al dispositivo 79 en ejemplos donde, respectivamente, el área 33 a formar imágenes es la cara o palma del usuario.
Por lo tanto, el método 1 puede comprender la provisión de orientación al usuario entre la captura de las dos imágenes 5, 7, la orientación que indica una rotación manual de un sensor de imagen 81 o el área 33 que permite la captura del área 33 mediante el uso de las diferentes direcciones de escaneo del obturador 35, 43.
En los ejemplos de las figuras 5A y 5B, la captura de la segunda imagen 7 (o la de las dos imágenes 5, 7 se captura más tarde) se puede activar en respuesta a una determinación de un cambio de orientación entre el área 33 y el sensor de imagen 81 que permite la captura del área 33 usando las diferentes direcciones de escaneo del obturador 35, 43 o usando sustancialmente las diferentes direcciones de escaneo del obturador 35, 43, donde el ángulo entre las direcciones reales de escaneo del obturador está dentro de un umbral de tolerancia del ángulo 71 establecido por el bloque 63 del método 1. En el ejemplo de la figura 5A, esta determinación puede comprender detectar la finalización de la rotación del sensor de imagen 81 a través del ángulo entre las direcciones de escaneo del obturador objetivo 35, 43 por el uno o más actuadores giratorios 85. En el ejemplo de la figura 5B, esta determinación puede comprender detectar la rotación manual que se ha completado usando, por ejemplo, acelerómetros, giroscopios y/o magnetómetros del dispositivo 79 o, por ejemplo, procesar datos de imagen en vivo para reconocer que la orientación de las características en el área 33 ha cambiado por el ángulo entre las direcciones de escaneo del obturador objetivo 35, 43.
Alternativamente, las dos imágenes 5, 7 pueden capturarse por un único sensor de imagen 81 usando las diferentes direcciones de escaneo del obturador 35, 43 sin rotación relativa entre el sensor de imagen 81 y el área 33 si el sensor de imagen 81 utiliza un obturador electrónico (virtual).
En el ejemplo de la figura 5C, dos sensores de imagen 81, 83 permiten la captura de las dos imágenes 5, 7 sustancialmente al mismo tiempo. Los dos sensores de imagen 81, 83 están comprendidos en el dispositivo 79 y tienen, al menos en el momento de la captura, diferentes direcciones de escaneo del obturador 35, 43. Pueden fijarse con diferentes direcciones de escaneo del obturador o uno o ambos pueden ser giratorios con respecto al dispositivo 79 de la manera descrita con referencia a la figura 5A. Alternativamente, si los dos sensores de imagen 81, 83 utilizan obturadores electrónicos (virtuales), entonces no es necesario que el sensor de imagen 81 o el sensor de imagen 83 giren.
El método 1 puede comprender, por lo tanto, activar, sustancialmente al mismo tiempo, la captura usando dos sensores de imagen 81,83 que tienen, al menos en el momento de la captura, diferentes direcciones de escaneo del obturador 35, 43.
Los ejemplos descritos anteriormente han incluido una conversión, por ejemplo en el bloque 9 o el bloque 23, entre color (u otras características ópticas) y fase de pulso. Convertir las mediciones en fase de pulso permite la comparación con mediciones tomadas en diferentes etapas en el ciclo cardíaco. Esto significa que el método 1 puede usar imágenes 5, 7 que se han capturado dentro de un solo ciclo. Sin embargo, en los ejemplos donde las dos imágenes 5, 7 se capturan al mismo tiempo (por ejemplo, mediante el uso de dos sensores de imagen como se describe con referencia a la figura 5C) o un múltiplo entero del intervalo de pulsos 57 aparte, se puede omitir la conversión entre color y fase de pulso. La figura 6 muestra un método de ejemplo 89 que omite la conversión.
En el bloque 3, el método 89 comprende controlar la captura de dos imágenes 5, 7 de un área 33, a través de las cuales se propaga un pulso, usando diferentes direcciones de escaneo del obturador 35, 43. En el método 89, controlar la captura de las dos imágenes 5, 7 comprende además iniciar las capturas al mismo tiempo o un múltiplo entero del intervalo de pulsos 57 aparte. El control de la captura de las dos imágenes 5, 7 puede ser el mismo que el descrito en cualquiera de los ejemplos anteriores descritos con referencia al método 1. Por ejemplo, la temporización de la captura puede controlarse para coincidir sustancialmente con la propagación de una característica objetivo 61 de una forma de onda de impulso 59 a través de una sección 65 del área 33 de interés como se describe con referencia a la figura 3. Por ejemplo, la configuración de uno o más de: un ángulo 71 entre las diferentes direcciones 35, 43; una velocidad de escaneo del obturador 73; y un tamaño 75 de apertura de obturador, puede configurarse como se describe con referencia a la figura 4. Por ejemplo, las diferentes direcciones de escaneo del obturador 35, 43 se pueden lograr como se describe con referencia a cualquiera de las figuras 5A a 5C.
En el bloque 19, el método 89 comprende obtener un mapa de diferencia de color 21 que identifica diferencias entre las dos imágenes 5, 7. La obtención del mapa de diferencia de color 21 puede ser la misma que se describe en cualquiera de los ejemplos anteriores descritos con referencia al método 1.
En el bloque 25, el método 89 comprende obtener un mapa de diferencia de tiempo del obturador 27 que identifica diferencias entre tiempos de captura de ubicaciones correspondientes en las dos imágenes 5, 7. La obtención del mapa de diferencia de tiempo del obturador 27 puede ser la misma que la descrita en cualquiera de los ejemplos anteriores descritos con referencia al método 1.
En el bloque 91, el método 89 comprende obtener un mapa 93 de velocidades de cambio de color usando el mapa de diferencia de color 21 y el mapa de diferencia de tiempo del obturador 27. Las tasas de cambio de color son indicativas de cambios en fase de pulso que han ocurrido durante una duración de un escaneo del obturador.
En algunos ejemplos, el promedio, por ejemplo medio promedio, la velocidad de cambio de color se resta de la tasa de cambio de color en cada ubicación mapeada en el mapa 93 de tasas de cambio de color para obtener un mapa de tasas de cambio de color relativas. En otros ejemplos, la tasa de cambio de color mínima se resta de la tasa de cambio de color en cada ubicación mapeada en el mapa 93 de tasas de cambio de color para obtener un mapa de tasas de cambio de color relativas. La resta de la tasa de cambio de color promedio puede ser preferida a la resta de la tasa mínima de cambio de color, ya que es menos susceptible a un ruido de alta frecuencia o de píxeles individuales.
Debido a que las tasas de cambio de color son indicativas de cambios en fase de pulso, al menos algunas aplicaciones que usan el mapa 31 de cambios en fase de pulso pueden adaptarse para usar el mapa 93 de tasas de cambio de color o mapa de tasas de cambio de color relativas. Por ejemplo, la autenticación se puede realizar usando tasas de cambio de color. Por ejemplo, la autenticación se puede realizar usando las tasas de cambio de color del mapa 93, las tasas de cambio de color relativas como entre diferentes ubicaciones mapeadas, diferencias en las tasas de cambio de color entre secciones del área 33 mapeadas, o variaciones de las tasas de cambio de color a lo largo del tiempo.
Omitir la conversión entre color y fase de pulso puede ser ventajoso donde haya, por ejemplo, una falta de información disponible sobre una relación periódica entre el color del área 33 y el tiempo o para evitar la introducción de errores de estimación que pueden resultar del uso de una relación disponible para inferir la fase de pulso.
La figura 7 ilustra un ejemplo de un aparato 100. El aparato 100 puede ser un chip o un conjunto de chips. El aparato 100 puede encontrarse o estar comprendido en el dispositivo 79.
En el ejemplo de la figura 7, el aparato 100 comprende un controlador 101. La implementación de un controlador 101 puede hacerse como circuito del controlador. El controlador 101 puede implementarse en hardware solo, tener ciertos aspectos en el software que incluye el firmware solo o puede ser una combinación de hardware y software (incluido el firmware).
Como se ilustra en la figura 7, el controlador 101 puede implementarse usando instrucciones que permiten la funcionalidad del hardware, por ejemplo, usando instrucciones ejecutables de un programa de ordenador 107 en un procesador de propósito general o de propósito especial 103 que puede almacenarse en un medio de almacenamiento legible por ordenador (disco, memoria, etc.) para ser ejecutado por tal procesador 103.
El procesador 103 está configurado para leer y escribir en la memoria 105. El procesador 103 también puede comprender una interfaz de salida a través de la cual se emiten datos y/o comandos por el procesador 103 y una interfaz de entrada a través de la cual se introducen datos y/o comandos al procesador 103.
La memoria 105 almacena un programa informático 107 que comprende instrucciones de programa informático (código de programa informático) que controla el funcionamiento del aparato 100 cuando se carga en el procesador 103. Las instrucciones del programa informático, del programa informático 107, proporcionan la lógica y las rutinas que permiten al aparato realizar los métodos ilustrados en, o descritos con referencia a, cualquier figura anterior. El procesador 103 que lee la memoria 105 es capaz de cargar y ejecutar el programa informático 107.
En algunos ejemplos, el aparato 100, por lo tanto, comprende: al menos un procesador 103; y al menos una memoria 105 que incluye un código de programa informático; la al menos una memoria 105 y el código de programa informático configurados para, con el al menos un procesador 103, hacer que el aparato 100 al menos
controlar 3 la captura de dos imágenes 5, 7 de un área 33, a través de las cuales se propaga un pulso, usando diferentes direcciones 35, 43;
convertir 9 las imágenes 5, 7 en mapas de fase de pulso 11, 13 del área 33;
obtener 15 un mapa de diferencia de fase de pulso 17 que identifica las diferencias entre los mapas de fase de pulso 11, 13 del área 33;
obtener 25 un mapa de diferencia de tiempo del obturador 27 que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes 5, 7; y
corregir 29 el mapa de diferencia de fase de pulso 17 mediante el uso del mapa de diferencia de tiempo del obturador 27 para obtener un mapa 31 de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
Las figuras ilustran un aparato 100 que comprende: al menos un procesador 103; y al menos una memoria 105 que incluye un código de programa informático; la al menos una memoria 105 y el código de programa informático configurados para, con el al menos un procesador 103, hacer que el aparato 100 al menos
controlar 3 la captura de dos imágenes 5, 7 de un área 33, a través de las cuales se propaga un pulso, usando diferentes direcciones 35, 43;
obtener 19 un mapa de diferencia de color 21 que identifica diferencias entre las dos imágenes 5, 7;
convertir 23 el mapa de diferencia de color 21 en un mapa de diferencia de fase de pulso 17;
obtener 25 un mapa de diferencia de tiempo del obturador 27 que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes 5, 7; y
corregir 29 el mapa de diferencia de fase de pulso 17 mediante el uso del mapa de diferencia de tiempo del obturador 27 para obtener un mapa 31 de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
Como se ilustra en la figura 8, el programa informático 107 puede llegar al aparato 1 a través de cualquier mecanismo de suministro 109 adecuado. El mecanismo de entrega puede ser, por ejemplo, un medio legible por máquina, un medio de almacenamiento legible por ordenador no transitorio, un producto de programa informático, un dispositivo de memoria, un medio de grabación como un disco compacto de memoria de solo lectura (CD-ROM) o un disco versátil digital (DVD) o una memoria de estado sólido, un artículo de fabricación que encarna tangiblemente el programa informático 107. El mecanismo de entrega puede ser una señal configurada para transferir de manera confiable el programa informático 107. El aparato 100 puede propagar o transmitir el programa informático 107 como una señal de datos informáticos.
Las instrucciones del programa informático pueden realizar al menos lo siguiente o pueden hacer que un aparato realice al menos lo siguiente:
controlar 3 la captura de dos imágenes 5, 7 de un área 33, a través de las cuales se propaga un pulso, usando diferentes direcciones 35, 43;
: convertir 9 las imágenes 5, 7 en mapas de fase de pulso 11, 13 del área 33 y obtener 15 un mapa de diferencia de fase de pulso 17 que identifica las diferencias entre los mapas de fase de pulso 11, 13 del área 33; u obtener 19 un mapa de diferencia de color 21 que identifica las diferencias entre las dos imágenes 5, 7 y convertir 23 el mapa de diferencia de color 21 en un mapa de diferencia de fase de pulso 17;
obtener 25 un mapa de diferencia de tiempo del obturador 27 que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes 5, 7; y
corregir 29 el mapa de diferencia de fase de pulso 17 mediante el uso del mapa de diferencia de tiempo del obturador 27 para obtener un mapa 31 de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
Las instrucciones del programa informático pueden estar comprendidas en un programa informático 107, un medio legible por ordenador no transitorio, un producto de programa informático, un medio legible por máquina. En algunos, pero no necesariamente todos los ejemplos, las instrucciones del programa informático pueden distribuirse en más de un programa informático 107.
Aunque la memoria 105 se ilustra como un componente/conjunto de circuitos único, puede implementarse como uno o más componentes/conjunto de circuitos separados, algunos o todos los cuales pueden ser integrados/extraíbles y/o pueden proporcionar almacenamiento permanente/semipermanente/dinámico/en caché.
Aunque el procesador 103 se ilustra como un componente/conjunto de circuitos único, puede implementarse como uno o más componentes/conjunto de circuitos separados, algunos o todos los cuales pueden ser integrados/extraíbles. El procesador 103 puede ser un procesador de núcleo único o de múltiples núcleos.
Las referencias a “ medio de almacenamiento legible por ordenador"’, “ producto de programa informático” , “ programa de ordenador materializado de forma tangible” , etc., o un “controlador” , “ordenador” , “ procesador” , etc., deben entenderse que abarcan no solo ordenadores que tienen diferentes arquitecturas como arquitecturas de un solo procesador/multiprocesador y arquitecturas secuenciales (Von Neumann)/paralelas, pero también circuitos especializados como matrices de puertas programables en campo (FPGA), circuitos específicos de aplicación (ASIC), dispositivos de procesamiento de señales y otros conjuntos de circuitos de procesamiento. Debe entenderse que las referencias al programa informático, instrucciones, código, etc., abarcan software para un procesador o firmware programable tal como, por ejemplo, el contenido programable de un dispositivo de hardware si se trata de instrucciones para un procesador, o ajustes de configuración para un dispositivo de función fija, matriz de puertas o dispositivo lógico programable, etc.
Tal y como se emplea en esta solicitud, el término “ circuitería” puede referirse a uno o a más o a todos de los siguientes conceptos:
(a) implementaciones de circuitos solo en hardware (tales como implementaciones en conjuntos de circuitos solo analógicos y/o digitales) y
(b) combinaciones de circuitos físicos y software, tales como (según corresponda):
(i) una combinación de circuito(s) de hardware analógico y/o digital con software/firmware y
(ii) cualquier sección de procesador o procesadores de hardware con software (incluyendo procesador o procesadores de señales digitales), software y memoria o memorias que funcionan juntos para hacer que un aparato, tal como teléfono móvil o servidor, realice diversas funciones) y
(c) un(os) circuito(s) de hardware y/o procesador(es), tales como un(os) microprocesador(es) o parte de un(os) microprocesador(es), que requiere(n) un software (p. ej., firmware) para su funcionamiento, pero el software puede no estar presente cuando no sea necesario para el funcionamiento.
Esta definición de circuitería aplica a todos los usos de este término en esta solicitud, incluyendo en cualquier reivindicación. Como ejemplo adicional, tal como se usa en esta solicitud, la expresión circuitería también cubrirá una implementación de tan sólo un circuito de hardware o procesador (o su) software y/o firmware adjunto. El término circuitería también cubre, por ejemplo, y si fuese aplicable a un elemento de reivindicación particular, un circuito integrado de banda base para un dispositivo móvil o un circuito integrado similar en un servidor, un dispositivo de red celular u otro dispositivo informático o de red.
Los bloques ilustrados o descritos con referencia a cualquier figura anterior pueden representar etapas de un procedimiento y/o secciones de código de un programa informático 107. La ilustración de un orden particular de los bloques no implica necesariamente que haya un orden necesario o preferido para los bloques, y el orden y la disposición de los bloques pueden variar. Además, puede ser posible omitir algunos bloques.
Cuando se ha descrito una característica estructural, puede reemplazarse por medios para realizar una o más de las funciones de la característica estructural si esa función o esas funciones se describen explícitamente o implícitamente.
En consecuencia, en algunos ejemplos, el aparato 100 comprende medios para:
controlar 3 la captura de dos imágenes 5, 7 de un área 33, a través de las cuales se propaga un pulso, usando diferentes direcciones 35, 43;
convertir 9 las imágenes 5, 7 en mapas de fase de pulso 11, 13 del área 33;
obtener 15 un mapa de diferencia de fase de pulso 17 que identifica las diferencias entre los mapas de fase de pulso 11, 13 del área 33;
obtener 25 un mapa de diferencia de tiempo del obturador 27 que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes 5, 7; y
corregir 29 el mapa de diferencia de fase de pulso 17 mediante el uso del mapa de diferencia de tiempo del obturador 27 para obtener un mapa 31 de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
En otros ejemplos, el aparato 100 comprende medios para:
controlar 3 la captura de dos imágenes 5, 7 de un área 33, a través de las cuales se propaga un pulso, usando diferentes direcciones 35, 43;
obtener 19 un mapa de diferencia de color 21 que identifica diferencias entre las dos imágenes 5, 7;
convertir 23 el mapa de diferencia de color 21 en un mapa de diferencia de fase de pulso 17; obtener 25 un mapa de diferencia de tiempo del obturador 27 que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes 5, 7; y
corregir 29 el mapa de diferencia de fase de pulso 17 mediante el uso del mapa de diferencia de tiempo del obturador 27 para obtener un mapa 31 de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
En algunos, pero no necesariamente todos los ejemplos, el aparato 100 está configurado para comunicar datos del aparato 100 con o sin almacenamiento local de los datos en una memoria 105 en el aparato 100 y con o sin procesamiento local de los datos por medio de circuitos o procesadores en el aparato 100.
Los datos pueden ser, por ejemplo, el mapa 31 de cambios en fase de pulso o el mapa de tasas de cambio de color 93 o datos producidos por el procesamiento del mapa 31 de cambios en fase de pulso o el mapa de tasa de cambio de color 93 tales como, por ejemplo, información sobre la identidad o salud de un usuario cuya superficie corporal se obtuvo en el bloque 3 del método 1 o método 89.
Los datos pueden almacenarse en formato procesado o no procesado de forma remota en uno o más dispositivos remotos. Los datos pueden almacenarse en la nube.
Los datos pueden procesarse de forma remota en uno o más dispositivos remotos. Los datos pueden procesarse parcialmente localmente y procesarse parcialmente de forma remota en uno o más dispositivos remotos.
Los datos pueden comunicarse al uno o más dispositivos remotos de forma inalámbrica a través de comunicaciones de radio de corto alcance tales como Wi-Fi o Bluetooth, por ejemplo, o en enlaces de radio celular de largo alcance. El aparato 100 puede comprender una interfaz de comunicaciones tal como, por ejemplo, un transceptor de radio para la comunicación de datos.
El aparato 100 puede ser parte de la Internet de las cosas que forma parte de una red distribuida más grande.
El procesamiento de los datos, ya sea local o remoto, puede tener el propósito de identificación, autorización, monitoreo de salud, agregación de datos, monitoreo de pacientes, monitoreo de signos vitales u otros propósitos. El procesamiento de los datos, ya sea local o remoto, puede producir una salida. La salida se puede comunicar al aparato 100 que puede hacer que el dispositivo 79 produzca una sensible de salida al sujeto tal como una salida de audio, salida visual o salida háptica.
El uso del término “ captura” en relación con una imagen se refiere a la grabación temporal de los datos de la imagen. La grabación temporal implica la grabación de datos temporalmente. Esto puede ocurrir, por ejemplo, durante la detección o captura de imagen, se produce en una memoria dinámica, se produce en un búfer tal como una memoria intermedia circular, un registro, una caché o similar. Las imágenes capturadas pueden almacenarse mediante el registro permanente de los datos de la imagen. La grabación permanente implica que los datos están en forma de una estructura de datos direccionable que puede recuperarse de un espacio de memoria direccionable y, por lo tanto, pueden almacenarse y recuperarse hasta que se eliminen o reescriben, aunque el almacenamiento a largo plazo puede ocurrir o no.
Los ejemplos descritos anteriormente encuentran aplicación como componentes de habilitación de:
sistemas de automoción, sistemas de telecomunicaciones; sistemas electrónicos que incluyen productos electrónicos de consumo; sistemas informáticos distribuidos; sistemas de medios para generar o hacer representar contenido multimedia que incluye contenido visual de audio, visual y audio y real, virtual, virtual y/o aumentada; sistemas personales que incluyen sistemas de salud personal o sistemas de administración personal; sistemas de navegación; las interfaces de usuario también conocidas como interfaces entre hombre y máquina; redes que incluyen redes celulares, no celulares y ópticas; redes ad hoc; Internet; el Internet de las cosas; redes virtuales; y software y servicios relacionados.
El término “ comprende” se emplea en este documento con un significado inclusivo, no con uno exclusivo. Es decir, cualquier mención a que X comprende Y significa que X puede comprender solo un Y o que puede comprender más de un Y. Si se pretende utilizar “ comprende” con un significado exclusivo, entonces esto quedará claro en el contexto mencionando “ que comprende solo uno...” o utilizando “ que consiste” .
En esta descripción se ha hecho referencia a diversos ejemplos. La descripción de características o funciones en relación con un ejemplo indica que esas características o funciones están presentes en ese ejemplo. El uso en el texto del término “ ejemplo” o “ por ejemplo” o “ puede” denota, ya sea de forma explícita o no, que tales características o funciones están presentes en al menos el ejemplo descrito, independientemente de que se haya descrito como un ejemplo o no, y que pueden estar, aunque no necesariamente, presentes en algunos de o en todos los demás ejemplos. Por lo tanto, “ ejemplo” , “ por ejemplo” o “ puede” se refiere a un caso particular en una clase de ejemplos. Una propiedad del caso puede ser una propiedad de solo ese caso o una propiedad de la clase o una propiedad de una subclase de la clase que incluye algunos pero no todos los casos en la clase. Por lo tanto, se describe implícitamente que una característica descrita con referencia a un ejemplo pero no con referencia a otro ejemplo, puede usarse en ese ejemplo como parte de una combinación de trabajo pero no necesariamente tiene que usarse en ese otro ejemplo.
Aunque los ejemplos se han descrito en los párrafos anteriores con referencia a varios ejemplos, debe apreciarse que pueden realizarse modificaciones a los ejemplos dados sin apartarse del alcance de las reivindicaciones.
Las características descritas en la descripción anterior pueden utilizarse en combinaciones distintas de las combinaciones descritas explícitamente anteriormente.
Aunque se hayan descrito las funciones con referencia a ciertas características, esas funciones pueden ser realizables por otras características, se hayan descrito o no.
Aunque se hayan descrito las características con referencia a ciertos ejemplos, esas características también pueden estar presentes en otros ejemplos, se hayan descrito o no.
El término “ un/una” o “ el/la” se emplean en este documento con un significado inclusivo, no con uno exclusivo. Es decir, cualquier referencia a X que comprende un/una/el/la Y indica que X puede comprender solo un Y o puede comprender más de una Y a menos que el contexto indique claramente lo contrario. Si se pretende usar “ una/una” o “ el/la” con un significado exclusivo entonces se hará evidente en el contexto. En algunas circunstancias, el uso de “ al menos uno “ o” uno o más” puede usarse para hacer énfasis en un significado inclusivo, pero la ausencia de estos términos no debe tomarse para inferir cualquier significado exclusivo.
En esta descripción, se ha realizado referencia a diversos ejemplos usando adjetivos o frases adjetivales para describir características de los ejemplos. Dicha descripción de una característica en relación con un ejemplo indica que la característica está presente en algunos ejemplos exactamente como se describe y está presente en otros ejemplos sustancialmente como se describe.

Claims (15)

REIVINDICACIONES
1. Un aparato que comprende medios para:
controlar la captura de dos imágenes de un área, a través de las cuales se propaga un pulso, usando diferentes direcciones de escaneo del obturador;
convertir las imágenes en mapas de fase de pulso del área;
obtener un mapa de diferencia de fase de pulso que identifica las diferencias entre los mapas de fase de pulso del área;
obtener un mapa de diferencia de tiempo del obturador que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes; y corregir el mapa de diferencia de fase de pulso usando el mapa de diferencia de tiempo del obturador para obtener un mapa de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
2. Un aparato que comprende medios para:
controlar la captura de dos imágenes de un área, a través de las cuales se propaga un pulso, usando diferentes direcciones de escaneo del obturador;
obtener un mapa de diferencias de color que identifica las diferencias entre las dos imágenes; convertir el mapa de diferencias de color en un mapa de diferencia de fase de pulso; obtener un mapa de diferencia de tiempo del obturador que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes; y corregir el mapa de diferencia de fase de pulso usando el mapa de diferencia de tiempo del obturador para obtener un mapa de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
3. Un aparato según cualquier reivindicación anterior, en donde controlar la captura de las dos imágenes comprende:
controlar la temporización de captura basándose en un intervalo de pulso; y/o
controlar la temporización de captura para seguir la captura de imágenes de referencia respectivas del área usando la misma dirección de escaneo del obturador después de un retardo de la misma duración.
4. Un aparato según cualquier reivindicación anterior, en donde controlar la captura de las dos imágenes comprende controlar el tiempo de captura para que coincida sustancialmente con la propagación de una característica objetivo de una forma de onda de pulso a través de una parte del área de interés.
5. Un aparato según cualquier reivindicación anterior, en donde controlar la captura de las dos imágenes comprende configurar ajustes de uno o más de:
un ángulo entre las diferentes direcciones de escaneo del obturador;
una velocidad de escaneo del obturador; y
un tamaño de apertura del obturador,
para lograr diferencias en los tiempos de captura entre un primer subconjunto de ubicaciones correspondientes en las dos imágenes que son de mayor duración que las diferencias en los tiempos de captura entre un segundo subconjunto de ubicaciones correspondientes en las dos imágenes, en donde el primer subconjunto representa una parte del área de interés y el segundo subconjunto representa otra parte del área.
6. Un aparato según cualquier reivindicación anterior, en donde controlar la captura de las dos imágenes comprende configurar ajustes de uno o más de:
un ángulo entre las diferentes direcciones de escaneo del obturador;
una velocidad de escaneo del obturador; y
un tamaño de apertura del obturador,
basándose en una diferencia objetivo para capturar los tiempos entre las ubicaciones correspondientes en las dos imágenes y/o una duración objetivo de un escaneo del obturador.
7.Un aparato según cualquier reivindicación anterior, en donde obtener un mapa de diferencia de fase de pulso a partir de las dos imágenes comprende usar una relación periódica almacenada entre el color del área y el tiempo para inferir una fase de pulso de un color.
8. Un aparato de acuerdo con cualquier reivindicación anterior, en donde corregir el mapa de diferencia de fase de pulso comprende:
convertir el mapa de diferencia de tiempo del obturador al mapa de diferencia de fase de obturador, la conversión se basa en un intervalo de pulso; y
restar el mapa de diferencia de fase de obturador del mapa de diferencia de fase de pulso.
9. Un aparato según cualquier reivindicación anterior, en donde los medios están configurados para hacer que uno o más actuadores giratorios roten un sensor de imagen para permitir la captura del área usando las diferentes direcciones de escaneo del obturador.
10. Un aparato según cualquier reivindicación anterior, en donde los medios están configurados para provocar la provisión de orientación a un usuario entre la captura de las dos imágenes, indicando la orientación una rotación manual de un sensor de imagen o el área que permite la captura del área usando las diferentes direcciones de escaneo del obturador.
11. Un aparato según cualquier reivindicación anterior, en donde los medios están configurados para activar la captura de una segunda de las dos imágenes en respuesta a una determinación de un cambio de orientación entre el área y un sensor de imagen que permite la captura del área usando las diferentes direcciones de escaneo del obturador.
12. Un aparato según cualquiera de las reivindicaciones 1 a 9, en donde controlar la captura de las dos imágenes comprende la activación, sustancialmente al mismo tiempo, capturar usando dos sensores de imagen que tienen diferentes direcciones de escaneo del obturador.
13. Un aparato según cualquier reivindicación anterior, en donde controlar la captura de las dos imágenes se activa mediante un evento de solicitud de autenticación.
14. Un método que comprende:
controlar la captura de dos imágenes de un área, a través de las cuales se propaga un pulso, usando diferentes direcciones de escaneo del obturador;
convertir las imágenes en mapas de fase de pulso del área y obtener un mapa de diferencia de fase de pulso que identifica las diferencias entre los mapas de fase de pulso del área, u obtener un mapa de diferencia de color que identifica las diferencias entre las dos imágenes y convertir el mapa de diferencia de color en un mapa de diferencia de fase de pulso;
obtener un mapa de diferencia de tiempo del obturador que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes; y corregir el mapa de diferencia de fase de pulso usando el mapa de diferencia de tiempo del obturador para obtener un mapa de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
15. Un programa informático que, cuando se ejecuta en un ordenador, lleva a cabo:
provocar el control de la captura de dos imágenes de un área, a través de las cuales se propaga un pulso, usando diferentes direcciones de escaneo del obturador;
convertir las imágenes en mapas de fase de pulso del área y obtener un mapa de diferencia de fase de pulso que identifica las diferencias entre los mapas de fase de pulso del área, u obtener un mapa de diferencia de color que identifica las diferencias entre las dos imágenes y convertir el mapa de diferencia de color en un mapa de diferencia de fase de pulso;
obtener un mapa de diferencia de tiempo del obturador que identifica las diferencias entre los tiempos de captura de las ubicaciones correspondientes en las dos imágenes; y corregir el mapa de diferencia de fase de pulso usando el mapa de diferencia de tiempo del obturador para obtener un mapa de cambios de fase de pulso que se han producido durante una duración de un escaneo del obturador.
ES21167919T 2021-04-12 2021-04-12 Mapeo de propagación de pulsos Active ES2966070T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP21167919.6A EP4075776B1 (en) 2021-04-12 2021-04-12 Mapping pulse propagation

Publications (1)

Publication Number Publication Date
ES2966070T3 true ES2966070T3 (es) 2024-04-18

Family

ID=75477978

Family Applications (1)

Application Number Title Priority Date Filing Date
ES21167919T Active ES2966070T3 (es) 2021-04-12 2021-04-12 Mapeo de propagación de pulsos

Country Status (3)

Country Link
US (1) US11825206B2 (es)
EP (1) EP4075776B1 (es)
ES (1) ES2966070T3 (es)

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5809792B2 (ja) 2010-11-04 2015-11-11 株式会社日立製作所 生体認証装置および方法
WO2014136310A1 (ja) * 2013-03-08 2014-09-12 富士フイルム株式会社 脈波伝播速度の測定方法及びシステム並びに撮像装置
WO2014140413A1 (en) * 2013-03-15 2014-09-18 Nokia Corporation Apparatus, method and computer program for capturing images
US20160228011A1 (en) * 2013-09-26 2016-08-11 Sharp Kabushiki Kaisha Bio-information acquiring device and bio-information acquiring method
WO2015095760A1 (en) * 2013-12-19 2015-06-25 The Board Of Trustees Of The University Of Illinois System and methods for measuring physiological parameters
DE112014006082T5 (de) * 2013-12-25 2016-10-27 Asahi Kasei Kabushiki Kaisha Pulswellenmessvorrichtung, Mobilvorrichtung, medizinisches Ausrüstungssystem und biologisches Informations-Kommunikationssystem
US10044939B2 (en) * 2014-09-19 2018-08-07 Sony Interactive Entertainment LLC Systems and methods for camera operation through control device
US10117587B2 (en) * 2015-04-27 2018-11-06 Apple Inc. Dynamically reconfigurable apertures for optimization of PPG signal and ambient light mitigation
CN108366759B (zh) * 2015-09-29 2022-04-19 皇家飞利浦有限公司 用于提取生理信息的设备、系统和方法
US10912516B2 (en) * 2015-12-07 2021-02-09 Panasonic Corporation Living body information measurement device, living body information measurement method, and storage medium storing program
US11412943B2 (en) * 2016-07-16 2022-08-16 Olesya Chornoguz Methods and systems for obtaining physiologic information
CN118984426A (zh) * 2016-12-15 2024-11-19 松下知识产权经营株式会社 摄像系统、摄像方法及计算机程序产品
EP3403574A1 (en) 2017-05-18 2018-11-21 Preventicus GmbH Device for reliable acquisition of photoplethysmographic data
CN109247945A (zh) * 2017-07-12 2019-01-22 松下知识产权经营株式会社 计测装置
EP3673798B1 (en) * 2017-08-24 2023-08-30 Panasonic Intellectual Property Management Co., Ltd. Biometric apparatus and head mount display device
EP3501388A1 (en) 2017-12-22 2019-06-26 Biospectal SA Optical blood pressure measurement method and system
JP7230409B2 (ja) * 2018-10-02 2023-03-01 カシオ計算機株式会社 判定装置、判定方法及び判定プログラム
JP7373298B2 (ja) 2019-04-26 2023-11-02 株式会社日立製作所 生体情報検出装置、生体情報検出方法および生体情報検出プログラム
US11433906B2 (en) * 2019-07-11 2022-09-06 Magna Electronics Inc. Vehicular driver monitoring system with heart rate measurement
GB2586985B (en) * 2019-09-10 2023-04-05 Hitomi Ltd Signal delay measurement
JP2021045375A (ja) * 2019-09-19 2021-03-25 株式会社日立製作所 生体情報検出装置及び生体情報検出方法
JP2021132869A (ja) * 2020-02-27 2021-09-13 カシオ計算機株式会社 電子装置、電子装置の制御方法及び電子装置の制御プログラム
CN111429345A (zh) * 2020-03-03 2020-07-17 贵阳像树岭科技有限公司 一种超低功耗视觉计算心率及心率变异性方法
CN112006673A (zh) 2020-08-26 2020-12-01 西安电子科技大学 人体心率检测方法、系统、存储介质、计算机设备及终端
EP3968006A1 (en) 2020-09-14 2022-03-16 Nokia Technologies Oy Imaging an object using projected electromagnetic radiation and a rolling shutter
US11995166B2 (en) * 2020-12-17 2024-05-28 Jvckenwood Corporation Biometric authentication through vascular studies
JP7590896B2 (ja) * 2021-03-09 2024-11-27 シャープ株式会社 撮像装置、情報取得装置、および、撮像方法

Also Published As

Publication number Publication date
EP4075776A1 (en) 2022-10-19
US20220329718A1 (en) 2022-10-13
US11825206B2 (en) 2023-11-21
EP4075776B1 (en) 2023-11-01

Similar Documents

Publication Publication Date Title
ES2932079T3 (es) Entrenamiento de redes neuronales para la predicción de mirada tridimensional (3D) con parámetros de calibración
ES2929891T3 (es) Dispositivos portátiles con seguimiento ocular
ES2788854T3 (es) Método y dispositivo de procesamiento de imágenes
CN108702437B (zh) 计算深度图的方法、系统、设备和存储介质
JP6125648B2 (ja) 生体情報取得装置および生体情報取得方法
ES2898981T3 (es) Activación rápida en un sistema de seguimiento de la mirada
JP5415948B2 (ja) 視線検出装置及び視線検出方法
ES2939003T3 (es) Método y sistema para estimación de posición 3D de la córnea
ES2881320T3 (es) Dispositivo de generación, procedimiento de generación y programa para modelo tridimensional
ES2943719T3 (es) Dispositivo ponible que tiene una pantalla, lente, iluminador y sensor de imagen
ES3039315T3 (en) Reliability of gaze tracking data for left and right eye
ES3024938T3 (en) Real-time tracking for three-dimensional imaging
JP5694161B2 (ja) 瞳孔検出装置及び瞳孔検出方法
WO2016072059A1 (en) Endoscope system, image processing device, image processing method, and program
ES2887976T3 (es) Compensación del radio de la pupila
JP6583734B2 (ja) 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
ES2916408T3 (es) Método y sistema de seguimiento ocular para proporcionar una distancia de convergencia de mirada aproximada de un usuario
ES2935795T3 (es) Aparato para determinar una posición de un dispositivo en una parte del cuerpo
CN107480613A (zh) 人脸识别方法、装置、移动终端和计算机可读存储介质
KR20160088896A (ko) 고정되지 않은 디바이스에 의한 대상의 가변 특징들의 검출
US20150062351A1 (en) Device and Method for Calibrating a Temporal Contrast Sensor with a Frame-Based Camera Sensor
CA2850503A1 (en) System and method for stereophotogrammetry
WO2019024350A1 (zh) 生物特征识别方法及装置
US20170127922A1 (en) Capsule endoscope, capsule endoscope system, and method for controlling capsule endoscope
ES2966070T3 (es) Mapeo de propagación de pulsos