[go: up one dir, main page]

WO2023195149A1 - 脈波推定装置、状態推定装置、及び、脈波推定方法 - Google Patents

脈波推定装置、状態推定装置、及び、脈波推定方法 Download PDF

Info

Publication number
WO2023195149A1
WO2023195149A1 PCT/JP2022/017324 JP2022017324W WO2023195149A1 WO 2023195149 A1 WO2023195149 A1 WO 2023195149A1 JP 2022017324 W JP2022017324 W JP 2022017324W WO 2023195149 A1 WO2023195149 A1 WO 2023195149A1
Authority
WO
WIPO (PCT)
Prior art keywords
pulse wave
signal
unit
simulated signal
measurement area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2022/017324
Other languages
English (en)
French (fr)
Inventor
雄大 中村
遼平 村地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to DE112022006483.8T priority Critical patent/DE112022006483T5/de
Priority to PCT/JP2022/017324 priority patent/WO2023195149A1/ja
Priority to JP2024513659A priority patent/JP7558451B2/ja
Publication of WO2023195149A1 publication Critical patent/WO2023195149A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/024Measuring pulse rate or heart rate
    • A61B5/02416Measuring pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • A61B5/7214Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts using signal cancellation, e.g. based on input of two identical physiological sensors spaced apart, or based on two signals derived from the same sensor, for different optical wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators

Definitions

  • the present disclosure relates to a pulse wave estimation device, a state estimation device, and a pulse wave estimation method.
  • Patent Document 1 discloses a pulse detection device that removes a specific frequency component obtained by frequency analysis of position information of a face region in an imaging region from an image signal from the face region as noise.
  • the present disclosure has been made to solve the above-mentioned problems, and when removing noise, even the pulse wave signal included in the luminance signal of the subject's skin area is considered to be a noise component and is removed. It is an object of the present invention to provide a pulse wave estimating device that prevents a situation in which a luminance signal of a skin region of the subject to be used for estimating the subject's pulse wave cannot be extracted due to the above.
  • the pulse wave estimation device includes a captured image acquisition unit that acquires a captured image of a person, a skin area detection unit that detects a skin area of the person from the captured image, and a skin area detection unit that corresponds to the skin area on the captured image.
  • a measurement area setting unit that sets a measurement area for extracting a pulse wave source signal indicating a luminance change in an area to be measured, and a pulse wave source that extracts a pulse wave source signal based on the brightness change in the measurement area on the captured image.
  • a signal extraction unit a simulated signal acquisition unit that acquires a simulated signal that simulates a change in brightness in the measurement area, which is estimated to be a noise component of a change in brightness in the measurement area, and a noise component that is obtained after removing the simulated signal from the pulse wave source signal.
  • a coefficient calculation unit that calculates a coefficient for adjusting the simulated signal so that a signal for estimating the human pulse wave remains in the removed signal, and a noise that removes the simulated signal obtained by multiplying the coefficient from the original pulse wave signal.
  • the apparatus includes a removal section and an estimation section that estimates a person's pulse wave based on the noise removed signal.
  • the pulse wave signal included in the luminance signal of the subject's skin area is considered to be a noise component and is removed. It is possible to prevent a situation in which the luminance signal of the subject's skin region cannot be extracted.
  • FIG. 1 is a diagram illustrating a configuration example of a state estimation device including a pulse wave estimation device according to Embodiment 1.
  • FIG. 1 is a diagram showing a configuration example of a pulse wave estimating device according to Embodiment 1.
  • FIG. 3 is a diagram showing a detailed configuration example of a pulse wave estimating section in the pulse wave estimating device according to the first embodiment.
  • 4A, FIG. 4B, and FIG. 4C are diagrams for explaining an example of a method for setting a measurement region by the measurement region setting unit in the pulse wave estimating device according to the first embodiment.
  • 3 is a flowchart for explaining the operation of the pulse wave estimating device according to the first embodiment.
  • 6 is a flowchart for explaining details of step ST6 in FIG. 5.
  • FIG. 5 is a diagram illustrating a configuration example of a state estimation device including a pulse wave estimation device according to Embodiment 1.
  • FIG. 1 is a diagram showing a configuration example of a pulse wave estimating device according to
  • FIG. 3 is a flowchart for explaining the operation of the state estimation device according to the first embodiment.
  • 8A and 8B are diagrams showing an example of the hardware configuration of the pulse wave estimating device according to the first embodiment.
  • FIG. 7 is a diagram illustrating a configuration example of a state estimation device including a pulse wave estimation device according to a second embodiment.
  • FIG. 3 is a diagram illustrating a configuration example of a pulse wave estimating device according to a second embodiment.
  • FIG. 7 is a diagram illustrating an example of the distribution of ambient light represented by an ambient light model in a captured image when a two-dimensional Gaussian distribution is used for the ambient light model in Embodiment 2; 7 is a flowchart for explaining the operation of the pulse wave estimating device according to Embodiment 2.
  • FIG. 1 is a diagram illustrating a configuration example of a state estimation device including a pulse wave estimation device according to a second embodiment.
  • FIG. 3 is a diagram illustrating a configuration example of a pulse wave
  • FIG. 13A is a diagram for explaining the influence of environmental light on a signal used for estimating a subject's pulse wave based on a captured image, which occurs when the distribution of environmental light is uneven;
  • FIG. 13B is a diagram showing an example of a captured image captured in a scene where the distribution of environmental light is uneven.
  • FIG. 7 is a diagram for explaining an example of a method of generating a simulated signal based on a plurality of environmental light models by a simulated signal generation unit in Embodiment 2; 7 is a diagram illustrating an example of a circumscribed rectangle of a measurement area and its center coordinates, and an image of the distance between the apex coordinates of one corner of the measurement area and the corresponding center coordinates in Embodiment 2.
  • FIG. FIG. 7 is a diagram illustrating an example of a first simulated signal and a second simulated signal in which the difference in scale is equalized by multiplying the simulated signal generation unit by a normalization coefficient in the second embodiment.
  • FIG. 1 is a diagram showing a configuration example of a state estimation device 2 including a pulse wave estimation device 1 according to the first embodiment.
  • the pulse wave estimating device 1 estimates the pulse wave of a person based on a captured image of the person.
  • a person whose pulse wave is to be estimated by the pulse wave estimating device 1 is referred to as a "subject.”
  • the pulse wave estimating device 1 captures a series of frames at a predetermined frame rate Fr, capturing images of at least a range where a skin region that includes the subject's skin should exist (hereinafter referred to as "skin existing range").
  • a captured image consisting of Im(k) is acquired.
  • k indicates a frame number assigned to each frame. For example, the frame given at the next timing after frame Im(k) is frame Im(k+1).
  • the skin area is an area corresponding to the subject's face.
  • the skin area may be an area other than the subject's face.
  • the skin area may be an area corresponding to a part of the face such as the subject's eyes, eyebrows, nose, mouth, forehead, cheeks, or chin.
  • the skin area may be an area corresponding to a body part other than the face, such as the subject's head, shoulders, hands, neck, or feet.
  • the skin area may be multiple areas.
  • the pulse wave estimating device 1 estimates the subject's pulse wave from a series of frames Im(k-Tp+1) to Im(k) for each specific number of frames Tp, and information (hereinafter referred to as A pulse wave estimation result P(t), which is referred to as "pulse wave information”), is output. Specifically, the pulse wave estimating device 1 removes noise signals from signals based on luminance changes in the subject's skin region in a series of frames Im(k-Tp+1) to Im(k). estimate the pulse wave of
  • t indicates an output number assigned to each specific number of frames Tp.
  • the pulse wave estimation result given at the next timing of the pulse wave estimation result P(t) is the pulse wave estimation result P(t+1).
  • the frame number k and the output number t are integers of 1 or more.
  • the number of frames Tp is an integer of 2 or more.
  • the signal used to estimate the subject's pulse wave and indicating the brightness change in the subject's skin area may be a signal based on the subject's movement, or an environmental light irradiated onto the imaging range. including signals based on etc. These signals become noise that reduces the estimation accuracy of the subject's pulse wave. Therefore, the pulse wave estimating device 1 estimates the subject's pulse wave after removing these signals as signals indicating noise.
  • subject movement that causes a change in brightness on a captured image that is considered as noise when estimating the subject's pulse wave refers to a movement accompanied by a movement of the subject's head position itself, or a change in the direction of the face.
  • the pulse wave estimating device 1 acquires a signal that becomes noise from a device (not shown in FIG. 1) external to the pulse wave estimating device 1, such as various sensors.
  • a signal that becomes noise when estimating a subject's pulse wave is referred to as a "simulated signal.”
  • the "simulation signal” is a signal that simulates a change in brightness in the measurement area.
  • the number of subjects included in the captured image may be one or more. To simplify the explanation, in the following first embodiment, the number of subjects included in the captured image is one.
  • the state estimation device 2 acquires the pulse wave estimation result P(t) from the pulse wave estimation device 1 and estimates the state of the subject.
  • the state of the subject is assumed to be whether the subject is awake or not.
  • the state estimating device 2 estimates the degree of wakefulness indicating whether or not the subject is awake, based on the pulse wave estimation result P(t).
  • the state estimation device 2 outputs state information Z(t) regarding the estimated state of the subject to the output device 3. For example, when the subject's arousal level is decreasing, the state estimation device 2 outputs state information Z(t) indicating that the subject's arousal level is decreasing to the output device 3.
  • the output device 3 outputs information based on the state information Z(t) output from the state estimation device 2.
  • the output device 3 is, for example, an audio output device. For example, when the state estimation device 2 outputs state information Z(t) indicating that the subject's arousal level is decreasing, the output device 3 outputs a warning sound warning of the decrease in the arousal level.
  • Embodiment 1 as an example, it is assumed that the pulse wave estimating device 1, the state estimating device 2, and the output device 3 are installed in a vehicle (not shown), and the subject is the driver of the vehicle. That is, the pulse wave estimating device 1 estimates the pulse wave of the driver of the vehicle. The state estimating device 2 also estimates the state of the driver. Then, the output device 3 outputs a warning sound to the driver based on the driver's state estimated by the state estimation device 2.
  • the details of the configuration example of the state estimation device 2 shown in FIG. 1 will be described later, and first, the details of the configuration example of the pulse wave estimation device 1 will be described.
  • FIG. 2 is a diagram showing a configuration example of the pulse wave estimating device 1 according to the first embodiment.
  • the pulse wave estimation device 1 includes a captured image acquisition section 11, a skin region detection section 12, a measurement region setting section 13, a pulse wave source signal extraction section 14, a simulated signal acquisition section 15, and a pulse wave estimation section. 16 and an output section 17.
  • the pulse wave estimation section 16 includes a coefficient calculation section 161, a noise removal section 162, and an estimation section 163.
  • the captured image acquisition unit 11 acquires a captured image of a subject. Specifically, the captured image acquisition unit 11 acquires a captured image of the driver of the vehicle captured by an imaging device (not shown) mounted on the vehicle. The imaging device is installed to be able to capture an image of the driver's skin area. The captured image acquisition unit 11 outputs the acquired captured image to the skin area detection unit 12.
  • the imaging device in Embodiment 1 will be explained.
  • the imaging device includes an imaging section (not shown) and an illumination section (not shown).
  • the illumination unit is composed of, for example, an LED (Light Emitting Diode).
  • the illumination unit irradiates the imaging range of the imaging unit with light.
  • the imaging unit captures an image of an imaging range irradiated with light when the illumination unit emits light. Note that the imaging device may be provided with one illumination unit, or may be provided with a plurality of illumination units.
  • the skin area detection unit 12 detects the skin area of the subject from the frame Im(k) included in the captured image acquired by the captured image acquisition unit 11.
  • the skin area detection unit 12 may detect the skin area using a known means.
  • the skin area detection unit 12 can detect a skin area using a cascade type face detector using Haar-like features.
  • the skin area detection unit 12 generates skin area information S(k) indicating the detected skin area.
  • the skin area information S(k) can include information indicating whether or not a skin area has been detected, and information indicating the position and size of the detected skin area on the captured image.
  • the skin area information S(k) includes information indicating the position and size of the rectangular area on the captured image.
  • the skin area information S(k) includes, for example, whether or not the subject's face is detected and the rectangle surrounding the subject's face on the captured image.
  • the center coordinates Fc (Fcx, Fcy) of the rectangle, and the width Fcw and height Fch of this rectangle are shown.
  • the presence or absence of detection of the subject's face is represented by, for example, "1" if it is detected, and "0" if it is not detected.
  • the skin area detection unit 12 outputs the generated skin area information S(k) to the measurement area setting unit 13.
  • the measurement area setting unit 13 determines the area on the frame Im(k) based on the frame Im(k) of the captured image acquired by the captured image acquisition unit 11 and the skin area information S(k) outputted by the skin area detection unit 12. A plurality of measurement regions for extracting pulse wave source signals indicating luminance changes are set in the image region corresponding to the skin region indicated by the skin region information S(k). Note that the measurement area setting unit 13 may acquire the captured image acquired by the captured image acquisition unit 11 via the skin area detection unit 12. When the measurement area setting unit 13 sets a plurality of measurement areas, it generates measurement area information R(k) indicating the plurality of measurement areas that have been set.
  • the measurement area information R(k) includes information indicating the positions and sizes of Rn (positive integer) measurement areas on the captured image.
  • the measurement region ri(k) is a quadrilateral, and the position and size of the measurement region ri(k) are the coordinate values of the four vertices of the quadrilateral on the captured image.
  • FIGS. 4A, 4B, and 4C are diagrams for explaining an example of a method for setting a measurement area by the measurement area setting unit 13 in the pulse wave estimating device 1 according to the first embodiment.
  • An example of a method by which the measurement area setting unit 13 sets a plurality of measurement areas will be described with reference to FIG. 4.
  • the measurement region setting unit 13 selects facial organs such as the outer corners of the eyes, inner corners of the eyes, nose, and mouth in the skin region sr indicated by the skin region information S(k). Detect Ln (positive integer) landmarks.
  • Ln positive integer
  • landmarks are shown as circles.
  • the measurement area setting unit 13 sets a vector storing the coordinate values of the detected landmarks to L(k).
  • the measurement area setting unit 13 may detect facial organs using a known method such as using a model called a Constrained Local Model (CLM).
  • CLM Constrained Local Model
  • the measurement area setting unit 13 sets the coordinates of the vertices of the quadrilateral of the measurement area ri(k) using the detected landmark as a reference. For example, the measurement area setting unit 13 sets the vertex coordinates of a quadrilateral as shown in FIG. 4C, and sets Rn measurement areas ri(k).
  • the measurement area setting unit 13 sets the landmark LA1 of the facial contour and the nose.
  • Select landmark LA2. The measurement area setting unit 13 first selects the nasal landmark LA2, and then selects the facial contour landmark LA1 closest to the nasal landmark LA2. Then, the measurement area setting unit 13 sets auxiliary landmarks a1, a2, and a3 so as to equally divide the line segment between the landmark LA1 and the landmark LA2 into four. Similarly, the measurement area setting unit 13 selects the facial contour landmark LB1 and the nose landmark LB2.
  • the measurement area setting unit 13 sets auxiliary landmarks b1, b2, and b3 so as to equally divide the line segment between the landmark LB1 and the landmark LB2 into four.
  • the landmarks LB1 and LB2 may be selected from, for example, the contour of the face or the landmark of the nose adjacent to the landmarks LA1 and LA2, respectively.
  • the measurement area setting unit 13 sets a quadrilateral area surrounded by the auxiliary landmarks a1, b1, b2, and a2 as one measurement area R1.
  • the auxiliary landmarks a1, b1, b2, and a2 each have vertex coordinates corresponding to the measurement region R1.
  • the measurement area setting unit 13 sets one measurement area R2 surrounded by the auxiliary landmarks a2, b2, b3, and a3 and the vertex coordinates of the measurement area R2.
  • the measurement region setting unit 13 can set the measurement region ri(k) on the part corresponding to the cheek. Similarly, the measurement region ri(k) and the vertex coordinates of the measurement region ri(k) are set for the region sr. Although not shown in FIG. 4C, the measurement region setting unit 13 may set the measurement region ri(k) in a portion of the subject's skin region sr corresponding to the forehead or a portion corresponding to the tip of the nose. good.
  • the measurement area setting unit 13 outputs the generated measurement area information R(k) to the pulse wave source signal extraction unit 14.
  • the pulse wave source signal extraction unit 14 extracts the frame Im( From each of the plurality of measurement regions ri(k) indicated by the measurement region information R(k) on k), a pulse wave indicating a luminance change in a predetermined period, in other words, a period corresponding to the number of frames Tp. Extract the original signal.
  • the pulse wave source signal is a signal that is the source of the pulse wave.
  • the pulse wave estimating device 1 estimates the pulse wave of the subject using the pulse wave source signal.
  • the pulse wave estimation unit 16 estimates the pulse wave of the subject. Details of the pulse wave estimation section 16 will be described later.
  • the pulse wave source signal extraction unit 14 may acquire the captured image acquired by the captured image acquisition unit 11 via the skin area detection unit 12 and the measurement area setting unit 13. After extracting the pulse wave source signal, the pulse wave source signal extraction unit 14 generates pulse wave source signal information W(t) indicating the extracted pulse wave source signal.
  • the pulse wave source signal information W(t) includes information indicating the pulse wave source signal wi(t) extracted in the measurement region ri(k).
  • the pulse wave source signal wi(t) is time-series data for Tp, for example, frames Im(k-Tp+1), Im(k-Tp+2), ..., Im(k) for the past Tp, It is extracted based on the measurement area information R(k-Tp+1), R(k-Tp+2), . . . , R(k).
  • the luminance feature amount Gi(j) is a value calculated for each measurement region ri(j) based on the luminance value on the frame Im(j) of the captured image.
  • the brightness feature amount Gi(j) is the average or variance of the brightness values of pixels included in the measurement region ri(j). In the first embodiment, as an example, the brightness feature amount Gi(j) is the average brightness value of pixels included in the measurement region ri(j).
  • the pulse wave source signal extraction unit 14 generates a collection of pulse wave source signals wi(t) in each measurement region ri(k) as pulse wave source signal information W(t).
  • the pulse wave source signal extraction section 14 outputs the generated pulse wave source signal information W(t) to the pulse wave estimation section 16.
  • the pulse wave source signal wi(t) includes various noise components in addition to the pulse wave component and facial movement component described above.
  • the noise component include noise caused by element defects in the imaging device.
  • the pulse wave source signal extraction unit 14 performs the filter processing.
  • the pulse wave source signal wi(t) is processed using, for example, a low-pass filter, a high-pass filter, or a band-pass filter.
  • a bandpass filter is applied.
  • the bandpass filter for example, a Butterworth filter or the like can be used.
  • the cutoff frequency of the bandpass filter for example, it is desirable that the lower cutoff frequency is 0.5 Hz and the higher cutoff frequency is 5.0 Hz.
  • the simulated signal acquisition unit 15 acquires a simulated signal that simulates the brightness change of the measurement region during a predetermined period, in other words, a period corresponding to the number of frames Tp from a device external to the pulse wave estimation device 1 (not shown). do.
  • the device external to the pulse wave estimating device 1 that is the source of the simulated signal is hereinafter referred to as the "simulated signal source device.”
  • the simulated signal acquisition source device is, for example, a gyro sensor that detects the movement of a vehicle or a movement of the subject's face, or an illuminance sensor that detects the illuminance of environmental light in the imaging range.
  • a gyro sensor and an illuminance sensor are mounted on the vehicle.
  • the simulated signal acquisition unit 15 acquires a signal indicating the movement of the vehicle detected by the gyro sensor or a signal indicating the movement of the subject's face as the simulated signal.
  • the installation position and detection range of the gyro sensor and the installation position and imaging range of the imaging device are known in advance, the position where the gyro sensor captured the movement of the vehicle or the subject's face is located in which measurement area on the captured image. It is possible to make a correspondence.
  • the simulated signal acquisition unit 15 acquires a signal indicating the intensity of the environmental light detected by the illuminance sensor as the simulated signal. . It is assumed that the environmental light is uniformly applied to the imaging range.
  • the simulated signal acquisition unit 15 acquires measurement area information R(k) from the measurement area setting unit 13, and associates the signal acquired from the simulated signal acquisition source device with the plurality of measurement areas ri(k). .
  • the simulated signal acquisition unit 15 When the simulated signal acquisition unit 15 acquires the simulated signal from the simulated signal acquisition source device, it generates simulated signal information M(t) indicating the acquired simulated signal.
  • the simulated signal information M(t) includes information indicating a simulated signal mi(t) corresponding to the measurement region ri(k).
  • the simulated signal mi(t) is time series data for Tp.
  • the simulated signal acquisition unit 15 acquires the simulated signal mi(t ) to obtain.
  • the simulated signal acquisition unit 15 may acquire the captured image acquired by the captured image acquisition unit 11 via the skin area detection unit 12 and the measurement area setting unit 13.
  • the simulated signal acquisition unit 15 outputs the simulated signal information M(t) to the pulse wave estimation unit 16.
  • the pulse wave estimation section 16 Estimate the subject's pulse wave. That is, the pulse wave estimation section 16 estimates the subject's pulse based on the pulse wave source signal wi(t) extracted by the pulse wave source signal extraction section 14 and the simulated signal mi(t) acquired by the simulated signal acquisition section 15. Estimate the wave. Specifically, the pulse wave estimating unit 16 calculates a coefficient (hereinafter referred to as a "removal coefficient") by which the simulated signal information M(t) is multiplied based on the pulse wave original signal information W(t) and the simulated signal information M(t).
  • a coefficient hereinafter referred to as a "removal coefficient
  • Pulse wave estimation section 16 outputs pulse wave estimation result P(t), which is pulse wave information indicating the estimated pulse wave, to output section 17 .
  • the pulse wave information may be, for example, time series data of the subject's pulse wave estimated by the pulse wave estimation unit 16, or may be the subject's pulse rate.
  • the pulse wave information is assumed to be the subject's pulse rate (number of pulses per minute).
  • the pulse wave estimation section 16 includes a coefficient calculation section 161, a noise removal section 162, and an estimation section 163.
  • the coefficient calculation unit 161 calculates coefficient information C(t) for the simulated signal information M(t) based on the pulse wave source signal information W(t) and the simulated signal information M(t).
  • the coefficient information C(t) is information regarding the removal coefficient ci(t), and is information for adjusting the amount of the simulated signal information M(t) to be removed as noise from the pulse wave source signal information W(t). be.
  • the simulated signal mi(t) is removed from the pulse wave source signal wi(t) so that the noise-removed signal ei(t) remains as a signal for estimating the subject's pulse wave.
  • This is a signal for adjusting.
  • the coefficient information C(t) is a signal that reduces the simulated signal.
  • the coefficient calculation unit 161 calculates coefficient information C(t) using, for example, the following equation (1).
  • the coefficient calculation unit 161 calculates the coefficient information C(t) so that the difference between the pulse wave source signal information W(t) and the result of multiplying the simulated signal information M(t) by the coefficient information C(t) becomes small. calculate. Thereby, the pulse wave estimation unit 16 can adjust the amount of simulated signal information M(t) included in the pulse wave source signal information W(t) using the coefficient information C(t). Note that the noise removal unit 162 adjusts the amount of simulated signal information M(t) using coefficient information C(t). The coefficient calculation unit 161 outputs the calculated coefficient information C(t) to the noise removal unit 162.
  • the noise removal unit 162 removes noise based on the pulse wave source signal information W(t), the simulated signal information M(t), and the coefficient information C(t). Then, the noise removal unit 162 calculates noise removed signal information E(t), which is signal information after noise removal. The noise removal unit 162 calculates noise removal signal information E(t) using the following equation (2).
  • the noise removal unit 162 first multiplies the simulated signal mi(t) by the removal coefficient ci(t). Then, the noise removing unit 162 subtracts the signal obtained by multiplying the simulated signal mi(t) by the removal coefficient ci(t) from the pulse wave source signal wi(t), thereby obtaining the noise removed signal ei(t). calculate.
  • the noise removed signal ei(t) is a signal obtained by removing noise from the luminance change in the measurement region ri(k). That is, the noise removal unit 162 calculates the noise removal signal ei(t) for each measurement region ri(k).
  • the noise removal unit 162 calculates noise removal signal information E(t) by summing up the noise removal signals ei(t) corresponding to each measurement region ri(k). The noise removal unit 162 outputs the calculated noise removal signal information E(t) to the estimation unit 163.
  • the estimation unit 163 estimates the subject's pulse wave based on the noise removed signal information E(t). Specifically, the estimation unit 163 performs Fourier transform on the noise removed signal information E(t) and calculates the peak frequency in the frequency power spectrum as the pulse rate. The estimation unit 163 sets the information regarding the calculated pulse rate as pulse wave estimation result P(t), which is pulse wave information indicating the estimated pulse wave. Note that the estimation unit 163 may use the noise removed signal information E(t) as the pulse wave estimation result P(t). Estimating section 163 outputs pulse wave estimation result P(t) to output section 17 .
  • the output unit 17 outputs the pulse wave estimation result P(t) output from the pulse wave estimation unit 16 to the pulse wave information acquisition unit 21 of the state estimation device 2. Note that the function of the output section 17 may be provided in the pulse wave estimating section 16.
  • the state estimation device 2 includes a pulse wave estimation device 1, a pulse wave information acquisition section 21, a state estimation section 22, and an output section 23.
  • the pulse wave information acquisition unit 21 acquires the pulse wave estimation result P(t) output from the pulse wave estimation device 1.
  • the pulse wave information acquisition unit 21 outputs the acquired pulse wave estimation result P(t) to the state estimation unit 22.
  • the state estimation unit 22 determines the state of the subject based on the pulse wave estimation result P(t) output from the pulse wave information acquisition unit 21, in other words, based on the pulse wave of the subject estimated by the pulse wave estimation device 1. Estimate. In the first embodiment, the state estimation unit 22 estimates the state of the subject based on the pulse rate of the subject estimated by the pulse wave estimation device 1. Specifically, the state estimating unit 22 estimates the driver's wakefulness level as the driver's state based on the pulse rate of the subject, in other words, the driver. For example, the degree of alertness is expressed by two levels of alertness (1: sleepy, 2: awake).
  • the state estimation unit 22 stores the pulse wave estimation result P(t) when it is output from the pulse wave information acquisition unit 21, and calculates the pulse wave estimation result P(t) based on the stored pulse wave estimation result P(t).
  • the subject's pulse rate for 10 minutes after starting driving is calculated as the subject's reference pulse rate.
  • the state estimation unit 22 may determine that driving has started, for example, by turning on the power of the vehicle. Further, the state estimating unit 22 may determine that driving has started based on, for example, signals from various sensors mounted on the vehicle, such as a shift position sensor. Generally, a person is assumed to be in an awake state immediately after starting driving.
  • the state estimating unit 22 calculates the subject's pulse rate for 10 minutes after the start of driving as a reference pulse rate that is used as a reference for determining whether or not the subject is in an awake state. When the subject's pulse rate falls below the reference pulse rate, it can be estimated that the subject's alertness level has decreased.
  • the state estimation unit 22 compares the pulse wave estimation result P(t) output from the pulse wave information acquisition unit 21, in other words, the pulse rate of the subject estimated by the pulse wave estimation device 1, with the reference pulse rate. Estimate the subject's alertness.
  • the state estimating unit 22 determines that the arousal level has decreased and estimates the arousal level to be "1". do.
  • the state estimation unit 22 is based on the pulse wave estimation result P(t) output from the pulse wave information acquisition unit 21, in other words, based on the pulse wave of the subject estimated by the pulse wave estimation device 1.
  • the reference pulse rate is calculated, but this is just an example.
  • the standard pulse rate may be set in advance to a typical pulse rate of a person in an awake state, and the standard pulse rate may be stored in the state estimating unit 22.
  • the state estimating unit 22 estimates the subject's wakefulness level based on the stored reference pulse rate.
  • the state estimating unit 22 takes individual differences into account by calculating the reference pulse rate for the subject based on the pulse wave estimation result P(t) output from the pulse wave estimating device 1. It is possible to estimate the degree of alertness according to the subject.
  • the state estimating unit 22 may estimate the subject's alertness level by combining a method of estimating the subject's alertness level based on the pulse wave estimation result P(t) and a known alertness level estimation method.
  • the known method of estimating the degree of wakefulness is assumed to be a method of estimating the degree of wakefulness by detecting whether the percentage of eye-closed time is increasing.
  • the state estimation unit 22 outputs state information Z(t) regarding the estimated state of the subject to the output unit 23.
  • the output unit 23 outputs the state information Z(t) output from the state estimation unit 22 to the output device 3. Note that the function of the output section 23 may be provided in the state estimating section 22.
  • the state estimation unit 22 may store the state information Z(t).
  • the state estimating device 2 does not necessarily need to be connected to the output device 3. Further, the state estimating device 2 can be configured without the output unit 23.
  • FIG. 5 is a flowchart for explaining the operation of the pulse wave estimating device 1 according to the first embodiment.
  • the captured image acquisition unit 11 acquires a captured image of the subject (step ST1).
  • the captured image acquisition unit 11 outputs the acquired captured image to the skin area detection unit 12.
  • the skin area detection unit 12 detects a skin area from the frame Im(k) included in the captured image acquired by the captured image acquisition unit 11 in step ST1 (step ST2).
  • the skin area detection unit 12 generates skin area information S(k) indicating the detected skin area.
  • the skin area detection unit 12 outputs the generated skin area information S(k) to the measurement area setting unit 13.
  • the measurement area setting unit 13 uses the frame Im(k) of the captured image acquired by the captured image acquisition unit 11 in step ST1 and the skin area information S(k) outputted by the skin area detection unit 12 in step ST2. Based on this, a plurality of measurement regions are set in the image region corresponding to the skin region indicated by the skin region information S(k) on the frame Im(k) for extracting the pulse wave source signal indicating the luminance change ( Step ST3).
  • the measurement area setting unit 13 sets a plurality of measurement areas, it generates measurement area information R(k) indicating the plurality of measurement areas that have been set.
  • the measurement area setting unit 13 outputs the generated measurement area information R(k) to the pulse wave source signal extraction unit 14 and the simulated signal acquisition unit 15.
  • the pulse wave source signal extraction unit 14 extracts the frame Im(k) of the captured image acquired by the captured image acquisition unit 11 in step ST1 and the measurement area information R(k) output from the measurement area setting unit 13 in step ST3. ), from each of the plurality of measurement regions ri(k) indicated by the measurement region information R(k) on the frame Im(k) for a predetermined period, in other words, corresponding to the number of frames Tp.
  • a pulse wave source signal indicating a change in luminance during the period is extracted (step ST4).
  • the pulse wave source signal extraction unit 14 After extracting the pulse wave source signal, the pulse wave source signal extraction unit 14 generates pulse wave source signal information W(t) indicating the extracted pulse wave source signal.
  • the pulse wave source signal extraction section 14 outputs the generated pulse wave source signal information W(t) to the pulse wave estimation section 16.
  • the simulated signal acquisition unit 15 acquires from the simulated signal acquisition source device a simulated signal that simulates the brightness change of the measurement area in a predetermined period, in other words, in a period corresponding to the number of frames Tp (step ST5).
  • the simulated signal acquisition unit 15 receives a simulated signal from the simulated signal acquisition source device as a simulated signal corresponding to each of the plurality of measurement regions ri(k) indicated by the measurement region information R(k), and simulates the simulated signals together.
  • the signal information be M(t).
  • the simulated signal acquisition unit 15 outputs the simulated signal information M(t) to the pulse wave estimation unit 16.
  • the pulse wave estimation section 16 uses the pulse wave source signal information W(t) output from the pulse wave source signal extraction section 14 in step ST4 and the simulated signal information M output from the simulated signal acquisition section 15 in step ST5. (t), the subject's pulse wave is estimated (step ST6). Pulse wave estimation section 16 outputs pulse wave estimation result P(t), which is pulse wave information indicating the estimated pulse wave, to output section 17 . The output unit 17 outputs the pulse wave estimation result P(t) output from the pulse wave estimation unit 16 to the pulse wave information acquisition unit 21 of the state estimation device 2.
  • step ST4 and step ST5 are performed in the order of step ST4 and step ST5, but this is only an example.
  • the order of the processing in step ST4 and step ST5 may be reversed, or the processing in step ST4 and the processing in step ST5 may be performed in parallel.
  • FIG. 6 is a flowchart for explaining details of step ST6 in FIG.
  • the coefficient calculation unit 161 uses the pulse wave source signal information W(t) outputted from the pulse wave source signal extraction unit 14 in step ST4 in FIG. 5 and the pulse wave source signal information W(t) outputted from the simulated signal acquisition unit 15 in step ST5 in FIG. Based on the simulated signal information M(t), coefficient information C(t) for the simulated signal information M(t) is calculated (step ST61).
  • the coefficient calculation unit 161 outputs the calculated coefficient information C(t) to the noise removal unit 162.
  • the noise removal unit 162 uses the pulse wave source signal information W(t) outputted from the pulse wave source signal extraction unit 14 in step ST4 in FIG. 5 and the pulse wave source signal information W(t) outputted from the simulated signal acquisition unit 15 in step ST5 in FIG. Noise is removed based on the simulated signal information M(t) and the coefficient information C(t) output from the coefficient calculating section 161 in step ST61 (step ST62). Specifically, the noise removing unit 162 subtracts a signal obtained by multiplying the simulated signal mi(t) by the removal coefficient ci(t) from the pulse wave source signal wi(t), thereby obtaining the noise-removed signal. Noise removed signal information E(t) is calculated (step ST62). The noise removal unit 162 outputs the calculated noise removal signal information E(t) to the estimation unit 163.
  • the estimation unit 163 estimates the subject's pulse wave based on the noise removed signal information E(t) in step ST62 (step ST63). Specifically, the estimation unit 163 performs Fourier transform on the noise removed signal information E(t) and calculates the peak frequency in the frequency power spectrum as the pulse rate. Estimating section 163 outputs pulse wave estimation result P(t) to output section 17 .
  • FIG. 7 is a flowchart for explaining the operation of the state estimation device 2 according to the first embodiment.
  • the pulse wave information acquisition unit 21 acquires the pulse wave estimation result P(t) output from the pulse wave estimation device 1 (step ST11). The pulse wave information acquisition unit 21 outputs the acquired pulse wave estimation result P(t) to the state estimation unit 22.
  • the state estimation unit 22 estimates the state of the subject based on the pulse wave estimation result P(t) output from the pulse wave information acquisition unit 21 in step ST11 (step ST12).
  • the state estimation unit 22 outputs state information Z(t) regarding the estimated state of the subject to the output unit 23.
  • the output unit 23 outputs the state information Z(t) output from the state estimation unit 22 to the output device 3.
  • the luminance signal based on the luminance change of the subject's skin area which is used to estimate the subject's pulse wave, contains a luminance signal based on the subject's true pulse wave that should be used to estimate the subject's pulse wave, and a luminance signal that is noise. Contains signals. Therefore, when estimating a subject's pulse wave, by removing the noise signal from the luminance signal based on luminance changes in the skin area, the luminance based on the subject's true pulse wave other than the noise signal can be estimated. I need to extract the signal.
  • the subject's pulse wave signal included in the brightness signal of the subject's skin area is considered to be a noise component and removed, the subject's pulse wave signal included in the brightness signal based on the brightness change of the skin area will be removed. Even the brightness signal based on the true pulse wave is removed along with the noise signal. In this case, there will not be enough luminance signals based on the subject's true pulse wave that should be used to estimate the subject's pulse wave, or the intensity of the luminance signal will not be known, making it impossible to estimate the subject's pulse wave. It turns out.
  • the pulse wave estimating device 1 uses the pulse wave source signal wi( t) to obtain a simulated signal mi(t) that is estimated to be a noise component of the luminance change in the measurement region ri(t). Then, the pulse wave estimating device 1 removes the simulated signal mi(t) from the pulse wave source signal wi(t), and then a signal for estimating the subject's pulse wave remains in the noise removed signal ei(t). The removal coefficient ci(t) for adjusting the simulated signal mi(t) is calculated as shown in FIG. Once removed, the subject's pulse wave is estimated based on the noise-removed signal ei(t).
  • the pulse wave estimating device 1 can estimate the pulse wave of the subject by removing even the pulse wave signal included in the luminance signal of the skin area of the subject as a noise component during noise removal. It is possible to prevent a situation in which the luminance signal of the subject's skin region that should be used for the test cannot be extracted. As a result, the pulse wave estimating device 1 can estimate the subject's pulse wave with high accuracy.
  • the coefficient calculating unit 161 calculates the coefficient information C(t) using the above-mentioned equation (1). However, if the coefficient calculation unit 161 calculates the coefficient information C(t) using the above equation (1), then the noise removal signal information E calculated by the noise removal unit 162 using the above equation (2) (t) may take a value close to "0". Therefore, in the first embodiment described above, the coefficient calculation unit 161 may calculate the coefficient information C(t) using the following equation (3). Equation (3) can be calculated by adding the term ⁇
  • the coefficient calculation unit 161 calculates the coefficient information C(t) using equation (3), and then includes the pulse wave in the noise removed signal information E(t) calculated by the noise removal unit 162. It is possible to further suppress the situation in which signal components necessary for estimating information no longer remain.
  • the pulse wave estimating device 1 should be used for estimating the pulse wave of the subject because even the pulse wave signal included in the luminance signal of the subject's skin area is considered to be a noise component and removed during noise removal. The situation in which the luminance signal of the subject's skin region cannot be extracted can be further prevented. As a result, the pulse wave estimating device 1 can estimate the subject's pulse wave with high accuracy.
  • the measurement area setting unit 13 sets the image area corresponding to the skin area indicated by the skin area information S(k) on the frame Im(k). , multiple measurement areas were set, but this is just an example.
  • the measurement area setting unit 13 may set one measurement area. Note that when the measurement area setting unit 13 sets only one measurement area, the one measurement area that is set is set to a skin area that does not move much, such as movement of the mouth due to conversation or movement due to changes in facial expressions. It is preferable that The "movement of the skin area” herein refers to "movement of the skin area” that is not caused by movement of the head position itself, but is caused by factors other than movement of the head position itself.
  • the one measurement area is set to a skin area corresponding to the cheek or forehead.
  • the skin region corresponding to the forehead may be hidden by bangs or the like, the skin region corresponding to the cheek is more preferable than the forehead.
  • the pulse wave estimating device 1 is included in the state estimating device 2, but this is only an example.
  • the pulse wave estimating device 1 may be provided outside the state estimating device 2 and connected to the state estimating device 2 outside the state estimating device 2.
  • the illumination unit is provided in the imaging device, but this is only an example.
  • a lighting device may be provided outside the imaging device, and the lighting device may irradiate the imaging range with light from outside the imaging device.
  • the test subject is a driver of a vehicle, but this is only an example.
  • the subject may be a passenger other than the driver of the vehicle.
  • the pulse wave estimation device 1 and the state estimation device 2 are in-vehicle devices, and the captured image acquisition unit 11, the skin area detection unit 12, the measurement area setting unit 13, and the pulse wave source signal
  • the extraction unit 14, the simulated signal acquisition unit 15, the pulse wave estimation unit 16, the output unit 17, the pulse wave information acquisition unit 21, the state estimation unit 22, and the output unit 23 were included in the in-vehicle device. .
  • the present invention is not limited to this, and the captured image acquisition unit 11, the skin area detection unit 12, the measurement area setting unit 13, the pulse wave source signal extraction unit 14, the simulated signal acquisition unit 15, the pulse wave estimation unit 16, and the output Of the section 17, the pulse wave information acquisition section 21, the state estimation section 22, and the output section 23, some are installed in the on-vehicle device of the vehicle, and the others are installed in a server connected to the on-vehicle device via a network.
  • a system may be configured by the in-vehicle device and the server.
  • the pulse wave information acquisition section 21, the state estimation section 22, and the output section 23 may all be included in the server.
  • the pulse wave estimating device 1 and the state estimating device 2 are not limited to in-vehicle devices installed in a vehicle, but can also be applied to, for example, home appliances.
  • the test subject is not limited to the occupant of the vehicle, but can be a variety of other people.
  • the pulse wave estimating device 1 and the state estimating device 2 may be installed in a television set in the living room of a residence. In this case, the subject is a user, such as a resident of the residence.
  • the pulse wave estimating device 1 estimates a user's pulse wave based on a captured image captured by an imaging device installed in a television. Note that the imaging device only needs to be capable of imaging at least the skin area of the subject.
  • the condition estimation device 2 estimates and records the user's physical condition based on the rise or fall of the pulse rate, for example, based on the pulse wave estimation result P(t) based on the user's pulse wave estimated by the pulse wave estimation device 1. .
  • the pulse wave estimating device 1 includes a processing circuit 101 for controlling the estimation of a subject's pulse wave using an ambient light model.
  • the processing circuit 101 may be dedicated hardware as shown in FIG. 8A, or may be a processor 104 that executes a program stored in memory as shown in FIG. 8B.
  • the processing circuit 101 is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Circuit). Gate Array), or a combination of these.
  • the processing circuit is the processor 104
  • the captured image acquisition unit 11, the skin area detection unit 12, the measurement area setting unit 13, the pulse wave source signal extraction unit 14, the simulated signal acquisition unit 15, and the pulse wave estimation unit 16 The functions of the output unit 17 are realized by software, firmware, or a combination of software and firmware.
  • Software or firmware is written as a program and stored in memory 105.
  • the processor 104 reads out and executes a program stored in the memory 105, thereby controlling the captured image acquisition unit 11, the skin area detection unit 12, the measurement area setting unit 13, the pulse wave source signal extraction unit 14, and the simulated
  • the functions of the signal acquisition section 15, pulse wave estimation section 16, and output section 17 are executed.
  • the pulse wave estimating device 1 includes a memory 105 for storing a program that, when executed by the processor 104, results in the execution of steps ST1 to ST6 in FIG.
  • the programs stored in the memory 105 include the captured image acquisition unit 11, the skin area detection unit 12, the measurement area setting unit 13, the pulse wave source signal extraction unit 14, the simulated signal acquisition unit 15, and the pulse wave It can also be said that it causes a computer to execute the processing procedure or method of the estimation unit 16 and the output unit 17.
  • the memory 105 includes, for example, RAM, ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically EEPROM).
  • Nonvolatile or volatile such as rasable Programmable Read-Only Memory
  • the captured image acquisition unit 11 , the skin area detection unit 12 , the measurement area setting unit 13 , the pulse wave source signal extraction unit 14 , the simulated signal acquisition unit 15 , the pulse wave estimation unit 16 , and the output unit 17 Some of the functions may be realized by dedicated hardware, and some may be realized by software or firmware.
  • the functions of the captured image acquisition section 11 and the output section 17 are realized by a processing circuit 101 as dedicated hardware, and the functions of the captured image acquisition section 11 and the output section 17 are realized by a processing circuit 101 as dedicated hardware, and a skin region detection section 12, a measurement region setting section 13, and a pulse wave source signal extraction section 14.
  • the functions of the simulated signal acquisition section 15 and the pulse wave estimation section 16 can be realized by the processor 104 reading and executing programs stored in the memory 105.
  • the pulse wave estimating device 1 also includes a device such as an imaging device, and an input interface device 102 and an output interface device 103 that perform wired or wireless communication.
  • An example of the hardware configuration of the state estimation device 2 according to the first embodiment is also a configuration as shown in FIGS. 8A and 8B.
  • the functions of the pulse wave information acquisition section 21, the state estimation section 22, and the output section 23 are realized by the processing circuit 101. That is, the state estimating device 2 includes a processing circuit 101 for performing control for estimating the state of the subject based on pulse wave information regarding the subject's pulse wave estimated by the pulse wave estimating device 1.
  • the functions of the pulse wave information acquisition section 21, state estimation section 22, and output section 23 are realized by software, firmware, or a combination of software and firmware.
  • Software or firmware is written as a program and stored in memory 105.
  • the processor 104 executes the functions of the pulse wave information acquisition section 21, the state estimation section 22, and the output section 23 by reading and executing a program stored in the memory 105.
  • the state estimating device 2 includes a memory 105 for storing a program that, when executed by the processor 104, results in the execution of steps ST11 and ST12 in FIG. 7 described above. It can also be said that the program stored in the memory 105 causes the computer to execute the processing procedures or methods of the pulse wave information acquisition section 21, the state estimation section 22, and the output section 23.
  • the state estimating device 2 also includes an input interface device 102 and an output interface device 103 that perform wired or wireless communication with devices such as the pulse wave estimating device 1 or the output device 3.
  • the pulse wave estimating device 1 includes the captured image acquisition unit 11 that acquires a captured image of a person (subject), and the skin area detection unit that detects the skin area of the person from the captured image.
  • a measurement area setting unit 13 that sets a measurement area ri(k) for extracting a pulse wave source signal wi(t) indicating a luminance change in an area corresponding to the skin area on the captured image;
  • a pulse wave source signal extraction unit 14 extracts the pulse wave source signal wi(t) based on the brightness change in the measurement area ri(k) on the captured image, and estimates the noise component of the brightness change in the measurement area ri(k).
  • a simulated signal acquisition unit 15 that acquires a simulated signal mi(t) that simulates the brightness change of the measurement region ri(k), and after removing the simulated signal mi(t) from the pulse wave source signal wi(t).
  • the configuration includes an estimating section 163 that performs the following steps. Therefore, when removing noise, the pulse wave estimation device 1 is unable to estimate the pulse wave of the subject because even the pulse wave signal included in the luminance signal of the subject's skin area is considered to be a noise component and removed. It is possible to prevent a situation in which the luminance signal of the subject's skin region to be used cannot be extracted. As a result, the pulse wave estimating device 1 can estimate the subject's pulse wave with high accuracy.
  • condition estimating device 2 is configured to estimate the condition of a person (subject) based on the pulse wave of the person (subject) estimated by the pulse wave estimating device 1 having the above configuration. Therefore, when removing noise, the state estimation device 2 uses the pulse wave signal included in the luminance signal of the subject's skin area as a noise component and removes it, thereby estimating the subject's pulse wave. It is possible to prevent a situation in which the luminance signal of the subject's skin region cannot be extracted, and to estimate the subject's condition based on the pulse wave estimated with high accuracy. As a result, the state estimation device 2 can estimate the subject's state with high accuracy.
  • the pulse wave estimating device acquires the simulated signal from the simulated signal acquisition source device.
  • Embodiment 2 an embodiment in which a pulse wave estimating device generates a simulated signal will be described.
  • FIG. 9 is a diagram showing a configuration example of a state estimation device 2 including a pulse wave estimation device 1a according to the second embodiment.
  • the same reference numerals are given to the same configuration examples as those of the state estimating device 2 described in Embodiment 1 using FIG. 1, and redundant explanation will be omitted.
  • the configuration example of the state estimation device 2 shown in FIG. 9 is different from the configuration example of the state estimation device 2 described using FIG. 1 in the first embodiment.
  • the configuration examples are different.
  • FIG. 10 is a diagram showing a configuration example of a pulse wave estimating device 1a according to the second embodiment.
  • the same reference numerals are given to the same configuration examples as those of the pulse wave estimating device 1 described in Embodiment 1 using FIG. 2, and redundant explanation will be omitted.
  • the configuration example of the pulse wave estimation device 1a shown in FIG. 10 differs from the configuration example of the pulse wave estimation device 1 described using FIG. 2 in the first embodiment in that it includes a simulated signal generation section 18.
  • the simulated signal generation unit 18 generates a predetermined signal based on the frame Im(k) of the captured image acquired by the captured image acquisition unit 11 and the measurement area information R(k) output from the measurement area setting unit 13. In other words, a simulated signal is generated that simulates a change in brightness of the measurement area during a period corresponding to the number of frames Tp.
  • the measurement region setting section 13 outputs the generated measurement region information R(k) to the pulse wave source signal extraction section 14 and the simulated signal generation section 18.
  • the simulated signal generation unit 18 generates a predetermined period of time under ambient light based on the frame Im(k) of the captured image, the measurement area information R(k), and the ambient light model. , a simulation signal is generated that simulates a change in brightness of the measurement area caused by a change in the position of the measurement area during a period corresponding to the number of frames Tp.
  • the simulated signal generation unit 18 generates the simulated signal for each of the plurality of measurement regions ri(k) indicated by the measurement region information R(k).
  • the simulated signal generation unit 18 may acquire the captured image acquired by the captured image acquisition unit 11 via the skin area detection unit 12 and the measurement area setting unit 13. After generating a simulated signal for each of the measurement regions ri(k), the simulated signal generation unit 18 generates simulated signal information M(t) by combining the generated simulated signals.
  • the simulated signal information M(t) includes information indicating a simulated signal mi(t) generated for the measurement region ri(k).
  • the simulated signal mi(t) is time-series data for Tp, for example, frames Im(k-Tp+1), Im(k-Tp+2), ..., Im(k) for the past Tp, and the measurement area It is generated based on the information R(k-Tp+1), R(k-Tp+2), . . . , R(k) and the ambient light model.
  • the ambient light model is provided in the simulated signal generation section 18 in advance.
  • the environmental light model is an environmental light distribution model that outputs a value that simulates the brightness value of the coordinates on the captured image based on the spatial brightness distribution of the range illuminated with the environmental light.
  • the environmental light when the captured image is captured is the illumination light of the illumination unit of the imaging device.
  • the illumination light from the illumination section is most strongly irradiated near the center of the imaging range of the imaging section.
  • the brightness at the center is highest, and the brightness decreases from the center to the edges of the captured image.
  • the "center” is not strictly limited to the "center” and includes approximately the center. In this way, for example, in the case of environmental light that illuminates the imaging range so that the central part of the captured image is bright and the surroundings are dark, the ambient light model is expressed by the following equation (4). This is a two-dimensional Gaussian distribution as shown below.
  • q_(x, y) is a value that simulates the brightness value at the coordinates (x, y) on the captured image
  • (x_c, y_c) is the center coordinate of the two-dimensional Gaussian distribution
  • a is a parameter that determines the height of the two-dimensional Gaussian distribution
  • is a parameter that determines the spread of the two-dimensional Gaussian distribution. The center coordinates of the two-dimensional Gaussian distribution are determined based on the spatial brightness distribution when the imaging unit captures the illumination light emitted by the illumination unit.
  • FIG. 11 is a diagram illustrating an example of the distribution of ambient light represented by the ambient light model in a captured image when a two-dimensional Gaussian distribution is used for the ambient light model in the second embodiment.
  • the environment light model shown in FIG. 11 is an environment light model in which the environment light is illumination light from the illumination unit of the imaging device.
  • the simulated signal generation unit 18 converts the coordinate values (x, y) on the captured image included in the measurement region ri(k) into a simulated signal mi(t) using the ambient light model.
  • the simulated signal generation unit 18 arranges Vi(j) calculated for each frame Im(k) of the captured image in chronological order to generate a simulated signal mi(t).
  • the environmental light model is a two-dimensional Gaussian distribution, but this is only an example. Any model other than the two-dimensional Gaussian distribution may be used as the ambient light model.
  • the environmental light is illumination light from an illumination unit of an imaging device, an actual measurement of the distribution of illumination light may be used as the environmental light model.
  • the environmental light model is not limited to one modeled as a mathematical formula, but is generated based on values obtained by actually measuring the brightness at which position on the captured image. Good too.
  • the simulated signal generation unit 18 may calculate one simulated signal mi(t) for each measurement region ri(k), or may calculate the simulated signal mi(t) for each measurement region ri(k) by the number of coordinate points.
  • the simulated signal generation unit 18 calculates one simulated signal mi(t) for the measurement region ri(k).
  • the simulated signal generation unit 18 calculates one simulated signal mi(t) for the measurement area ri(k) using, for example, the coordinates of the center of gravity of the quadrilateral of the measurement area ri(k).
  • the simulated signal generation unit 18 outputs the generated simulated signal information M(t) to the simulated signal acquisition unit 15.
  • the simulated signal acquisition unit 15 acquires the simulated signal information M(t) output from the simulated signal generation unit 18, and outputs the simulated signal information M(t) to the pulse wave estimation unit 16. do.
  • the noise removal unit 162 calculates the simulated signals mi(t) for each measurement area ri(k). Each simulated signal mi(t) is multiplied by a coefficient corresponding to the number of simulated signals mi(t) calculated for each simulated signal mi(t) (hereinafter referred to as "simulated signal coefficient"). The noise removal unit 162 then subtracts a signal obtained by multiplying the simulation signal mi(t) by the removal coefficient ci(t) from the pulse wave source signal wi(t).
  • the simulated signal generation unit 18 calculates the maximum value of the amplitude of the simulated signal mi(t) for the number of coordinate points as mi_amp(t) and the pulse wave source signal wi. Let the maximum value of the amplitude of (t) be wi_amp(t). In this case, the noise removal unit 162 multiplies each simulated signal mi(t) by a simulated signal coefficient "wi_amp/mi_amp”. Then, the noise removal unit 162 subtracts each simulated signal mi(t) after multiplying by "wi_amp/mi_amp" from the pulse wave source signal wi(t).
  • FIG. 12 is a flowchart for explaining the operation of the pulse wave estimating device 1a according to the second embodiment.
  • the specific operations of steps ST21 to ST24 and step ST27 are the same as the specific operations of steps ST1 to ST4 and step ST6 in FIG. 5, which have already been explained in the first embodiment. Therefore, duplicate explanations will be omitted.
  • the simulated signal generation unit 18 uses the frame Im(k) of the captured image acquired by the captured image acquisition unit 11 in step ST21, and the measurement area information R(k) output from the measurement area setting unit 13 in step ST23. Based on this, a simulation signal is generated that simulates the brightness change of the measurement area in a predetermined period, in other words, in a period corresponding to the number of frames Tp (step ST25). For example, the simulated signal generation unit 18 uses the frame Im(k) of the captured image acquired by the captured image acquisition unit 11 in step ST21 and the measurement area information R(k) output from the measurement area setting unit 13 in step ST23.
  • the measurement region setting section 13 outputs the generated measurement region information R(k) to the pulse wave source signal extraction section 14 and the simulated signal generation section 18.
  • the simulated signal generation unit 18 generates simulated signal information M(t) that is a combination of the simulated signals generated for each of the measurement regions ri(k).
  • the simulated signal generation unit 18 outputs the generated simulated signal information M(t) to the simulated signal acquisition unit 15.
  • the simulated signal acquisition unit 15 acquires the simulated signal information M(t) output from the simulated signal generation unit 18 in step ST25 (step ST26).
  • the simulated signal acquisition unit 15 outputs the acquired simulated signal information M(t) to the pulse wave estimation unit 16.
  • step ST24 and step ST25 are performed in the order of step ST24 and step ST25, but this is only an example.
  • the order of the processing in step ST24 and step ST25 may be reversed, or the processing in step ST24 and the processing in step ST25 may be performed in parallel.
  • the operation of the state estimating device 2 according to the second embodiment is the same as the operation described in the first embodiment using the flowchart shown in FIG. 7, so a duplicate explanation will be omitted.
  • the pulse wave estimating device 1a can perform a In other words, it is possible to generate a simulation signal mi(t) that simulates a change in brightness of the measurement area caused by a change in the position of the measurement area in a period corresponding to the number of frames Tp. Then, the pulse wave estimating device 1a removes the generated simulated signal mi(t) from the pulse wave original signal wi(t) so that a signal for estimating the subject's pulse wave remains.
  • the removal coefficient ci(t) for adjusting the simulated signal mi(t) is calculated and the simulated signal mi(t) multiplied by the removal coefficient ci(t) from the pulse wave source signal wi(t) is removed.
  • the subject's pulse wave is estimated based on the noise-removed signal ei(t).
  • the pulse wave estimating device 1a can estimate the pulse wave of the subject by removing even the pulse wave signal included in the luminance signal of the skin area of the subject as a noise component during noise removal. It is possible to prevent a situation in which the luminance signal of the subject's skin region that should be used for the test cannot be extracted. As a result, the pulse wave estimating device 1a can estimate the subject's pulse wave with high accuracy.
  • the pulse wave estimating device 1a uses the environment based on the frame Im(k) of the captured image, the measurement area information R(k), and the environmental light model Under the light, a simulated signal mi(t) is generated that simulates a change in brightness of the measurement area caused by a change in the position of the measurement area during a predetermined period, in other words, a period corresponding to the number of frames Tp.
  • the pulse wave estimating device 1a uses an environmental light model to remove noise caused by the subject's movement even in a scene where the distribution of environmental light in the imaging range is uneven. Pulse waves can be estimated. This will be explained in detail below.
  • a known method for non-contact estimation of a pulse wave from minute changes in brightness of a person's skin area in a captured image captured by an imaging device For example, as in Reference 1 below, multiple measurement areas are set on the subject's face image, the frequency power spectrum of the luminance signal acquired in each measurement area is calculated, and the peak frequency of the frequency power spectrum is calculated.
  • a known method is to synthesize pulse waves accordingly and estimate the pulse rate from the peak of the frequency power spectrum of the synthesized pulse waves.
  • the method disclosed in Reference 1 has a problem in that the accuracy of pulse wave estimation decreases when the subject's face moves.
  • the component corresponding to the facial movement appears as a peak in the frequency power spectrum, so the component corresponding to the facial movement, rather than the frequency component corresponding to the pulse wave, may be mistakenly detected as a pulse wave. This is to put it away.
  • the pulse wave estimated from minute changes in brightness of the subject's skin area in the captured image is affected not only by changes in the position of the skin area but also by the environmental light. . If this is not taken into account, a sufficient noise removal effect may not be obtained during noise removal.
  • FIG. 13 is a diagram for explaining the influence of environmental light on a signal used for estimating a subject's pulse wave based on a captured image, which occurs when the distribution of environmental light is uneven.
  • 13A is a diagram showing an example of a captured image captured in a scene where the distribution of environmental light is uniform.
  • FIG. 13B is a diagram illustrating an example of a captured image captured in a scene where the distribution of environmental light is uneven.
  • the captured images are indicated by ImA and ImB, respectively.
  • the color density on the captured images shown in FIGS. 13A and 13B represents the brightness distribution according to the environmental light. The lighter the color (the whiter the color), the higher the brightness, and the darker the color (the blacker the color), the lower the brightness.
  • a subject (indicated by SA in FIG. 13A and SB in FIG. 13B) is captured in the captured image.
  • the subject moves his or her face, so that the subject's face moves from left to right in the top of FIG. 13 in a plurality of time-series captured image frames (Tp frames).
  • Tp frames time-series captured image frames
  • FIG. 13A shows in a scene with uniform ambient light, the position of the subject's face cannot be changed even if the subject moves his or her face.
  • both the signal indicating the brightness of the face surface and the signal indicating the brightness of the surface of the face are unaffected by ambient light.
  • the signal indicating the position of the face is not affected by the environmental light even if the subject moves his or her face;
  • the signal indicating the brightness of the surface of the subject's face is affected by the environmental light as the position of the subject's face changes in multiple frames of the time-series captured images. The closer the subject's face is to the center of the captured image, the higher the brightness of the surface of the subject's face is affected by the environmental light.
  • the pulse wave estimating device 1a is based on the frame Im(k) of the captured image, the measurement area information R(k), and the ambient light model, under ambient light for a predetermined period, in other words, the frame A simulated signal mi(t) is generated that simulates a change in brightness of the measurement area caused by a change in the position of the measurement area during a period corresponding to the number Tp. Then, the pulse wave estimating device 1 uses the generated simulated signal mi(t) for noise removal. Therefore, the pulse wave estimating device 1a can remove noise due to positional changes in the subject's skin area and estimate the subject's pulse wave even in scenes where the distribution of environmental light in the imaging range is uneven. The state estimating device 2 can estimate the state of the subject even in a scene where the distribution of environmental light in the imaging range is uneven.
  • the simulated signal generation unit 18 can generate a simulated signal mi(t) and simulated signal information M(t) that is a combination of the simulated signals mi(t) using a plurality of environmental light models.
  • the coefficient calculation unit 161 calculates the pulse wave source signal information W(t) and the plurality of simulated signal information M( t), coefficient information C(t) for a plurality of ambient light models is calculated using the above equation (1).
  • the noise removing unit 162 subtracts the plurality of simulated signal information M(t) multiplied by the coefficient information C(t) from the pulse wave source signal information W(t) using the above equation (2), and removes the noise. Calculate removed signal information E(t).
  • FIG. 14 is a diagram for explaining an example of a method of generating a simulated signal mi(t) based on a plurality of environmental light models by the simulated signal generation unit 18 in the second embodiment.
  • ImC represents an image taken by an imaging device while a vehicle is running at night
  • ImD represents an environment in which light enters the imaging range so that the brightness on the left side of the image is high during the day.
  • ImE shows a captured image captured by an imaging device in a moving vehicle. A captured image is shown.
  • FIG. 14 shows a captured image captured by an imaging device in a moving vehicle. A captured image is shown.
  • 81a is a diagram showing the light intensity distribution represented by an environmental light model based on the ambient light in the situation where the captured image shown in ImC is captured
  • 81b is a diagram showing the intensity distribution of light expressed by the environment light model in the situation where the captured image shown in ImD is captured
  • 81c is a diagram showing the light intensity distribution represented by the environmental light model based on the environmental light in a situation where the captured image shown in ImE is captured.
  • FIG. 14 illustrates an imaging unit (indicated by 401 in FIG. 14) and an illumination unit (indicated by 402 in FIG. 14) included in the imaging device.
  • Dr indicates the face of the subject, here the driver.
  • the only environmental light is the illumination light emitted by the illumination unit included in the imaging device.
  • the environmental light is light that enters from outside the vehicle.
  • the environmental light is light that enters from outside the vehicle.
  • the simulated signal generation unit 18 is provided in advance with a plurality of environmental light models corresponding to nighttime driving scenes and daytime driving scenes, and uses the plurality of environmental light models to generate the simulated signal mi(t) and the simulated signal.
  • the pulse wave estimating device 1a can handle various scenes in which the distribution of environmental light is uneven in the imaging range, and eliminate noise caused by movement of the subject's skin area. can be removed and the subject's pulse wave can be estimated.
  • the simulated signal generation unit 18 based on the frame Im(k) of the captured image, the measurement area information R(k), and the environmental light model, although a simulated signal mi(t) has been generated, this is only an example.
  • the simulated signal generation unit 18 generates a luminance change in the measurement area caused by a change in the position of the measurement area based on the frame Im(k) of the captured image and the measurement area information R(k) without using an ambient light model.
  • a signal simulating the above may be generated as the simulated signal mi(t).
  • the pulse wave estimating device 1a detects that even the pulse wave signal included in the brightness signal of the subject's skin area is considered to be a noise component and is removed during noise removal. It is possible to prevent a situation in which the luminance signal of the skin area of the subject to be used for estimation cannot be extracted. As a result, the pulse wave estimating device 1a can estimate the subject's pulse wave with high accuracy.
  • the subject's movements are not limited to left and right movements, but may also include back and forth movements. Therefore, in the second embodiment described above, the simulated signal generation unit 18 takes this into consideration and generates the simulated signal mi(t) and the simulated signal information M(t) that is a combination of the simulated signal mi(t). Good too.
  • the simulated signal generation unit 18 calculates, for example, the scale (amplitude) of the brightness change in the measurement area ri(k) caused by the left and right movements of the subject, and the scale (amplitude) of the brightness change in the measurement area ri(k) caused by the back and forth movements of the subject.
  • the simulated signal mi(t) may be generated based on a signal in which the scale of the luminance change is normalized.
  • the simulated signal generation unit 18 generates a simulated signal mi(t) generated by the method described in Embodiment 2 above into a simulated signal mi(t) that simulates the luminance change of the measurement region ri(k) caused by the left and right movement of the subject.
  • the signal mi(t) (hereinafter referred to as "first simulated signal mi1(t)") is used.
  • the simulated signal generation unit 18 generates a simulated signal mi(t) (hereinafter referred to as "second simulated The signal mi2(t) is generated.
  • second simulated The signal mi2(t) A specific method by which the simulated signal generation unit 18 generates the second simulated signal mi2(t) will be described.
  • the diagram on the left side of FIG. 15 is a diagram showing an example of the circumscribed rectangle Rec(k) of the measurement region ri(k) and its center coordinate O(k).
  • the simulated signal generation unit 18 calculates the distance Dis(k) between each vertex coordinate of each measurement region ri(k) and the center coordinate O(k).
  • the simulated signal generation unit 18 calculates Dis_i_rb using the following equation (5).
  • the diagram on the right side of FIG. 15 is a diagram showing an image of the distance between the vertex coordinates of one corner of the measurement region ri(k) and the corresponding center coordinates O(k).
  • the simulated signal generation unit 18 generates a second simulated signal mi2(t ).
  • the simulated signal generation unit 18 calculates the distance between the vertex coordinates of each measurement region ri(k) and the center coordinates O(k) of the circumscribed rectangle, but the present invention is not limited to this.
  • the simulated signal generation unit 18 may calculate the distance between the center coordinates of each measurement region ri(k) and the center coordinates O(k) of the circumscribed rectangle Rec(k).
  • the simulated signal generation unit 18 replaces the center coordinate O(k) of the circumscribed rectangle Rec(k) with the average value of the vertex coordinates of each measurement region ri(k), in other words, the center of gravity.
  • the distance Dis(k) between the center of gravity and the vertex coordinates of each measurement area ri(k) may be calculated using the above method.
  • the simulated signal generation unit 18 only needs to be able to determine reference coordinates for each measurement region ri(k).
  • the simulated signal generation unit 18 normalizes the scale by multiplying the first simulated signal mi1(t) and the second simulated signal mi2(t) by a coefficient (hereinafter referred to as "normalization coefficient"). do.
  • the simulated signal generation unit 18 multiplies the first simulated signal mi1(t) and the second simulated signal mi2(t) by the normalization coefficient, and generates the first simulated signal mi1(t) and the second simulated signal mi2(t).
  • the difference in scale of the signal mi2(t) is made equal.
  • the simulated signal generation unit 18 multiplies either the first simulated signal mi1(t) or the second simulated signal mi2(t) by a normalization coefficient.
  • the simulated signal generation unit 18 may multiply both the first simulated signal mi1(t) and the second simulated signal mi2(t) by a normalization coefficient.
  • the normalization coefficient may be a preset value, or the simulated signal generation unit 18 may set the normalization coefficient so that the average values of the scales of the first simulated signal mi1(t) and the second simulated signal mi2(t) are the same.
  • the normalization coefficient may also be calculated.
  • FIG. 16 is an example of the first simulated signal mi1(t) and the second simulated signal mi2(t) in which the difference in scale is equalized by multiplying by the normalization coefficient by the simulated signal generation unit 18 in the second embodiment.
  • the simulated signal generation unit 18 combines the first simulated signal mi1(t) and the second simulated signal mi2(t), which have been multiplied by the normalization coefficient, into a simulated signal mi(t).
  • the simulated signal generation unit 18 changes the scale of the signal (first simulated signal mi1(t)) that simulates the luminance change in the measurement area ri(k) caused by the left and right movements of the subject, and By generating a simulated signal mi(t) based on a signal that normalizes the scale of a signal (second simulated signal mi2(t)) that simulates the brightness change in the measurement area ri(k) caused by movement, the pulse wave
  • the estimation device 1a can estimate the pulse wave of the subject by removing noise caused by changes in the position of the subject's skin area, taking into account the subject's back and forth movements.
  • the number of measurement areas set by the measurement area setting section 13 may be one.
  • the simulated signal generation unit 18 selects one measurement area from among the plurality of measurement areas set by the measurement area setting unit 13 when generating the simulated signal, and selects one measurement area from among the plurality of measurement areas set by the measurement area setting unit 13.
  • a simulated signal may be generated for only one measurement area.
  • the pulse wave estimating device 1a is included in the state estimating device 2, but this is only an example.
  • the pulse wave estimating device 1a may be provided outside the state estimating device 2 and connected to the state estimating device 2 outside the state estimating device 2.
  • the illumination unit is provided in the imaging device, but this is only an example.
  • a lighting device may be provided outside the imaging device, and the lighting device may irradiate the imaging range with light from outside the imaging device.
  • the subject may be a passenger other than the driver of the vehicle.
  • the pulse wave estimating device 1a and the state estimating device 2 are in-vehicle devices, and the captured image acquisition unit 11, the skin area detecting unit 12, the measurement area setting unit 13, and the pulse wave source signal
  • the present invention is not limited to this, and the captured image acquisition unit 11, the skin area detection unit 12, the measurement area setting unit 13, the pulse wave source signal extraction unit 14, the simulated signal acquisition unit 15, the pulse wave estimation unit 16, and the output Of the section 17, the simulated signal generation section 18, the pulse wave information acquisition section 21, the state estimation section 22, and the output section 23, some are installed in the on-vehicle device of the vehicle, and the others are installed in the on-vehicle device and the network.
  • the in-vehicle device and the server may be provided in a server connected via the in-vehicle device to configure a system.
  • the simulated signal generation section 18, the pulse wave information acquisition section 21, the state estimation section 22, and the output section 23 may all be included in the server.
  • the pulse wave estimating device 1a and the state estimating device 2 according to the second embodiment are not limited to in-vehicle devices installed in a vehicle.
  • the pulse wave estimating device 1a and the state estimating device 2 according to the second embodiment are not limited to in-vehicle devices installed in a vehicle.
  • it can also be applied to home appliances.
  • the test subject is not limited to the occupant of the vehicle, but can be a variety of other people.
  • the hardware configuration of the pulse wave estimating device 1a according to the second embodiment is similar to the hardware configuration of the pulse wave estimating device 1 described in the first embodiment using FIGS. 8A and 8B.
  • the functions of the output section 17 and the simulated signal generation section 18 are realized by the processing circuit 101.
  • the pulse wave estimating device 1a includes a processing circuit 101 for controlling estimating the pulse wave of the subject.
  • the processing circuit 101 may be dedicated hardware as shown in FIG. 8A, or may be a processor 104 that executes a program stored in memory as shown in FIG. 8B.
  • the processing circuit 101 reads out and executes a program stored in the memory 105, thereby controlling the captured image acquisition unit 11, the skin area detection unit 12, the measurement area setting unit 13, the pulse wave source signal extraction unit 14, The functions of the simulated signal acquisition section 15, the pulse wave estimation section 16, the output section 17, and the simulated signal generation section 18 are executed. That is, the pulse wave estimating device 1a includes a memory 105 for storing a program that, when executed by the processing circuit 101, results in the execution of steps ST21 to ST27 in FIG. 12 described above.
  • the programs stored in the memory 105 include the captured image acquisition unit 11, the skin area detection unit 12, the measurement area setting unit 13, the pulse wave source signal extraction unit 14, the simulated signal acquisition unit 15, and the pulse wave It can also be said that it causes a computer to execute the processing procedures or methods of the estimation section 16, the output section 17, and the simulated signal generation section 18.
  • the pulse wave estimating device 1a also includes a device such as an imaging device, and an input interface device 102 and an output interface device 103 that perform wired or wireless communication.
  • the pulse wave estimating device 1a includes, in addition to the configuration of the pulse wave estimating device 1 according to the first embodiment, a simulated signal generation unit 18 that generates a simulated signal mi(t). It was configured as follows. Therefore, when removing noise, the pulse wave estimating device 1a is unable to estimate the pulse wave of the subject because even the pulse wave signal included in the luminance signal of the subject's skin area is considered to be a noise component and removed. It is possible to prevent a situation in which the luminance signal of the subject's skin region to be used cannot be extracted. As a result, the pulse wave estimating device 1a can estimate the subject's pulse wave with high accuracy.
  • a captured image acquisition unit that acquires a captured image of a person; a skin area detection unit that detects the skin area of the person from the captured image; a measurement area setting unit that sets a measurement area for extracting a pulse wave source signal indicating a luminance change in an area corresponding to the skin area on the captured image; a pulse wave source signal extraction unit that extracts the pulse wave source signal based on the brightness change in the measurement area on the captured image; a simulated signal acquisition unit that acquires a simulated signal that simulates the brightness change in the measurement area, which is estimated to be a noise component of the brightness change in the measurement area; a coefficient calculation unit that calculates a coefficient for adjusting the simulated signal so that a signal for estimating the pulse wave of the person remains in the noise-removed signal after removing the simulated signal from the pulse wave source signal; and, a noise removing unit that removes the simulated signal obtained by multiplying the pulse wave source signal by the coefficient;
  • An estimating unit that estimates the pulse wave of
  • the simulated signal generation unit generates a change in the brightness of the measurement area caused by a change in the position of the measurement area under the environment light, based on a change in the position of the measurement area and a distribution model of environmental light in the imaging range.
  • the pulse wave estimating device according to appendix 2 wherein the pulse wave estimating device generates a signal that simulates as the simulated signal.
  • the pulse wave estimating device according to appendix 4 wherein the environmental light is illumination light emitted by an illumination unit included in an imaging device that captured the captured image.
  • the simulated signal generation unit generates the simulated signal based on a plurality of different distribution models of the environmental light depending on a situation in which the environmental light is irradiated and a change in the position of the measurement area.
  • the pulse wave estimating device according to supplementary note 4 or supplementary note 5.
  • the simulated signal generation unit is configured to set a scale of a signal indicating the luminance change of the measurement area caused by the left and right movement of the person, and a scale of the signal indicating the luminance change of the measurement area caused by the back and forth movement of the person.
  • the pulse wave estimating device according to appendix 2, wherein the simulated signal is generated based on a signal normalized with a scale.
  • a state estimating device comprising: a state estimating unit that estimates the state of the person based on the pulse wave of the person estimated by the pulse wave estimating device according to any one of Supplementary Notes 1 to 7.
  • the state estimating device according to appendix 8 wherein the state estimating unit estimates a degree of arousal of the person as the state of the person.
  • the state estimating unit calculates a reference pulse rate based on the pulse wave of the person estimated by the pulse wave estimating device in a state where the person is assumed to be awake, and The state estimating device according to appendix 9, wherein the state estimation device estimates the alertness level of the person by comparing the pulse wave estimated by the person with the reference pulse rate.
  • (Appendix 11) a step in which the captured image acquisition unit acquires a captured image of a person; a skin area detection unit detecting the skin area of the person from the captured image; a measurement area setting unit setting a measurement area for extracting a pulse wave source signal indicating a luminance change in an area corresponding to the skin area on the captured image; a pulse wave source signal extraction unit extracting the pulse wave source signal based on the brightness change in the measurement area on the captured image; a step in which the simulated signal acquisition unit acquires a simulated signal that simulates the brightness change in the measurement area, which is estimated to be a noise component of the brightness change in the measurement area; The coefficient calculation unit calculates a coefficient for adjusting the simulated signal so that a signal for estimating the pulse wave of the person remains in the noise removed signal after removing the simulated signal from the pulse wave source signal. a step of calculating; a noise removal unit removing the simulated signal obtained by multiplying the pulse wave source signal by the coefficient;
  • a pulse wave estimating method compris
  • the pulse wave estimating device estimates the pulse wave of the subject by removing even the pulse wave signal included in the luminance signal of the skin area of the subject as a noise component. It is possible to prevent a situation in which the luminance signal of the subject's skin region that should be used for the test cannot be extracted.
  • Pulse wave estimation device 11 Captured image acquisition unit, 12 Skin area detection unit, 13 Measurement area setting unit, 14 Pulse wave source signal extraction unit, 15 Simulated signal acquisition unit, 16 Pulse wave estimation unit, 161 Coefficient calculation unit , 162 Noise removal section, 163 Estimation section, 17 Output section, 18 Simulated signal generation section, 2 State estimation device, 21 Pulse wave information acquisition section, 22 State estimation section, 23 Output section, 3 Output device, 401 Imaging section, 402 Illumination unit, 101 processing circuit, 102 input interface device, 103 output interface device, 104 processor, 105 memory.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physiology (AREA)
  • Cardiology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)

Abstract

人を撮像した撮像画像を取得する撮像画像取得部(11)と、撮像画像から人の肌領域を検出する肌領域検出部(12)と、撮像画像上の、肌領域に対応する領域に、輝度変化を示す脈波元信号を抽出するための計測領域を設定する計測領域設定部(13)と、撮像画像上の計測領域における輝度変化に基づき、脈波元信号を抽出する脈波元信号抽出部(14)と、計測領域における輝度変化のノイズ成分と推定される、計測領域の輝度変化を模擬した模擬信号を取得する模擬信号取得部(15)と、脈波元信号から模擬信号を除去した後のノイズ除去信号に、人の脈波を推定するための信号が残るように、模擬信号を調整するための係数を算出する係数算出部(161)と、脈波元信号から係数を掛算した模擬信号を除去するノイズ除去部(162)と、ノイズ除去信号に基づいて人の脈波を推定する推定部(163)とを備えた。

Description

脈波推定装置、状態推定装置、及び、脈波推定方法
 本開示は、脈波推定装置、状態推定装置、及び、脈波推定方法に関する。
 撮像装置が撮像した撮像画像における人の肌を含む領域(以下「肌領域」という。)の輝度信号に基づいて脈波を推定することで、人の肌表面の微小な輝度変化から、非接触に人の脈波を推定する技術が知られている。その際、肌領域の輝度信号に、人の脈波を推定するにあたりノイズとなる信号が含まれていると、脈波の推定精度が低下するという問題がある。
 そこで、従来、脈波を推定する対象となる人(以下「被験者」という。)の脈波を推定する際に、被験者の肌領域の輝度信号から、ノイズとなる信号を除去する技術が知られている。例えば、特許文献1には、撮像領域における顔領域の位置情報を周波数分析して得られた特定の周波数成分を、顔領域からの画像信号からノイズとして除去する脈拍検出装置が開示されている。
特開2018-68720号公報
 しかし、特許文献1に開示されている脈拍検出装置に代表される従来技術は、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうことによって、上記被験者の脈波の推定に用いるべき上記被験者の肌領域の輝度信号を抽出できない可能性があるという課題があった。
 本開示は上記のような課題を解決するためになされたもので、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうことによって上記被験者の脈波の推定に用いるべき上記被験者の肌領域の輝度信号を抽出できない事態を防ぐ脈波推定装置を提供することを目的とする。
 本開示に係る脈波推定装置は、人を撮像した撮像画像を取得する撮像画像取得部と、撮像画像から人の肌領域を検出する肌領域検出部と、撮像画像上の、肌領域に対応する領域に、輝度変化を示す脈波元信号を抽出するための計測領域を設定する計測領域設定部と、撮像画像上の計測領域における輝度変化に基づき、脈波元信号を抽出する脈波元信号抽出部と、計測領域における輝度変化のノイズ成分と推定される、計測領域の輝度変化を模擬した模擬信号を取得する模擬信号取得部と、脈波元信号から模擬信号を除去した後のノイズ除去信号に、人の脈波を推定するための信号が残るように、模擬信号を調整するための係数を算出する係数算出部と、脈波元信号から係数を掛算した模擬信号を除去するノイズ除去部と、ノイズ除去信号に基づいて人の脈波を推定する推定部とを備えたものである。
 本開示によれば、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうことによって上記被験者の脈波の推定に用いるべき上記被験者の肌領域の輝度信号を抽出できない事態を防ぐことができる。
実施の形態1に係る脈波推定装置を備えた状態推定装置の構成例を示す図である。 実施の形態1に係る脈波推定装置の構成例を示す図である。 実施の形態1に係る脈波推定装置における脈波推定部の詳細な構成例を示す図である。 図4A、図4B及び図4Cは、実施の形態1に係る脈波推定装置における、計測領域設定部による計測領域の設定方法の一例について説明するための図である。 実施の形態1に係る脈波推定装置の動作について説明するためのフローチャートである。 図5のステップST6の詳細について説明するためのフローチャートである。 実施の形態1に係る状態推定装置の動作について説明するためのフローチャートである。 図8A,図8Bは、実施の形態1に係る脈波推定装置のハードウェア構成の一例を示す図である。 実施の形態2に係る脈波推定装置を備えた状態推定装置の構成例を示す図である。 実施の形態2に係る脈波推定装置の構成例を示す図である。 実施の形態2において、環境光モデルに2次元ガウス分布を用いた場合の、撮像画像における、環境光モデルがあらわす環境光の分布の一例を示す図である。 実施の形態2に係る脈波推定装置の動作について説明するためのフローチャートである。 環境光の分布が不均一な場合に生じる、環境光の、撮像画像に基づく被験者の脈波推定に用いる信号への影響について説明するための図であって、13Aは、環境光の分布が均一なシーンで撮像された撮像画像の一例を示す図であり、図13Bは、環境光の分布が不均一なシーンで撮像された撮像画像の一例を示す図である。 実施の形態2における、模擬信号生成部による、複数の環境光モデルに基づく模擬信号の生成方法の一例について説明するための図である。 実施の形態2において、計測領域の外接矩形及びその中心座標の一例と、計測領域の一角の頂点座標と、それに対応した中心座標との距離のイメージとを示す図である。 実施の形態2において、模擬信号生成部が正規化用係数を掛けることで、スケールの差が揃った第1模擬信号及び第2模擬信号の一例を示す図である。
 以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
 図1は、実施の形態1に係る脈波推定装置1を備えた状態推定装置2の構成例を示す図である。
 脈波推定装置1は、人を撮像した撮像画像に基づき、当該人の脈波を推定する。脈波推定装置1が脈波を推定する対象となる人を「被験者」という。
 脈波推定装置1は、予め定められたフレームレートFrで、少なくとも、被験者の肌を含む領域である肌領域が存在すべき範囲(以下「肌存在範囲」という。)を撮像した、一連のフレームIm(k)からなる撮像画像を取得する。ここで、kは、それぞれフレームに割り当てられるフレーム番号を示す。例えば、フレームIm(k)の次のタイミングで与えられるフレームは、フレームIm(k+1)である。
 実施の形態1では、肌領域は、被験者の顔に対応する領域とする。なお、これは一例に過ぎず、肌領域は、被験者の顔以外の領域であってもよい。例えば、肌領域は、被験者の目、眉、鼻、口、おでこ、頬、又は、顎のような、顔に属する部位、に対応する領域であってもよい。また、肌領域は、被験者の頭、肩、手、首、又は、足のような、顔以外の身体部位、に対応する領域であってもよい。肌領域は複数の領域であってもよい。
 そして、脈波推定装置1は、ある特定のフレーム数Tp毎に、一連のフレームIm(k-Tp+1)~Im(k)から被験者の脈波を推定し、推定した脈波を示す情報(以下「脈波情報」という。)である脈波推定結果P(t)を出力する。具体的には、脈波推定装置1は、一連のフレームIm(k-Tp+1)~Im(k)における被験者の肌領域の輝度変化に基づく信号から、ノイズとなる信号を除去することで、被験者の脈波を推定する。
 ここで、tは、特定のフレーム数Tp毎に割り当てられる出力番号を示す。例えば、脈波推定結果P(t)の次のタイミングで与えられる脈波推定結果は、脈波推定結果P(t+1)である。フレーム番号k及び出力番号tは、1以上の整数である。フレーム数Tpは、2以上の整数である。
 被験者の脈波を推定する際に用いる、被験者の肌領域の輝度変化を示す信号は、脈波に基づく信号の他、例えば、被験者の動きに基づく信号、又は、撮像範囲に照射される環境光等に基づく信号を含む。これらの信号は、被験者の脈波の推定精度を低下させるノイズとなる。そこで、脈波推定装置1は、これらの信号を、ノイズを示す信号として除去した上で、被験者の脈波を推定する。実施の形態1において、被験者の脈波を推定する上でノイズとみなす撮像画像上の輝度変化が生じる「被験者の動き」とは、被験者の頭の位置自体の移動を伴う動き、顔向きの変化を伴う動き、表情の動き(笑顔、会話で口元が動く等)、及び、輝度変化を示す信号を抽出するための領域(計測領域という。詳細は後述する)の検出誤差による動きのいずれかを含むものを指す。
 実施の形態1において、脈波推定装置1は、ノイズとなる信号を、各種センサ等、脈波推定装置1の外部の装置(図1においては図示省略)から取得する。実施の形態1では、被験者の脈波を推定するにあたりノイズとなる信号を、「模擬信号」という。「模擬信号」は、計測領域の輝度変化を模擬した信号である。
 なお、撮像画像に含まれる人である被験者の数は、1人であっても複数人であってもよい。説明を簡単にするため、以下の実施の形態1では、撮像画像に含まれる被験者の数は、1人であるものとして説明する。
 状態推定装置2は、脈波推定装置1から脈波推定結果P(t)を取得し、被験者の状態を推定する。なお、実施の形態1では、一例として、被験者の状態は、被験者が覚醒しているか否かの状態を想定している。状態推定装置2は、脈波推定結果P(t)に基づき、被験者が覚醒しているか否かの度合いを示す覚醒度を推定する。
 状態推定装置2は、推定した被験者の状態に関する状態情報Z(t)を出力装置3に出力する。例えば、状態推定装置2は、被験者の覚醒度が低下している場合に、被験者の覚醒度が低下している旨の状態情報Z(t)を、出力装置3に出力する。
 出力装置3は、状態推定装置2から出力された状態情報Z(t)に基づく情報を出力する。出力装置3は、例えば、音声出力装置である。例えば、出力装置3は、状態推定装置2から、被験者の覚醒度が低下している旨の状態情報Z(t)が出力されると、覚醒度の低下を警告する警告音を出力する。
 実施の形態1では、一例として、脈波推定装置1、状態推定装置2、及び、出力装置3は車両(図示省略)に搭載されているものとし、被験者は車両のドライバとする。つまり、脈波推定装置1は、車両のドライバの脈波を推定する。また、状態推定装置2は、ドライバの状態を推定する。そして、出力装置3は、状態推定装置2が推定したドライバの状態に基づき、ドライバに対して警告音を出力する。
 図1に示す状態推定装置2の構成例の詳細については後述することとし、まず、脈波推定装置1の構成例の詳細について説明する。
 図2は、実施の形態1に係る脈波推定装置1の構成例を示す図である。
 図2に示すように、脈波推定装置1は、撮像画像取得部11、肌領域検出部12、計測領域設定部13、脈波元信号抽出部14、模擬信号取得部15、脈波推定部16、及び、出力部17を備える。
 脈波推定部16は、図3に示すように、係数算出部161、ノイズ除去部162、及び、推定部163を備える。
 撮像画像取得部11は、被験者を撮像した撮像画像を取得する。詳細には、撮像画像取得部11は、車両に搭載されている撮像装置(図示省略)が車両のドライバを撮像した撮像画像を取得する。撮像装置は、ドライバの肌存在範囲を撮像可能に設置されている。
 撮像画像取得部11は、取得した撮像画像を、肌領域検出部12に出力する。
 ここで、実施の形態1における撮像装置について説明する。撮像装置は、撮像部(図示省略)及び照明部(図示省略)を備えている。照明部は、例えば、LED(Light Emitting Diode)で構成される。照明部は、撮像部の撮像範囲に光を照射する。撮像部は、照明部が発光することで光が照射された撮像範囲を撮像する。なお、照明部は、撮像装置に1つ備えられてもよいし、複数備えられてもよい。
 肌領域検出部12は、撮像画像取得部11が取得した撮像画像に含まれるフレームIm(k)から、被験者の肌領域を検出する。肌領域検出部12は、公知の手段を用いて肌領域を検出すればよい。例えば、肌領域検出部12は、Haar-like特徴量を使用したカスケード型の顔検出器を使用して、肌領域を検出できる。
 肌領域検出部12は、検出した肌領域を示す肌領域情報S(k)を生成する。
 肌領域情報S(k)は、肌領域の検出の有無を示す情報と、検出された肌領域の撮像画像上における位置及びサイズを示す情報とを含むことができる。実施の形態1では、肌領域は撮像画像上の矩形領域であらわされるものとし、肌領域情報S(k)は、当該矩形領域の撮像画像上における位置及びサイズを示す情報を含むものとする。
 具体的には、肌領域が被験者の顔に対応する領域である場合、肌領域情報S(k)は、例えば、被験者の顔の検出の有無と、撮像画像上で当該被験者の顔を囲む矩形の中心座標Fc(Fcx,Fcy)と、この矩形の幅Fcw及び高さFchとを示す。被験者の顔の検出の有無は、例えば、検出できた場合は「1」、検出できなかった場合は「0」であらわされる。また、顔を囲む矩形の中心座標は、フレームIm(k)の座標系で表現される。なお、フレームIm(k)の左上を原点とし、フレームIm(k)の右向きをx軸の正方向、フレームIm(k)の下向きをy軸の正方向とする。
 肌領域検出部12は、生成した肌領域情報S(k)を、計測領域設定部13に出力する。
 計測領域設定部13は、撮像画像取得部11が取得した撮像画像のフレームIm(k)と、肌領域検出部12が出力した肌領域情報S(k)とに基づき、フレームIm(k)上の、肌領域情報S(k)で示される肌領域に対応する画像領域に、輝度変化を示す脈波元信号を抽出するための複数の計測領域を設定する。なお、計測領域設定部13は、撮像画像取得部11が取得した撮像画像を、肌領域検出部12を介して取得すればよい。
 計測領域設定部13は、複数の計測領域を設定すると、設定した複数の計測領域を示す計測領域情報R(k)を生成する。計測領域情報R(k)は、Rn(正の整数)個の計測領域の撮像画像上における位置及びサイズを示す情報を含む。各計測領域は、計測領域ri(k)(i=1,2,・・・,Rn)とする。実施の形態1では、計測領域ri(k)は、四辺形とし、計測領域ri(k)の位置及びサイズは、撮像画像上における、四辺形の4つの頂点の座標値とする。
 ここで、図4A、図4B及び図4Cは、実施の形態1に係る脈波推定装置1における、計測領域設定部13による計測領域の設定方法の一例について説明するための図である。
 図4を用いて、計測領域設定部13が複数の計測領域を設定する方法の一例について説明する。
 まず、図4A及び図4Bに示されているように、計測領域設定部13は、肌領域情報S(k)で示されている肌領域srにおいて、目尻、目頭、鼻及び口等の顔器官のランドマークをLn(正の整数)個検出する。図4A及び図4Bでは、ランドマークは丸で示されている。計測領域設定部13は、検出したランドマークの座標値を格納したベクトルをL(k)とする。
 なお、計測領域設定部13は、Constrained Local Model(CLM)と呼ばれるモデルを用いる等、公知の手段を用いて顔器官を検出すればよい。
 次に、計測領域設定部13は、検出したランドマークを基準にして、計測領域ri(k)の四辺形の頂点座標を設定する。例えば、計測領域設定部13は、図4Cに示されているような四辺形の頂点座標を設定し、Rn個の計測領域ri(k)を設定する。
 計測領域設定部13が肌領域srの頬に対応する部分に計測領域ri(k)を設定する例を挙げて説明すると、計測領域設定部13は、顔の輪郭のランドマークLA1と、鼻のランドマークLA2を選択する。計測領域設定部13は、まず、鼻のランドマークLA2を選択し、当該鼻のランドマークLA2から最も近い顔の輪郭のランドマークLA1を選択すればよい。
 そして、計測領域設定部13は、ランドマークLA1とランドマークLA2との間の線分を4等分するように補助ランドマークa1、a2、a3を設定する。
 同様に、計測領域設定部13は、顔の輪郭のランドマークLB1と、鼻のランドマークLB2とを選択する。また、計測領域設定部13は、ランドマークLB1とランドマークLB2との間の線分を4等分するように補助ランドマークb1、b2、b3を設定する。なお、ランドマークLB1、LB2は、それぞれ、例えば、ランドマークLA1、LA2に隣接する顔の輪郭又は鼻のランドマークから選択されればよい。
 計測領域設定部13は、補助ランドマークa1、b1、b2、a2で囲まれる四辺形領域を一つの計測領域R1として設定する。補助ランドマークa1、b1、b2、a2は、それぞれ、計測領域R1に対応する頂点座標となる。
 計測領域設定部13は、同様に、補助ランドマークa2、b2、b3、a3で囲まれる一つの計測領域R2及び当該計測領域R2の頂点座標を設定する。
 なお、ここでは、頬の対応する部分に計測領域ri(k)を設定する例を説明したが、計測領域設定部13は、例えば、頬の他の部分、及び、あごに対応する部分の肌領域srに対しても同様に、計測領域ri(k)及び当該計測領域ri(k)の頂点座標を設定する。なお、図4Cでは図示していないが、計測領域設定部13は、被験者の肌領域srの額に対応する部分、又は、鼻先に対応する部分に、計測領域ri(k)を設定してもよい。
 計測領域設定部13は、生成した計測領域情報R(k)を、脈波元信号抽出部14に出力する。
 脈波元信号抽出部14は、撮像画像取得部11が取得した撮像画像のフレームIm(k)と、計測領域設定部13から出力された計測領域情報R(k)とに基づき、フレームIm(k)上の、計測領域情報R(k)で示される複数の計測領域ri(k)の各々から、予め定められた期間、言い換えれば、フレーム数Tpに対応する期間における輝度変化を示す脈波元信号を抽出する。なお、脈波元信号は、脈波の元となる信号である。脈波推定装置1は、脈波元信号を用いて被験者の脈波を推定する。被験者の脈波の推定は、脈波推定部16が行う。脈波推定部16の詳細は後述する。
 脈波元信号抽出部14は、撮像画像取得部11が取得した撮像画像を、肌領域検出部12及び計測領域設定部13を介して取得すればよい。
 脈波元信号抽出部14は、脈波元信号を抽出すると、抽出した脈波元信号を示す脈波元信号情報W(t)を生成する。
 脈波元信号情報W(t)は、計測領域ri(k)で抽出された脈波元信号wi(t)を示す情報を含む。脈波元信号wi(t)は、Tp分の時系列データであり、例えば、過去Tp分のフレームIm(k-Tp+1),Im(k-Tp+2),・・・,Im(k)と、計測領域情報R(k-Tp+1),R(k-Tp+2),・・・,R(k)とに基づいて抽出される。
 脈波元信号wi(t)を抽出するにあたっては、脈波元信号抽出部14は、撮像画像の各フレームIm(k)に対して、各計測領域ri(k)の輝度特徴量Gi(j)(j=k-Tp+1,k-Tp+2,・・・,k)を算出する。輝度特徴量Gi(j)は、各計測領域ri(j)に対し、撮像画像のフレームIm(j)上の輝度値に基づいて算出される値である。輝度特徴量Gi(j)は、計測領域ri(j)内に含まれる画素の輝度値の平均又は分散等である。実施の形態1では、一例として、輝度特徴量Gi(j)は、計測領域ri(j)に含まれる画素の輝度値の平均とする。脈波元信号抽出部14は、撮像画像の各フレームIm(k)に対し算出したGi(j)を時系列に並べて脈波元信号wi(t)とする。すなわち、脈波元信号抽出部14は、脈波元信号wi(t)=[Gi(k-Tp+1),Gi(k-Tp+2),・・・,Gi(k)]とする。
 脈波元信号抽出部14は、各計測領域ri(k)における脈波元信号wi(t)をまとめたものを脈波元信号情報W(t)として生成する。
 脈波元信号抽出部14は、生成した脈波元信号情報W(t)を、脈波推定部16に出力する。
 なお、脈波元信号wi(t)は、前述した脈波成分及び顔の動き成分以外にも様々なノイズ成分を含む。ノイズ成分としては、例えば、撮像装置の素子欠陥によるノイズ等がある。これらのノイズ成分を除去するためには、脈波元信号wi(t)に対する前処理としてフィルタ処理が行われることが望ましい。例えば、脈波元信号抽出部14は、当該フィルタ処理を行う。
 フィルタ処理では、脈波元信号wi(t)に対して、例えば、ローパスフィルタ、ハイパスフィルタ又はバンドパスフィルタを用いて、処理が施される。以下の説明では、バンドパスフィルタが施されたものとして説明する。
 バンドパスフィルタとしては、例えば、バターワースフィルタ等を用いることができる。バンドパスフィルタのカットオフ周波数としては、例えば、低い方のカットオフ周波数は、0.5Hz、高い方のカットオフ周波数は5.0Hzが望ましい。
 模擬信号取得部15は、図示しない脈波推定装置1の外部の装置から、予め定められた期間、言い換えれば、フレーム数Tpに対応する期間における、計測領域の輝度変化を模擬した模擬信号を取得する。
 模擬信号の取得元となる、脈波推定装置1の外部の装置を、以下「模擬信号取得元装置」という。模擬信号取得元装置は、例えば、車両の動き若しくは被験者の顔の動きを検知するジャイロセンサ、又は、撮像範囲における環境光の照度を検知する照度センサである。ジャイロセンサ及び照度センサは、車両に搭載されている。
 例えば、模擬信号取得元装置がジャイロセンサである場合、模擬信号取得部15は、ジャイロセンサが検知した車両の動きを示す信号、又は、被験者の顔の動きを示す信号を、模擬信号として取得する。なお、ジャイロセンサの設置位置及び検知範囲と、撮像装置の設置位置及び撮像範囲は予めわかっているので、ジャイロセンサが車両又は被験者の顔の動きを捉えた位置が、撮像画像上のどの計測領域に対応するかの対応付けが可能である。
 また、例えば、模擬信号取得元装置が車室内の明るさを検知する照度センサである場合、模擬信号取得部15は、照度センサが検知した環境光の強度を示す信号を、模擬信号として取得する。環境光は、撮像範囲に均一に照射されるものとする。
 模擬信号取得部15は、計測領域設定部13から計測領域情報R(k)を取得して、模擬信号取得元装置から取得した信号と、複数の計測領域ri(k)との対応付けを行う。
 模擬信号取得部15は、模擬信号取得元装置から、模擬信号を取得すると、取得した模擬信号を示す模擬信号情報M(t)を生成する。
 模擬信号情報M(t)は、計測領域ri(k)に対応する模擬信号mi(t)を示す情報を含む。模擬信号mi(t)は、Tp分の時系列データである。模擬信号取得部15は、例えば、過去Tp分のフレームIm(k-Tp+1),Im(k-Tp+2),・・・,Im(k)が取得されるタイミングに応じて、模擬信号mi(t)を取得する。
 模擬信号取得部15は、撮像画像取得部11が取得した撮像画像を、肌領域検出部12及び計測領域設定部13を介して取得すればよい。
 模擬信号取得部15は、模擬信号情報M(t)を、脈波推定部16へ出力する。
 脈波推定部16は、脈波元信号抽出部14から出力された脈波元信号情報W(t)と、模擬信号取得部15から出力された模擬信号情報M(t)とに基づいて、被験者の脈波を推定する。すなわち、脈波推定部16は、脈波元信号抽出部14が抽出した脈波元信号wi(t)と模擬信号取得部15が取得した模擬信号mi(t)とに基づいて、被験者の脈波を推定する。
 具体的には、脈波推定部16は、脈波元信号情報W(t)と模擬信号情報M(t)とに基づいて、模擬信号情報M(t)に掛ける係数(以下「除去用係数」という。)ci(t)を算出し、脈波元信号wi(t)から除去用係数ci(t)を掛算した模擬信号mi(t)をノイズとして除去した後の信号(以下「ノイズ除去信号」という。)に基づいて、被験者の脈波を推定する。
 脈波推定部16は、推定した脈波を示す脈波情報である脈波推定結果P(t)を出力部17に出力する。
 脈波情報は、例えば、脈波推定部16が推定した被験者の脈波の時系列データであってもよいし、被験者の脈拍数であってもよい。ここでは、説明を簡便にするため、脈波情報は、被験者の脈拍数(1分間当たりのはく数)とする。
 脈波推定部16による被験者の脈波の推定方法の詳細について説明する。
 上述のとおり、脈波推定部16は、係数算出部161、ノイズ除去部162、及び、推定部163を備える。
 係数算出部161は、脈波元信号情報W(t)と模擬信号情報M(t)とに基づいて、模擬信号情報M(t)に対する係数情報C(t)を算出する。
 係数情報C(t)は、除去用係数ci(t)に関する情報であり、脈波元信号情報W(t)からノイズとして除去する模擬信号情報M(t)の量を調整するための情報である。詳細には、脈波元信号wi(t)から模擬信号mi(t)を除去した後のノイズ除去信号ei(t)が、被験者の脈波を推定するための信号として残るように、模擬信号を調整するための信号である。具体的には、係数情報C(t)は、模擬信号を減らす信号である。
 係数情報C(t)の値が大きいと、脈波元信号情報W(t)からノイズとして除去する模擬信号情報M(t)の量は多くなり、係数情報C(t)の値が小さいと、脈波元信号情報W(t)からノイズとして除去する模擬信号情報M(t)の量は少なくなる。
 係数算出部161は、例えば、以下の式(1)を用いて係数情報C(t)を算出する。


Figure JPOXMLDOC01-appb-I000001
 係数算出部161は、脈波元信号情報W(t)と、係数情報C(t)を模擬信号情報M(t)に掛算した結果との差が小さくなるように係数情報C(t)を算出する。これにより、脈波推定部16は、脈波元信号情報W(t)に含まれる模擬信号情報M(t)の量を、係数情報C(t)によって調整できる。なお、模擬信号情報M(t)の量の、係数情報C(t)を用いた調整は、ノイズ除去部162が行う。
 係数算出部161は、算出した係数情報C(t)を、ノイズ除去部162へ出力する。
 ノイズ除去部162は、脈波元信号情報W(t)と模擬信号情報M(t)と係数情報C(t)とに基づいて、ノイズの除去を行う。そして、ノイズ除去部162は、ノイズ除去後の信号情報であるノイズ除去信号情報E(t)を算出する。
 ノイズ除去部162は、以下の式(2)を用いて、ノイズ除去信号情報E(t)を算出する。


Figure JPOXMLDOC01-appb-I000002
 具体的には、ノイズ除去部162は、まず、模擬信号mi(t)と除去用係数ci(t)とを掛算する。そして、ノイズ除去部162は、脈波元信号wi(t)から、模擬信号mi(t)に除去用係数ci(t)を掛けた信号を引き算することで、ノイズ除去信号ei(t)を算出する。ノイズ除去信号ei(t)は、計測領域ri(k)における輝度変化からノイズを除去した信号となる。すなわち、ノイズ除去部162は、各計測領域ri(k)に対してノイズ除去信号ei(t)を算出する。
 次に、ノイズ除去部162は、各計測領域ri(k)に対応するノイズ除去信号ei(t)を合算したノイズ除去信号情報E(t)を算出する。
 ノイズ除去部162は、算出したノイズ除去信号情報E(t)を、推定部163へ出力する。
 推定部163は、ノイズ除去信号情報E(t)に基づいて、被験者の脈波を推定する。
 具体的には、推定部163は、ノイズ除去信号情報E(t)に対し、フーリエ変換を行い、周波数パワースペクトルにおけるピーク周波数を脈拍数として算出する。推定部163は、算出した脈拍数に関する情報を、推定した脈波を示す脈波情報である脈波推定結果P(t)とする。
 なお、推定部163は、ノイズ除去信号情報E(t)を、脈波推定結果P(t)としてもよい。
 推定部163は、脈波推定結果P(t)を、出力部17に出力する。
 出力部17は、脈波推定部16から出力された脈波推定結果P(t)を、状態推定装置2の脈波情報取得部21に出力する。
 なお、出力部17の機能は脈波推定部16に備えられていてもよい。
 続いて、実施の形態1に係る状態推定装置2の構成例について説明する。
 図1に示すように、状態推定装置2は、脈波推定装置1、脈波情報取得部21、状態推定部22、及び、出力部23を備える。
 脈波情報取得部21は、脈波推定装置1から出力された脈波推定結果P(t)を取得する。
 脈波情報取得部21は、取得した脈波推定結果P(t)を状態推定部22に出力する。
 状態推定部22は、脈波情報取得部21から出力された脈波推定結果P(t)に基づいて、言い換えれば、脈波推定装置1が推定した被験者の脈波に基づいて、被験者の状態を推定する。実施の形態1では、状態推定部22は、脈波推定装置1が推定した被験者の脈拍数に基づいて、被験者の状態を推定する。詳細には、状態推定部22は、被験者、言い換えれば、ドライバの脈拍数に基づいて、ドライバの状態として、ドライバの覚醒度を推定する。例えば、覚醒度は、2段階(1:眠い、2:覚醒している)の覚醒レベルであらわされる。
 状態推定部22は、例えば、脈波情報取得部21から脈波推定結果P(t)が出力されるとこれを記憶するようにし、記憶しておいた脈波推定結果P(t)に基づき、運転開始後10分間の被験者の脈拍数を当該被験者の基準脈拍数として算出する。状態推定部22は、運転が開始されたことを、例えば、車両の電源がオンにされたことで判定すればよい。また、状態推定部22は、運転が開始されたことを、例えば、シフトポジションセンサ等、車両に搭載されている各種センサからの信号に基づいて判定してもよい。
 一般に、人は、運転開始直後は覚醒している状態であると想定される。そこで、状態推定部22は、運転開始後10分間の被験者の脈拍数を、覚醒している状態であるか否かを判定する基準となる基準脈拍数として算出する。被験者の脈拍数が基準脈拍数より低下した場合、被験者の覚醒度は低下していると推定できる。
 状態推定部22は、脈波情報取得部21から出力された脈波推定結果P(t)、言い換えれば、脈波推定装置1が推定した被験者の脈拍数と、基準脈拍数との比較によって、被験者の覚醒度を推定する。状態推定部22は、被験者の脈拍数が基準脈拍数から予め設定された閾値(以下「低下判定用閾値」という。)以上低下した場合、覚醒レベルが低下したとし、覚醒レベル「1」と推定する。
 なお、実施の形態1では、状態推定部22は、脈波情報取得部21から出力された脈波推定結果P(t)、言い換えれば、脈波推定装置1が推定した被験者の脈波に基づき、基準脈拍数を算出するようにしたが、これは一例に過ぎない。例えば、基準脈拍数には、予め、一般的な、人の覚醒状態での脈拍数が設定され、当該基準脈拍数が状態推定部22に記憶されていてもよい。状態推定部22は記憶している基準脈拍数に基づいて、被験者の覚醒度を推定する。ただし、状態推定部22は、上述したように、脈波推定装置1から出力される脈波推定結果P(t)に基づいて被験者に対する基準脈拍数を算出することで、個人差を考慮し、被験者に応じた覚醒度の推定を行うことができる。
 なお、状態推定部22は、脈波推定結果P(t)に基づいて被験者の覚醒度を推定する手法と、公知の覚醒度推定手法とを組み合わせて、被験者の覚醒度を推定してもよい。公知の覚醒度推定手法とは、閉眼時間割合が増加しているかを検出して覚醒度を推定する手法等を想定している。
 状態推定部22は、推定した被験者の状態に関する状態情報Z(t)を出力部23に出力する。
 出力部23は、状態推定部22から出力された状態情報Z(t)を、出力装置3に出力する。
 なお、出力部23の機能は状態推定部22に備えられてもよい。
 実施の形態1では、上述の通り、状態推定部22が推定した被験者の状態に関する状態情報Z(t)は出力装置3に出力されるものとするが、これは一例に過ぎない。例えば、状態推定部22が、状態情報Z(t)を記憶してもよい。この場合、状態推定装置2は、出力装置3と接続されていることを必須としない。また、状態推定装置2は、出力部23を備えない構成とできる。
 実施の形態1に係る脈波推定装置1の動作について説明する。
 図5は、実施の形態1に係る脈波推定装置1の動作について説明するためのフローチャートである。
 撮像画像取得部11は、被験者を撮像した撮像画像を取得する(ステップST1)。
 撮像画像取得部11は、取得した撮像画像を、肌領域検出部12に出力する。
 肌領域検出部12は、ステップST1にて撮像画像取得部11が取得した撮像画像に含まれるフレームIm(k)から肌領域を検出する(ステップST2)。
 肌領域検出部12は、検出した肌領域を示す肌領域情報S(k)を生成する。
 肌領域検出部12は、生成した肌領域情報S(k)を、計測領域設定部13に出力する。
 計測領域設定部13は、ステップST1にて撮像画像取得部11が取得した撮像画像のフレームIm(k)と、ステップST2にて肌領域検出部12が出力した肌領域情報S(k)とに基づき、フレームIm(k)上の、肌領域情報S(k)で示される肌領域に対応する画像領域に、輝度変化を示す脈波元信号を抽出するための複数の計測領域を設定する(ステップST3)。
 計測領域設定部13は、複数の計測領域を設定すると、設定した複数の計測領域を示す計測領域情報R(k)を生成する。
 計測領域設定部13は、生成した計測領域情報R(k)を、脈波元信号抽出部14及び模擬信号取得部15に出力する。
 脈波元信号抽出部14は、ステップST1にて撮像画像取得部11が取得した撮像画像のフレームIm(k)と、ステップST3にて計測領域設定部13から出力された計測領域情報R(k)とに基づき、フレームIm(k)上の、計測領域情報R(k)で示される複数の計測領域ri(k)の各々から、予め定められた期間、言い換えれば、フレーム数Tpに対応する期間における輝度変化を示す脈波元信号を抽出する(ステップST4)。
 脈波元信号抽出部14は、脈波元信号を抽出すると、抽出した脈波元信号を示す脈波元信号情報W(t)を生成する。
 脈波元信号抽出部14は、生成した脈波元信号情報W(t)を、脈波推定部16に出力する。
 模擬信号取得部15は、模擬信号取得元装置から、予め定められた期間、言い換えれば、フレーム数Tpに対応する期間における、計測領域の輝度変化を模擬した模擬信号を取得する(ステップST5)。
 模擬信号取得部15は、模擬信号取得元装置から、計測領域情報R(k)で示される複数の計測領域ri(k)の各々に対応する信号を模擬信号とし、当該模擬信号をあわせて模擬信号情報M(t)とする。
 模擬信号取得部15は、模擬信号情報M(t)を、脈波推定部16へ出力する。
 脈波推定部16は、ステップST4にて脈波元信号抽出部14から出力された脈波元信号情報W(t)と、ステップST5にて模擬信号取得部15から出力された模擬信号情報M(t)とに基づいて、被験者の脈波を推定する(ステップST6)。
 脈波推定部16は、推定した脈波を示す脈波情報である脈波推定結果P(t)を出力部17に出力する。
 出力部17は、脈波推定部16から出力された脈波推定結果P(t)を、状態推定装置2の脈波情報取得部21に出力する。
 なお、図5に示すフローチャートでは、ステップST4、ステップST5の順に処理が行われるものとしているが、これは一例に過ぎない。ステップST4とステップST5の処理の順番は逆でもよいし、ステップST4の処理とステップST5の処理が並行して行われてもよい。
 図6は、図5のステップST6の詳細について説明するためのフローチャートである。
 係数算出部161は、図5のステップST4にて脈波元信号抽出部14から出力された脈波元信号情報W(t)と、図5のステップST5にて模擬信号取得部15から出力された模擬信号情報M(t)とに基づいて、模擬信号情報M(t)に対する係数情報C(t)を算出する(ステップST61)。
 係数算出部161は、算出した係数情報C(t)を、ノイズ除去部162へ出力する。
 ノイズ除去部162は、図5のステップST4にて脈波元信号抽出部14から出力された脈波元信号情報W(t)と、図5のステップST5にて模擬信号取得部15から出力された模擬信号情報M(t)と、ステップST61にて係数算出部161から出力された係数情報C(t)とに基づいて、ノイズの除去を行う(ステップST62)。具体的には、ノイズ除去部162は、脈波元信号wi(t)から、模擬信号mi(t)に除去用係数ci(t)を掛けた信号を引き算することで、ノイズ除去後の信号情報であるノイズ除去信号情報E(t)を算出する(ステップST62)。
 ノイズ除去部162は、算出したノイズ除去信号情報E(t)を、推定部163へ出力する。
 推定部163は、ステップST62にてノイズ除去信号情報E(t)に基づいて、被験者の脈波を推定する(ステップST63)。具体的には、推定部163は、ノイズ除去信号情報E(t)に対し、フーリエ変換を行い、周波数パワースペクトルにおけるピーク周波数を脈拍数として算出する。
 推定部163は、脈波推定結果P(t)を、出力部17に出力する。
 実施の形態1に係る状態推定装置2の動作について説明する。
 図7は、実施の形態1に係る状態推定装置2の動作について説明するためのフローチャートである。
 脈波情報取得部21は、脈波推定装置1から出力された脈波推定結果P(t)を取得する(ステップST11)。
 脈波情報取得部21は、取得した脈波推定結果P(t)を状態推定部22に出力する。
 状態推定部22は、ステップST11にて脈波情報取得部21から出力された脈波推定結果P(t)に基づいて、被験者の状態を推定する(ステップST12)。
 状態推定部22は、推定した被験者の状態に関する状態情報Z(t)を出力部23に出力する。
 出力部23は、状態推定部22から出力された状態情報Z(t)を、出力装置3に出力する。
 被験者の脈波を推定するのに用いる、被験者の肌領域の輝度変化に基づく輝度信号には、被験者の脈波の推定に用いるべき、被験者の真の脈波に基づく輝度信号と、ノイズとなる信号とが含まれている。従って、被験者の脈波を推定するにあたっては、肌領域の輝度変化に基づく輝度信号から上記ノイズとなる信号を除去することで、上記ノイズとなる信号以外の、被験者の真の脈波に基づく輝度信号を抽出する必要がある。
 しかし、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうと、肌領域の輝度変化に基づく輝度信号に含まれている被験者の真の脈波に基づく輝度信号までもが、ノイズとなる信号とともに除去されてしまう。そうすると、被験者の脈波の推定に用いるべき、被験者の真の脈波に基づく輝度信号が十分に残らず、あるいは、当該輝度信号がどれぐらいであったかがわからない状態となり、被験者の脈波を推定できないことになる。
 これに対し、実施の形態1に係る脈波推定装置1は、撮像画像上の、被験者の肌領域に対応する領域に設定した計測領域ri(t)における輝度変化に基づき脈波元信号wi(t)を抽出し、計測領域ri(t)における輝度変化のノイズ成分と推定される模擬信号mi(t)を取得する。そして、脈波推定装置1は、脈波元信号wi(t)から模擬信号mi(t)を除去した後のノイズ除去信号ei(t)に、被験者の脈波を推定するための信号が残るように、模擬信号mi(t)を調整するための除去用係数ci(t)を算出し、脈波元信号wi(t)から除去用係数ci(t)を掛算した模擬信号mi(t)を除去すると、ノイズ除去信号ei(t)に基づいて、被験者の脈波を推定する。
 これにより、脈波推定装置1は、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうことによって上記被験者の脈波の推定に用いるべき上記被験者の肌領域の輝度信号を抽出できない事態を防ぐことができる。その結果、脈波推定装置1は、高精度に被験者の脈波を推定することができる。
 以上の実施の形態1では、脈波推定装置1において、係数算出部161は、上述の式(1)を用いて係数情報C(t)を算出していた。
 しかし、係数算出部161が上述の式(1)を用いて係数情報C(t)を算出した場合、その後、ノイズ除去部162が上述の式(2)を用いて算出したノイズ除去信号情報E(t)が「0」に近い値となる可能性がある。
 そこで、以上の実施の形態1において、係数算出部161は、以下の式(3)を用いて係数情報C(t)を算出してもよい。


Figure JPOXMLDOC01-appb-I000003

 式(3)は、式(1)にλ||C(t)||の項を追加することで、||C(t)M(t)-W(t)||が「0」に近づく度合いを軽減することができる。
 すなわち、係数算出部161は、式(3)を用いて係数情報C(t)を算出することで、その後、ノイズ除去部162が算出するノイズ除去信号情報E(t)の中に、脈波情報の推定に必要な信号成分が残らなくなるという事態をより抑制することができる。脈波推定装置1は、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうことによって上記被験者の脈波の推定に用いるべき上記被験者の肌領域の輝度信号を抽出できない事態を、より防ぐことができる。その結果、脈波推定装置1は、高精度に被験者の脈波を推定することができる。
 また、以上の実施の形態1では、脈波推定装置1において、計測領域設定部13は、フレームIm(k)上の、肌領域情報S(k)で示される肌領域に対応する画像領域に、複数の計測領域を設定したが、これは一例に過ぎない。例えば、計測領域設定部13が設定する計測領域は1つであってもよい。
 なお、計測領域設定部13が計測領域を1つのみ設定する場合、設定される1つの計測領域は、会話による口の動き、又は、表情の変化による動き等、動きの少ない肌領域に設定されることが好ましい。ここでいう「肌領域の動き」とは、頭の位置自体の移動に伴ったものではなく、頭の位置自体の移動以外の要因で生じる「肌領域の動き」をいう。
 例えば、計測領域設定部13が計測領域を1つのみ設定する場合、設定される1つの計測領域は、頬又は額に対応する肌領域に設定されることが好ましい。ただし、額に対応する肌領域は前髪等で隠れる可能性があるため、額より頬に対応する肌領域の方が、より好ましい。
 また、以上の実施の形態1では、脈波推定装置1は状態推定装置2に備えられていたが、これは一例に過ぎない。脈波推定装置1は、状態推定装置2の外部に備えられ、状態推定装置2の外部にて状態推定装置2と接続されていてもよい。
 また、以上の実施の形態1では、照明部は撮像装置に備えられていたが、これは一例に過ぎない。例えば、撮像装置の外部に照明装置が備えられ、照明装置が、撮像装置の外部から撮像範囲に光を照射してもよい。
 また、以上の実施の形態1では、被験者は、車両のドライバとしたが、これは一例に過ぎない。被験者は、車両のドライバ以外の乗員としてもよい。
 また、以上の実施の形態1では、脈波推定装置1及び状態推定装置2は車載装置とし、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17と、脈波情報取得部21と、状態推定部22と、出力部23は、車載装置に備えられていた。
 これに限らず、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17と、脈波情報取得部21と、状態推定部22と、出力部23のうち、一部が車両の車載装置に搭載され、その他が当該車載装置とネットワークを介して接続されるサーバに備えられて、車載装置とサーバとでシステムを構成してもよい。
 また、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17と、脈波情報取得部21と、状態推定部22と、出力部23が全部サーバに備えられてもよい。
 また、以上の実施の形態1に係る脈波推定装置1及び状態推定装置2は、車両に搭載される車載装置に限らず、例えば、家電機器に適用することもできる。また、被験者は、車両の乗員に限らず、様々な人とできる。
 具体例を挙げると、脈波推定装置1及び状態推定装置2は、住居においてリビングに設置されているテレビに搭載されてもよい。この場合、被験者は、住居の住人等のユーザである。脈波推定装置1は、テレビに搭載されている撮像装置が撮像した撮像画像に基づき、ユーザの脈波を推定する。なお、撮像装置は、少なくとも被験者の肌存在範囲を撮像可能になっていればよい。状態推定装置2は、例えば、脈波推定装置1が推定したユーザの脈波に基づく脈波推定結果P(t)に基づいて、脈拍数の上昇又は下降からユーザの体調を推定し、記録する。
 図8A,図8Bは、実施の形態1に係る脈波推定装置1のハードウェア構成の一例を示す図である。
 実施の形態1において、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17の機能は、処理回路101により実現される。すなわち、脈波推定装置1は、環境光モデルを用いて被験者の脈波を推定する制御を行うための処理回路101を備える。
 処理回路101は、図8Aに示すように専用のハードウェアであっても、図8Bに示すようにメモリに格納されるプログラムを実行するプロセッサ104であってもよい。
 処理回路101が専用のハードウェアである場合、処理回路101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又はこれらを組み合わせたものが該当する。
 処理回路がプロセッサ104の場合、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17の機能は、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアは、プログラムとして記述され、メモリ105に記憶される。プロセッサ104は、メモリ105に記憶されたプログラムを読み出して実行することにより、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17の機能を実行する。すなわち、脈波推定装置1は、プロセッサ104により実行されるときに、上述の図5のステップST1~ステップST6が結果的に実行されることになるプログラムを格納するためのメモリ105を備える。また、メモリ105に記憶されたプログラムは、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17の処理の手順又は方法をコンピュータに実行させるものであるともいえる。ここで、メモリ105とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、又は、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
 なお、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。例えば、撮像画像取得部11と出力部17については専用のハードウェアとしての処理回路101でその機能を実現し、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16についてはプロセッサ104がメモリ105に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 また、脈波推定装置1は、撮像装置等の装置と、有線通信又は無線通信を行う入力インタフェース装置102及び出力インタフェース装置103を備える。
 実施の形態1に係る状態推定装置2のハードウェア構成の一例も、図8A,図8Bに示すような構成である。
 実施の形態1において、脈波情報取得部21と、状態推定部22と、出力部23の機能は、処理回路101により実現される。すなわち、状態推定装置2は、脈波推定装置1が推定した被験者の脈波に関する脈波情報に基づいて、被験者の状態を推定する制御を行うための処理回路101を備える。
 処理回路がプロセッサ104の場合、脈波情報取得部21と、状態推定部22と、出力部23の機能は、ソフトウェア、ファームウェア、又は、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア又はファームウェアは、プログラムとして記述され、メモリ105に記憶される。プロセッサ104は、メモリ105に記憶されたプログラムを読み出して実行することにより、脈波情報取得部21と、状態推定部22と、出力部23の機能を実行する。すなわち、状態推定装置2は、プロセッサ104により実行されるときに、上述の図7のステップST11~ステップST12が結果的に実行されることになるプログラムを格納するためのメモリ105を備える。また、メモリ105に記憶されたプログラムは、脈波情報取得部21と、状態推定部22と、出力部23の処理の手順又は方法をコンピュータに実行させるものであるともいえる。
 なお、脈波情報取得部21と、状態推定部22と、出力部23の機能について、一部を専用のハードウェアで実現し、一部をソフトウェア又はファームウェアで実現するようにしてもよい。例えば、脈波情報取得部21と出力部23については専用のハードウェアとしての処理回路101でその機能を実現し、状態推定部22についてはプロセッサ104がメモリ105に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
 また、状態推定装置2は、脈波推定装置1又は出力装置3等の装置と、有線通信又は無線通信を行う入力インタフェース装置102及び出力インタフェース装置103を備える。
 以上のように、実施の形態1に係る脈波推定装置1は、人(被験者)を撮像した撮像画像を取得する撮像画像取得部11と、撮像画像から人の肌領域を検出する肌領域検出部12と、撮像画像上の、肌領域に対応する領域に、輝度変化を示す脈波元信号wi(t)を抽出するための計測領域ri(k)を設定する計測領域設定部13と、撮像画像上の計測領域ri(k)における輝度変化に基づき、脈波元信号wi(t)を抽出する脈波元信号抽出部14と、計測領域ri(k)における輝度変化のノイズ成分と推定される、計測領域ri(k)の輝度変化を模擬した模擬信号mi(t)を取得する模擬信号取得部15と、脈波元信号wi(t)から模擬信号mi(t)を除去した後のノイズ除去信号ei(t)に、人の脈波を推定するための信号が残るように、模擬信号mi(t)を調整するための係数(除去用係数ci(t))を算出する係数算出部161と、脈波元信号wi(t)から係数を掛算した模擬信号mi(t)を除去するノイズ除去部162と、ノイズ除去信号ei(t)に基づいて、人の脈波を推定する推定部163とを備えるように構成した。そのため、脈波推定装置1は、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうことによって上記被験者の脈波の推定に用いるべき上記被験者の肌領域の輝度信号を抽出できない事態を防ぐことができる。その結果、脈波推定装置1は、被験者の脈波を高精度に推定できる。
 また、以上の実施の形態1に係る状態推定装置2は、上記構成を有する脈波推定装置1が推定した人(被験者)の脈波に基づいて、人の状態を推定するように構成した。そのため、状態推定装置2は、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうことによって上記被験者の脈波の推定に用いるべき上記被験者の肌領域の輝度信号を抽出できない事態を防いで、高精度に推定された脈波に基づいて被験者の状態を推定することができる。その結果、状態推定装置2は、高精度に被験者の状態を推定することができる。
実施の形態2.
 実施の形態1では、脈波推定装置は、模擬信号取得元装置から模擬信号を取得していた。
 実施の形態2では、脈波推定装置が、模擬信号を生成する実施の形態について説明する。
 図9は、実施の形態2に係る脈波推定装置1aを備えた状態推定装置2の構成例を示す図である。
 図9において、実施の形態1にて図1を用いて説明した状態推定装置2の構成例と同様の構成例については、同じ符号を付して重複した説明を省略する。
 図9に示す状態推定装置2の構成例は、実施の形態1にて図1を用いて説明した状態推定装置2の構成例とは、状態推定装置2に備えられている脈波推定装置1aの構成例が異なる。
 図10は、実施の形態2に係る脈波推定装置1aの構成例を示す図である。
 図10において、実施の形態1にて図2を用いて説明した脈波推定装置1の構成例と同様の構成例については、同じ符号を付して重複した説明を省略する。
 図10に示す脈波推定装置1aの構成例は、実施の形態1にて図2を用いて説明した脈波推定装置1の構成例とは、模擬信号生成部18を備える点が異なる。
 模擬信号生成部18は、撮像画像取得部11が取得した撮像画像のフレームIm(k)と、計測領域設定部13から出力された計測領域情報R(k)とに基づいて、予め定められた期間、言い換えれば、フレーム数Tpに対応する期間における計測領域の輝度変化を模擬した模擬信号を生成する。なお、実施の形態2では、計測領域設定部13は、生成した計測領域情報R(k)を、脈波元信号抽出部14及び模擬信号生成部18に出力する。
 例えば、模擬信号生成部18は、撮像画像のフレームIm(k)と、計測領域情報R(k)と、環境光モデルとに基づき、環境光のもとで、予め定められた期間、言い換えれば、フレーム数Tpに対応する期間における、計測領域の位置変化によって生じる当該計測領域の輝度変化を模擬した模擬信号を生成する。
 模擬信号生成部18は、計測領域情報R(k)で示される複数の計測領域ri(k)の各々について上記模擬信号を生成する。
 模擬信号生成部18は、撮像画像取得部11が取得した撮像画像を、肌領域検出部12及び計測領域設定部13を介して取得すればよい。
 模擬信号生成部18は、計測領域ri(k)の各々について模擬信号を生成すると、生成した模擬信号をあわせた模擬信号情報M(t)を生成する。
 模擬信号情報M(t)は、計測領域ri(k)に対し生成された模擬信号mi(t)を示す情報を含む。模擬信号mi(t)は、Tp分の時系列データであり、例えば、過去Tp分のフレームIm(k-Tp+1),Im(k-Tp+2),・・・,Im(k)と、計測領域情報R(k-Tp+1),R(k-Tp+2),・・・,R(k)と、環境光モデルとに基づいて生成される。
 環境光モデルは、予め、模擬信号生成部18に備えられている。
 環境光モデルは、環境光が照射される範囲の空間的な輝度分布に基づき、撮像画像上の座標の輝度値を模擬した値を出力する環境光の分布モデルである。
 例えば、撮像画像が撮像される際の環境光が、撮像装置の照明部の照明光とする。ここで、例えば、照明部による照明光は、撮像部の撮像範囲の中心付近に、一番強く照射されるとする。撮像部が撮像する撮像画像において、中央部の輝度が一番高くなり、当該中央部から撮像画像の端部にかけて輝度が低くなっていく。なお、実施の形態2において、「中央」は、厳密に「中央」であることに限定されず、略中央を含む。
 このように、例えば、撮像画像において中央部が明るく周囲が暗くなるように当該撮像画像が撮像されるよう撮像範囲に照射される環境光の場合、環境光モデルは、次の式(4)で表すような2次元ガウス分布である。


Figure JPOXMLDOC01-appb-I000004

 q_(x,y)は撮像画像上の座標(x,y)における輝度値を模擬した値であり、(x_c,y_c)は2次元ガウス分布の中心座標である。aは、2次元ガウス分布の高さを決めるパラメータである。σは、2次元ガウス分布の拡がりを決めるパラメータである。2次元ガウス分布の中心座標は、照明部が照射した照明光を撮像部で取得した際の空間的な輝度分布に基づいて決定される。
 図11は、実施の形態2において、環境光モデルに2次元ガウス分布を用いた場合の、撮像画像における、環境光モデルがあらわす環境光の分布の一例を示す図である。
 図11に示す環境光モデルは、環境光が撮像装置の照明部の照明光である場合の環境光モデルとしている。
 模擬信号生成部18は、計測領域ri(k)に含まれている撮像画像上の座標値(x,y)を、上記環境光モデルを用いて、模擬信号mi(t)に変換する。
 模擬信号mi(t)を生成するにあたっては、模擬信号生成部18は、撮像画像の各フレームIm(k)に対して、上記環境光モデルを用いて、各計測領域ri(k)の中の座標における輝度値を模擬した値Vi(j)(j=k-Tp+1,k-Tp+2,・・・,k)を算出する。模擬信号生成部18は、撮像画像の各フレームIm(k)に対し算出したVi(j)を時系列に並べて模擬信号mi(t)とする。すなわち、模擬信号生成部18は、模擬信号mi(t)=[Vi(k-Tp+1),Vi(k-Tp+2),・・・,Vi(k)]とする。
 そして、模擬信号生成部18は、各計測領域ri(k)における模擬信号mi(t)をまとめたものを模擬信号情報M(t)として生成する。
 なお、以上の説明では、環境光モデルは2次元ガウス分布としたが、これは一例に過ぎない。環境光モデルとして2次元ガウス分布以外の任意のモデルが用いられてもよい。例えば、環境光が撮像装置の照明部の照明光である場合、照明光の分布を実測したものが環境光モデルとして用いられてもよい。つまり、環境光モデルは、数式としてモデル化したものに限らず、撮像画像上のどの位置がどれぐらいの明るさになるかを実測して得られた値を元に生成されたものであってもよい。
 また、模擬信号生成部18は、模擬信号mi(t)を、計測領域ri(k)に対し、1つ算出してもよいし、各計測領域ri(k)が持つ座標点数分算出してもよい。実施の形態2では、一例として、模擬信号生成部18は、計測領域ri(k)に対し、1つの模擬信号mi(t)を算出するものとする。模擬信号生成部18は、例えば、計測領域ri(k)の四辺形の重心座標を用いて、計測領域ri(k)に対し1つの模擬信号mi(t)を算出する。
 模擬信号生成部18は、生成した模擬信号情報M(t)を、模擬信号取得部15へ出力する。
 実施の形態2では、模擬信号取得部15は、模擬信号生成部18から出力された模擬信号情報M(t)を取得し、当該模擬信号情報M(t)を、脈波推定部16へ出力する。
 なお、例えば、模擬信号生成部18が、各計測領域ri(k)において、座標点数分の模擬信号mi(t)を算出する場合、ノイズ除去部162は、1つの計測領域ri(k)に対して算出される模擬信号mi(t)の数に応じた係数(以下「模擬信号用係数」という。)を各模擬信号mi(t)に掛け算する。そして、ノイズ除去部162は、模擬信号用係数を掛けた後の模擬信号mi(t)に除去用係数ci(t)を掛けた信号を、脈波元信号wi(t)から引き算する。
 具体例を挙げると、例えば、模擬信号生成部18は、各計測領域ri(k)において、座標点数分の模擬信号mi(t)の振幅の最大値をmi_amp(t)、脈波元信号wi(t)の振幅の最大値をwi_amp(t)とする。この場合、ノイズ除去部162は、各模擬信号mi(t)に模擬信号用係数「wi_amp/mi_amp」を掛ける。そして、ノイズ除去部162は、「wi_amp/mi_amp」を掛けた後の各模擬信号mi(t)を、脈波元信号wi(t)から引き算する。
 実施の形態2に係る脈波推定装置1aの動作について説明する。
 図12は、実施の形態2に係る脈波推定装置1aの動作について説明するためのフローチャートである。
 図12において、ステップST21~ステップST24、ステップST27の具体的な動作は、それぞれ、実施の形態1にて説明済みの、図5のステップST1~ステップST4、ステップST6の具体的な動作と同様であるため、重複した説明を省略する。
 模擬信号生成部18は、ステップST21にて撮像画像取得部11が取得した撮像画像のフレームIm(k)と、ステップST23にて計測領域設定部13から出力された計測領域情報R(k)とに基づき、予め定められた期間、言い換えれば、フレーム数Tpに対応する期間における、計測領域の輝度変化を模擬した模擬信号を生成する(ステップST25)。
 例えば、模擬信号生成部18は、ステップST21にて撮像画像取得部11が取得した撮像画像のフレームIm(k)と、ステップST23にて計測領域設定部13から出力された計測領域情報R(k)と、環境光モデルとに基づき、環境光のもとで、予め定められた期間、言い換えれば、フレーム数Tpに対応する期間における計測領域の位置変化によって生じる当該計測領域の輝度変化を模擬した模擬信号を生成する。
 なお、ステップST23において、計測領域設定部13は、生成した計測領域情報R(k)を、脈波元信号抽出部14及び模擬信号生成部18に出力する。
 そして、模擬信号生成部18は、計測領域ri(k)の各々について生成した模擬信号をあわせた模擬信号情報M(t)を生成する。
 模擬信号生成部18は、生成した模擬信号情報M(t)を、模擬信号取得部15へ出力する。
 模擬信号取得部15は、ステップST25にて模擬信号生成部18から出力された模擬信号情報M(t)を取得する(ステップST26)。
 模擬信号取得部15は、取得した模擬信号情報M(t)を、脈波推定部16に出力する。
 なお、図12に示すフローチャートでは、ステップST24、ステップST25の順に処理が行われるものとしているが、これは一例に過ぎない。ステップST24とステップST25の処理の順番は逆でもよいし、ステップST24の処理とステップST25の処理が並行して行われてもよい。
 実施の形態2に係る状態推定装置2の動作は、実施の形態1にて図7に示すフローチャートを用いて説明した動作と同様であるため、重複した説明を省略する。
 このように、脈波推定装置1aは、例えば、撮像画像のフレームIm(k)と、計測領域情報R(k)と、環境光モデルとに基づき、環境光のもとで、予め定められた期間、言い換えれば、フレーム数Tpに対応する期間における計測領域の位置変化によって生じる当該計測領域の輝度変化を模擬した模擬信号mi(t)を生成することができる。そして、脈波推定装置1aは、脈波元信号wi(t)から、生成した模擬信号mi(t)を除去した後の信号に、被験者の脈波を推定するための信号が残るように、模擬信号mi(t)を調整するための除去用係数ci(t)を算出し、脈波元信号wi(t)から除去用係数ci(t)を掛算した模擬信号mi(t)を除去すると、除去した後のノイズ除去信号ei(t)に基づいて、被験者の脈波を推定する。
 これにより、脈波推定装置1aは、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうことによって上記被験者の脈波の推定に用いるべき上記被験者の肌領域の輝度信号を抽出できない事態を防ぐことができる。その結果、脈波推定装置1aは、高精度に被験者の脈波を推定することができる。
 また、以上の実施の形態2では、脈波推定装置1aは、上述のとおり、例えば、撮像画像のフレームIm(k)と、計測領域情報R(k)と、環境光モデルとに基づき、環境光のもとで、予め定められた期間、言い換えれば、フレーム数Tpに対応する期間における計測領域の位置変化によって生じる当該計測領域の輝度変化を模擬した模擬信号mi(t)を生成する。
 脈波推定装置1aは、模擬信号を生成する際、環境光モデルを用いることで、撮像範囲における環境光の分布が不均一なシーンであっても、被験者の動きによるノイズを除去し、被験者の脈波を推定することができる。以下、詳細に説明する。
 上述したように、撮像装置で取得した撮像画像における人の肌領域の微小な輝度変化から、非接触に脈波を推定する手法が知られている。例えば、以下の参考文献1のように、被験者の顔画像上に複数の計測領域を設定し、各計測領域で取得された輝度信号の周波数パワースペクトルを算出し、当該周波数パワースペクトルのピーク周波数に応じて脈波を合成し、合成した脈波の周波数パワースペクトルのピークから脈拍数を推定する手法が知られている。
[参考文献1]
 Mayank Kumar, et al.,“DistancePPG: Robust non-contact vital signs monitoring using a camera”,Biomedical optics express,6(5),1565-1588,2015
 しかし、参考文献1に開示されているような手法では、被験者の顔が動くと脈波の推定精度が低下する問題がある。被験者の顔が動くと、顔の動きに相当する成分が周波数パワースペクトルのピークとして出現するため、脈波に相当する周波数成分ではなく、顔の動きに相当する成分を脈波として誤検出してしまうためである。
 このような問題に対し、上述のとおり、撮像領域における顔領域の位置情報を周波数分析して得られた特定の周波数成分を、顔領域からの画像信号からノイズとして除去する技術が知られている。
 しかし、撮像範囲における環境光の分布が不均一なシーンも発生し得る。
 例えば、撮像装置において、照明部による照明光は、撮像部の撮像範囲の中心付近に、一番強く照射されるとする。そうすると、撮像部が撮像する撮像画像において、中央部の輝度が一番高くなり、当該中央部から撮像画像の端部にかけて輝度が低くなっていく。すなわち、撮像範囲における環境光の分布が不均一になる。
 撮像範囲における環境光の分布が不均一なシーンでは、撮像画像における被験者の肌領域の微小な輝度変化から推定される脈波は、肌領域の位置の変化だけでなく、環境光の影響を受ける。このことが考慮されていないと、ノイズ除去の際に、十分なノイズ除去効果が得られない可能性がある。
 図13は、環境光の分布が不均一な場合に生じる、環境光の、撮像画像に基づく被験者の脈波推定に用いる信号への影響について説明するための図である。13Aは、環境光の分布が均一なシーンで撮像された撮像画像の一例を示す図である。図13Bは、環境光の分布が不均一なシーンで撮像された撮像画像の一例を示す図である。
 図13A及び図13Bにおいて、撮像画像を、それぞれ、ImA、ImBで示している。図13A及び図13Bに示す撮像画像上の色の濃さは、環境光に応じた輝度分布をあらわしている。色が薄いほど(白いほど)輝度が高く、色が濃くなるほど(黒くなるほど)輝度が低くなっていくことをあらわしている。
 撮像画像には、被験者(図13AではSA、図13BではSBで示す)が撮像される。
 例えば、被験者は顔を動かしたため、時系列の複数の撮像画像のフレーム(Tp分のフレーム)において被験者の顔が図13上左から右へ移動するとする。便宜上、図13では1フレームの撮像画像のみ示し、時系列の複数の撮像画像のフレームにおける被験者の顔の位置の移動を矢印であらわしている。
 図13Aに示すように、環境光が均一なシーンでは、被験者が顔を動かしても、言い換えれば、時系列の撮像画像の複数フレームにおいて被験者の顔がどの位置にあっても、顔の位置を示す信号及び顔の表面の輝度を示す信号は、ともに、環境光の影響を受けない。一方、図13Bに示すように、環境光が不均一なシーンでは、被験者が顔を動かしても顔の位置を示す信号は環境光の影響を受けないのに対し、被験者が顔を動かすことにより、言い換えれば、時系列の撮像画像の複数フレームにおいて被験者の顔の位置が変わることにより、被験者の顔の表面の輝度を示す信号は、環境光の影響を受ける。被験者の顔が撮像画像の中央付近に近いほど、被験者の顔の表面の輝度は、環境光の影響を受け、高くなる。
 脈波推定装置1aは、撮像画像のフレームIm(k)と、計測領域情報R(k)と、環境光モデルとに基づき、環境光のもとで、予め定められた期間、言い換えれば、フレーム数Tpに対応する期間における計測領域の位置変化によって生じる当該計測領域の輝度変化を模擬した模擬信号mi(t)を生成する。そして、脈波推定装置1は、生成した模擬信号mi(t)を、ノイズ除去に利用する。そのため、脈波推定装置1aは、撮像範囲における環境光の分布が不均一なシーンであっても、被験者の肌領域の位置変化によるノイズを除去し、被験者の脈波を推定することができる。そして、状態推定装置2は、撮像範囲における環境光の分布が不均一なシーンであっても、被験者の状態を推定することができる。
 なお、以上の説明では、環境光モデルは1つであることを想定していたが、環境光モデルは複数存在してもよい。
 模擬信号生成部18は、複数の環境光モデルを用いて模擬信号mi(t)及び当該模擬信号mi(t)をあわせた模擬信号情報M(t)を生成できる。
 この場合、脈波推定部16において、係数算出部161は、脈波元信号情報W(t)と、模擬信号生成部18が複数の環境光モデルを用いて生成した複数の模擬信号情報M(t)とに基づいて、上記式(1)を用いて、複数の環境光モデルに対する係数情報C(t)を算出する。
 ノイズ除去部162は、上記式(2)を用いて、脈波元信号情報W(t)から、係数情報C(t)を掛算した複数の模擬信号情報M(t)を引き算して、ノイズ除去信号情報E(t)を算出する。
 図14は、実施の形態2における、模擬信号生成部18による、複数の環境光モデルに基づく模擬信号mi(t)の生成方法の一例について説明するための図である。
 図14において、ImCは、夜間に走行中の車両にて撮像装置が撮像した撮像画像を示し、ImDは、昼間に、撮像画像上で左側の輝度が高くなるよう撮像範囲に光が入り込む環境で走行中の車両にて撮像装置が撮像した撮像画像を示し、ImEは、昼間に、撮像画像上で右側の輝度が高くなるよう撮像範囲に光が入り込む環境で走行中の車両にて撮像装置が撮像した撮像画像を示している。また、図14において、81aは、ImCに示す撮像画像が撮像される状況における環境光に基づく環境光モデルがあらわす光の強度分布を示す図であり、81bは、ImDに示す撮像画像が撮像される状況における環境光に基づく環境光モデルがあらわす光の強度分布を示す図であり、81cは、ImEに示す撮像画像が撮像される状況における環境光に基づく環境光モデルがあらわす光の強度分布を示す図である。81a、81b、及び、81cにおいて、環境光の強度は色の濃さで示しており、白いほど強度が高いことをあらわしている。なお、わかりやすさのため、図14では、撮像装置が備える撮像部(図14において401で示す)及び照明部(図14において402で示す)を図示している。また、図14において、Drは、被験者、ここでは、運転者の顔を示している。
 例えば、夜間の走行シーンでは、環境光は撮像装置に備えられた照明部が照射する照明光のみとなる。
 例えば、昼間の、撮像画像上で左側の輝度が高くなるよう車外から光が入り込む走行シーンでは、環境光は車外から入り込む光となる。また、昼間の、撮像画像上で左側の輝度が高くなるよう車外から光が入り込む走行シーンでは、環境光は車外から入り込む光となる。
 例えば、模擬信号生成部18が、予め、夜間の走行シーン及び昼間の走行シーンに応じた複数の環境光モデルを備えておき、複数の環境光モデルを用いて模擬信号mi(t)及び模擬信号情報M(t)を生成するよう構成することで、脈波推定装置1aは、撮像範囲における環境光の分布が不均一な、様々なシーンに対応して、被験者の肌領域の動きによるノイズを除去し、被験者の脈波を推定できる。
 なお、以上の実施の形態2では、脈波推定装置1aにおいて、模擬信号生成部18は、撮像画像のフレームIm(k)と、計測領域情報R(k)と、環境光モデルとに基づき、模擬信号mi(t)を生成したが、これは一例に過ぎない。
 模擬信号生成部18は、例えば、環境光モデルを用いず、撮像画像のフレームIm(k)と、計測領域情報R(k)とに基づいて、計測領域の位置変化によって生じる計測領域の輝度変化を模擬した信号を、模擬信号mi(t)として生成してもよい。
 この場合も、脈波推定装置1aは、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうことによって上記被験者の脈波の推定に用いるべき上記被験者の肌領域の輝度信号を抽出できない事態を防ぐことができる。その結果、脈波推定装置1aは、高精度に被験者の脈波を推定することができる。
 被験者の動きは、左右の動きに限らず、前後の動きもあり得る。そこで、以上の実施の形態2において、模擬信号生成部18は、これを考慮して模擬信号mi(t)及び当該模擬信号mi(t)をあわせた模擬信号情報M(t)を生成してもよい。
 詳細には、模擬信号生成部18は、例えば、被験者の左右の動きによって生じる計測領域ri(k)の輝度変化のスケール(振幅)、及び、被験者の前後の動きによって生じる計測領域ri(k)の輝度変化のスケールを正規化した信号に基づき、模擬信号mi(t)を生成してもよい。
 模擬信号生成部18は、以上の実施の形態2で説明したような方法で生成した模擬信号mi(t)を、被験者の左右の動きによって生じる計測領域ri(k)の輝度変化を模擬した模擬信号mi(t)(以下「第1模擬信号mi1(t)」という。)とする。
 模擬信号生成部18は、第1模擬信号mi1(t)とは別に、被験者の前後の動きによって生じる計測領域ri(k)の輝度変化を模擬した模擬信号mi(t)(以下「第2模擬信号mi2(t)」という。)を生成する。
 模擬信号生成部18が第2模擬信号mi2(t)を生成する具体的な方法について、説明する。
 模擬信号生成部18は、まず、すべての計測領域ri(k)の外接矩形Rec(k)を算出し、その中心座標O(k)(x,y)=(xc,yc)を求める。図15の左側の図は、計測領域ri(k)の外接矩形Rec(k)、及び、その中心座標O(k)の一例を示す図である。
 次に、模擬信号生成部18は、各計測領域ri(k)の各頂点座標と、前記中心座標O(k)との距離Dis(k)を算出する。例えば、計測領域ri(k)の一角の頂点座標を(x,y)=(xi_rb,yi_rb)とし、それに対応した前記中心座標O(k)との距離をDis_i_rbとした場合、模擬信号生成部18は、Dis_i_rbを、以下の式(5)を用いて算出する。図15の右側の図は、計測領域ri(k)の一角の頂点座標と、それに対応した前記中心座標O(k)との距離のイメージを示す図である。


Figure JPOXMLDOC01-appb-I000005
 そして、模擬信号生成部18は、上記のように求めた各計測領域ri(k)の頂点座標と外接矩形の中心座標O(k)との距離Dis(k)を第2模擬信号mi2(t)とする。
 なお、上述の例では、模擬信号生成部18は、各計測領域ri(k)の頂点座標と外接矩形の中心座標O(k)との距離を算出したが、これに限らない。例えば、模擬信号生成部18は、各計測領域ri(k)の重心座標と外接矩形Rec(k)の中心座標O(k)との距離を算出するようにしてもよい。
 また、上述の例において、模擬信号生成部18は、外接矩形Rec(k)の中心座標O(k)に代えて、各計測領域ri(k)の頂点座標の平均値、言い換えれば、重心を用い、当該重心と、各計測領域ri(k)の頂点座標との距離Dis(k)を算出してもよい。模擬信号生成部18は、各計測領域ri(k)に対する基準座標を定めることができればよい。
 次に、模擬信号生成部18は、第1模擬信号mi1(t)と、第2模擬信号mi2(t)に、係数(以下「正規化用係数」という。)を掛けて、スケールを正規化する。言い換えれば、模擬信号生成部18は、第1模擬信号mi1(t)と、第2模擬信号mi2(t)に、正規化用係数を掛けて、第1模擬信号mi1(t)及び第2模擬信号mi2(t)のスケールの差を揃える。
 例えば、模擬信号生成部18は、第1模擬信号mi1(t)と第2模擬信号mi2(t)のいずれか一方に、正規化用係数を掛ける。例えば、模擬信号生成部18は、第1模擬信号mi1(t)及び第2模擬信号mi2(t)の両方に正規化用係数を掛けてもよい。なお、正規化用係数は予め設定されている値としてもよいし、模擬信号生成部18が、第1模擬信号mi1(t)及び第2模擬信号mi2(t)のスケールの平均値が揃うように正規化用係数を算出してもよい。
 図16は、実施の形態2において、模擬信号生成部18が正規化用係数を掛けることで、スケールの差が揃った第1模擬信号mi1(t)及び第2模擬信号mi2(t)の一例を示す図である。
 そして、模擬信号生成部18は、正規化用係数を掛けた後の第1模擬信号mi1(t)及び第2模擬信号mi2(t)をあわせて模擬信号mi(t)とする。
 このように、模擬信号生成部18が、被験者の左右の動きによって生じる計測領域ri(k)の輝度変化を模擬した信号(第1模擬信号mi1(t))のスケール、及び、被験者の前後の動きによって生じる計測領域ri(k)の輝度変化を模擬した信号(第2模擬信号mi2(t))のスケールを正規化した信号に基づき、模擬信号mi(t)を生成することで、脈波推定装置1aは、被験者の前後の動きも考慮して、被験者の肌領域の位置変化によるノイズを除去し、被験者の脈波を推定することができる。
 また、以上の実施の形態2において、例えば、計測領域設定部13が設定する計測領域は1つであってもよい。
 また、脈波推定装置1aにおいて、模擬信号生成部18が、模擬信号を生成する際に、計測領域設定部13が設定した複数の計測領域のうちから1つ計測領域を選択し、選択した1つの計測領域のみについて模擬信号を生成してもよい。
 また、以上の実施の形態2では、脈波推定装置1aは状態推定装置2に備えられていたが、これは一例に過ぎない。脈波推定装置1aは、状態推定装置2の外部に備えられ、状態推定装置2の外部にて状態推定装置2と接続されていてもよい。
 また、以上の実施の形態2では、照明部は撮像装置に備えられていたが、これは一例に過ぎない。例えば、撮像装置の外部に照明装置が備えられ、照明装置が、撮像装置の外部から撮像範囲に光を照射してもよい。
 また、以上の実施の形態2でも、被験者は、車両のドライバ以外の乗員としてもよい。
 また、以上の実施の形態2では、脈波推定装置1a及び状態推定装置2は車載装置とし、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17と、模擬信号生成部18と、脈波情報取得部21と、状態推定部22と、出力部23は、車載装置に備えられていた。
 これに限らず、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17と、模擬信号生成部18と、脈波情報取得部21と、状態推定部22と、出力部23のうち、一部が車両の車載装置に搭載され、その他が当該車載装置とネットワークを介して接続されるサーバに備えられて、車載装置とサーバとでシステムを構成してもよい。
 また、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17と、模擬信号生成部18と、脈波情報取得部21と、状態推定部22と、出力部23が全部サーバに備えられてもよい。
 また、以上の実施の形態2に係る脈波推定装置1a及び状態推定装置2は、実施の形態1に係る脈波推定装置1及び状態推定装置同様、車両に搭載される車載装置に限らず、例えば、家電機器に適用することもできる。また、被験者は、車両の乗員に限らず、様々な人とできる。
 実施の形態2に係る脈波推定装置1aのハードウェア構成は、実施の形態1において図8A及び図8Bを用いて説明した脈波推定装置1のハードウェア構成と同様である。
 実施の形態2において、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17と、模擬信号生成部18の機能は、処理回路101により実現される。すなわち、脈波推定装置1aは、被験者の脈波を推定する制御を行うための処理回路101を備える。
 処理回路101は、図8Aに示すように専用のハードウェアであっても、図8Bに示すようにメモリに格納されるプログラムを実行するプロセッサ104であってもよい。
 処理回路101は、メモリ105に記憶されたプログラムを読み出して実行することにより、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17と、模擬信号生成部18の機能を実行する。すなわち、脈波推定装置1aは、処理回路101により実行されるときに、上述の図12のステップST21~ステップST27が結果的に実行されることになるプログラムを格納するためのメモリ105を備える。また、メモリ105に記憶されたプログラムは、撮像画像取得部11と、肌領域検出部12と、計測領域設定部13と、脈波元信号抽出部14と、模擬信号取得部15と、脈波推定部16と、出力部17と、模擬信号生成部18の処理の手順又は方法をコンピュータに実行させるものであるとも言える。
 また、脈波推定装置1aは、撮像装置等の装置と、有線通信又は無線通信を行う入力インタフェース装置102及び出力インタフェース装置103を備える。
 以上のように、実施の形態2に係る脈波推定装置1aは、実施の形態1に係る脈波推定装置1の構成に加え、模擬信号mi(t)を生成する模擬信号生成部18を備えるように構成した。そのため、脈波推定装置1aは、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうことによって上記被験者の脈波の推定に用いるべき上記被験者の肌領域の輝度信号を抽出できない事態を防ぐことができる。その結果、脈波推定装置1aは、被験者の脈波を高精度に推定できる。
 なお、本開示は、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 以下、本開示の諸態様を付記としてまとめて記載する。
  (付記1)
 人を撮像した撮像画像を取得する撮像画像取得部と、
 前記撮像画像から前記人の肌領域を検出する肌領域検出部と、
 前記撮像画像上の、前記肌領域に対応する領域に、輝度変化を示す脈波元信号を抽出するための計測領域を設定する計測領域設定部と、
 前記撮像画像上の前記計測領域における前記輝度変化に基づき、前記脈波元信号を抽出する脈波元信号抽出部と、
 前記計測領域における前記輝度変化のノイズ成分と推定される、前記計測領域の前記輝度変化を模擬した模擬信号を取得する模擬信号取得部と、
 前記脈波元信号から前記模擬信号を除去した後のノイズ除去信号に、前記人の脈波を推定するための信号が残るように、前記模擬信号を調整するための係数を算出する係数算出部と、
 前記脈波元信号から前記係数を掛算した前記模擬信号を除去するノイズ除去部と、
 前記ノイズ除去信号に基づいて前記人の前記脈波を推定する推定部
 とを備えた脈波推定装置。
  (付記2)
 前記模擬信号を生成する模擬信号生成部を備え、
 前記模擬信号取得部は、前記模擬信号生成部が生成した前記模擬信号を取得する
 ことを特徴とする付記1記載の脈波推定装置。
  (付記3)
 前記模擬信号生成部は、前記計測領域の位置変化に基づき、前記計測領域の位置変化によって生じる前記計測領域の前記輝度変化を模擬した信号を、前記模擬信号として生成する
 ことを特徴とする付記2記載の脈波推定装置。
  (付記4)
 前記模擬信号生成部は、前記計測領域の位置変化と、撮像範囲における環境光の分布モデルとに基づき、前記環境光のもとで、前記計測領域の位置変化によって生じる前記計測領域の前記輝度変化を模擬した信号を、前記模擬信号として生成する
 ことを特徴とする付記2記載の脈波推定装置。
  (付記5)
 前記環境光は、前記撮像画像を撮像した撮像装置が備える照明部が照射する照明光である
 ことを特徴とする付記4記載の脈波推定装置。
  (付記6)
 前記模擬信号生成部は、前記環境光が照射される状況に応じた複数の異なる前記環境光の前記分布モデルと前記計測領域の位置変化とに基づき、前記模擬信号を生成する
 ことを特徴とする付記4または付記5記載の脈波推定装置。
  (付記7)
 前記模擬信号生成部は、前記人の左右の動きによって生じる前記計測領域の前記輝度変化を示す信号のスケール、及び、前記人の前後の動きによって生じる前記計測領域の前記輝度変化を示す信号の前記スケール、を正規化した信号に基づき、前記模擬信号を生成する
 ことを特徴とする付記2記載の脈波推定装置。
  (付記8)
 付記1から付記7のうちのいずれか1つ記載の脈波推定装置が推定した前記人の前記脈波に基づいて、前記人の状態を推定する状態推定部
 を備えた状態推定装置。
  (付記9)
 前記状態推定部は、前記人の状態として、前記人の覚醒度を推定する
 ことを特徴とする付記8記載の状態推定装置。
  (付記10)
 前記状態推定部は、前記人が覚醒していると想定される状態で前記脈波推定装置が推定した前記人の前記脈波に基づいて基準脈拍数を算出しておき、前記脈波推定装置が推定した前記脈波と、前記基準脈拍数との比較によって、前記人の前記覚醒度を推定する
 ことを特徴とする付記9記載の状態推定装置。
  (付記11)
 撮像画像取得部が、人を撮像した撮像画像を取得するステップと、
 肌領域検出部が、前記撮像画像から前記人の肌領域を検出するステップと、
 計測領域設定部が、前記撮像画像上の、前記肌領域に対応する領域に、輝度変化を示す脈波元信号を抽出するための計測領域を設定するステップと、
 脈波元信号抽出部が、前記撮像画像上の前記計測領域における前記輝度変化に基づき、前記脈波元信号を抽出するステップと、
 模擬信号取得部が、前記計測領域における前記輝度変化のノイズ成分と推定される、前記計測領域の前記輝度変化を模擬した模擬信号を取得するステップと、
 係数算出部が、前記脈波元信号から前記模擬信号を除去した後のノイズ除去信号に、前記人の脈波を推定するための信号が残るように、前記模擬信号を調整するための係数を算出するステップと、
 ノイズ除去部が、前記脈波元信号から前記係数を掛算した前記模擬信号を除去するステップと、
 推定部が、前記ノイズ除去信号に基づいて前記人の前記脈波を推定するステップ
 とを備えた脈波推定方法。
 本開示に係る脈波推定装置は、ノイズ除去の際に、被験者の肌領域の輝度信号に含まれる脈波信号までもがノイズ成分とみなされ除去されてしまうことによって上記被験者の脈波の推定に用いるべき上記被験者の肌領域の輝度信号を抽出できない事態を防ぐことができる。
 1,1a 脈波推定装置、11 撮像画像取得部、12 肌領域検出部、13 計測領域設定部、14 脈波元信号抽出部、15 模擬信号取得部、16 脈波推定部、161 係数算出部、162 ノイズ除去部、163 推定部、17 出力部、18 模擬信号生成部、2 状態推定装置、21 脈波情報取得部、22 状態推定部、23 出力部、3 出力装置、401 撮像部、402 照明部、101 処理回路、102 入力インタフェース装置、103 出力インタフェース装置、104 プロセッサ、105 メモリ。

Claims (11)

  1.  人を撮像した撮像画像を取得する撮像画像取得部と、
     前記撮像画像から前記人の肌領域を検出する肌領域検出部と、
     前記撮像画像上の、前記肌領域に対応する領域に、輝度変化を示す脈波元信号を抽出するための計測領域を設定する計測領域設定部と、
     前記撮像画像上の前記計測領域における前記輝度変化に基づき、前記脈波元信号を抽出する脈波元信号抽出部と、
     前記計測領域における前記輝度変化のノイズ成分と推定される、前記計測領域の前記輝度変化を模擬した模擬信号を取得する模擬信号取得部と、
     前記脈波元信号から前記模擬信号を除去した後のノイズ除去信号に、前記人の脈波を推定するための信号が残るように、前記模擬信号を調整するための係数を算出する係数算出部と、
     前記脈波元信号から前記係数を掛算した前記模擬信号を除去するノイズ除去部と、
     前記ノイズ除去信号に基づいて前記人の前記脈波を推定する推定部
     とを備えた脈波推定装置。
  2.  前記模擬信号を生成する模擬信号生成部を備え、
     前記模擬信号取得部は、前記模擬信号生成部が生成した前記模擬信号を取得する
     ことを特徴とする請求項1記載の脈波推定装置。
  3.  前記模擬信号生成部は、前記計測領域の位置変化に基づき、前記計測領域の位置変化によって生じる前記計測領域の前記輝度変化を模擬した信号を、前記模擬信号として生成する
     ことを特徴とする請求項2記載の脈波推定装置。
  4.  前記模擬信号生成部は、前記計測領域の位置変化と、撮像範囲における環境光の分布モデルとに基づき、前記環境光のもとで、前記計測領域の位置変化によって生じる前記計測領域の前記輝度変化を模擬した信号を、前記模擬信号として生成する
     ことを特徴とする請求項2記載の脈波推定装置。
  5.  前記環境光は、前記撮像画像を撮像した撮像装置が備える照明部が照射する照明光である
     ことを特徴とする請求項4記載の脈波推定装置。
  6.  前記模擬信号生成部は、前記環境光が照射される状況に応じた複数の異なる前記環境光の前記分布モデルと前記計測領域の位置変化とに基づき、前記模擬信号を生成する
     ことを特徴とする請求項4記載の脈波推定装置。
  7.  前記模擬信号生成部は、前記人の左右の動きによって生じる前記計測領域の前記輝度変化を示す信号のスケール、及び、前記人の前後の動きによって生じる前記計測領域の前記輝度変化を示す信号の前記スケール、を正規化した信号に基づき、前記模擬信号を生成する
     ことを特徴とする請求項2記載の脈波推定装置。
  8.  請求項1から請求項7のうちのいずれか1項記載の脈波推定装置が推定した前記人の前記脈波に基づいて、前記人の状態を推定する状態推定部
     を備えた状態推定装置。
  9.  前記状態推定部は、前記人の状態として、前記人の覚醒度を推定する
     ことを特徴とする請求項8記載の状態推定装置。
  10.  前記状態推定部は、前記人が覚醒していると想定される状態で前記脈波推定装置が推定した前記人の前記脈波に基づいて基準脈拍数を算出しておき、前記脈波推定装置が推定した前記脈波と、前記基準脈拍数との比較によって、前記人の前記覚醒度を推定する
     ことを特徴とする請求項9記載の状態推定装置。
  11.  撮像画像取得部が、人を撮像した撮像画像を取得するステップと、
     肌領域検出部が、前記撮像画像から前記人の肌領域を検出するステップと、
     計測領域設定部が、前記撮像画像上の、前記肌領域に対応する領域に、輝度変化を示す脈波元信号を抽出するための計測領域を設定するステップと、
     脈波元信号抽出部が、前記撮像画像上の前記計測領域における前記輝度変化に基づき、前記脈波元信号を抽出するステップと、
     模擬信号取得部が、前記計測領域における前記輝度変化のノイズ成分と推定される、前記計測領域の前記輝度変化を模擬した模擬信号を取得するステップと、
     係数算出部が、前記脈波元信号から前記模擬信号を除去した後のノイズ除去信号に、前記人の脈波を推定するための信号が残るように、前記模擬信号を調整するための係数を算出するステップと、
     ノイズ除去部が、前記脈波元信号から前記係数を掛算した前記模擬信号を除去するステップと、
     推定部が、前記ノイズ除去信号に基づいて前記人の前記脈波を推定するステップ
     とを備えた脈波推定方法。
PCT/JP2022/017324 2022-04-08 2022-04-08 脈波推定装置、状態推定装置、及び、脈波推定方法 Ceased WO2023195149A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112022006483.8T DE112022006483T5 (de) 2022-04-08 2022-04-08 Pulswellen-Einschätzungsvorrichtung, Zustand-Einschätzungsvorrichtung und Pulswellen-Einschätzungsverfahren
PCT/JP2022/017324 WO2023195149A1 (ja) 2022-04-08 2022-04-08 脈波推定装置、状態推定装置、及び、脈波推定方法
JP2024513659A JP7558451B2 (ja) 2022-04-08 2022-04-08 脈波推定装置、状態推定装置、及び、脈波推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/017324 WO2023195149A1 (ja) 2022-04-08 2022-04-08 脈波推定装置、状態推定装置、及び、脈波推定方法

Publications (1)

Publication Number Publication Date
WO2023195149A1 true WO2023195149A1 (ja) 2023-10-12

Family

ID=88242790

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/017324 Ceased WO2023195149A1 (ja) 2022-04-08 2022-04-08 脈波推定装置、状態推定装置、及び、脈波推定方法

Country Status (3)

Country Link
JP (1) JP7558451B2 (ja)
DE (1) DE112022006483T5 (ja)
WO (1) WO2023195149A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016193021A (ja) * 2015-03-31 2016-11-17 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
WO2017085895A1 (ja) * 2015-11-20 2017-05-26 富士通株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2017104491A (ja) * 2015-12-07 2017-06-15 パナソニック株式会社 生体情報測定装置、生体情報測定方法及びプログラム
JP2020039480A (ja) * 2018-09-07 2020-03-19 株式会社エクォス・リサーチ 脈波検出装置、車両装置、及び脈波検出プログラム
JP2020162873A (ja) * 2019-03-29 2020-10-08 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
JP2021132999A (ja) * 2020-02-28 2021-09-13 株式会社Subaru 車両用制御装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014118748A1 (en) 2013-01-31 2014-08-07 L'air Liquide, Societe Anonyme Pour L'etude Et L'exploitation Des Procedes Georges Claude Cobalt-containing compounds, their synthesis, and use in cobalt-containing film deposition
JP6817782B2 (ja) * 2016-10-31 2021-01-20 三星電子株式会社Samsung Electronics Co.,Ltd. 脈拍検出装置及び脈拍検出方法
JP6727469B1 (ja) * 2018-09-10 2020-07-22 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016193021A (ja) * 2015-03-31 2016-11-17 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
WO2017085895A1 (ja) * 2015-11-20 2017-05-26 富士通株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2017104491A (ja) * 2015-12-07 2017-06-15 パナソニック株式会社 生体情報測定装置、生体情報測定方法及びプログラム
JP2020039480A (ja) * 2018-09-07 2020-03-19 株式会社エクォス・リサーチ 脈波検出装置、車両装置、及び脈波検出プログラム
JP2020162873A (ja) * 2019-03-29 2020-10-08 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
JP2021132999A (ja) * 2020-02-28 2021-09-13 株式会社Subaru 車両用制御装置

Also Published As

Publication number Publication date
DE112022006483T5 (de) 2024-11-14
JP7558451B2 (ja) 2024-09-30
JPWO2023195149A1 (ja) 2023-10-12

Similar Documents

Publication Publication Date Title
US11069057B2 (en) Skin diagnostic device and skin diagnostic method
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
JP6817782B2 (ja) 脈拍検出装置及び脈拍検出方法
EP2818099B1 (en) Cycloduction measurement device, cycloduction measurement method, and cycloduction measurement program
JPWO2016006027A1 (ja) 脈波検出方法、脈波検出プログラム及び脈波検出装置
CN106372629A (zh) 一种活体检测方法和装置
CN111163687B (zh) 脉波检测装置、车辆装置以及存储介质
CN112861588B (zh) 一种活体检测的方法、装置
JP7728941B2 (ja) 網膜色素沈着に基づくフラッシュ強度の動的調節
JP7204785B2 (ja) 血圧測定装置、モデル設定装置、および血圧測定方法
JP4623172B2 (ja) 瞳孔検出装置、瞳孔検出装置用プログラム及び瞳孔検出方法
JP7558451B2 (ja) 脈波推定装置、状態推定装置、及び、脈波推定方法
JP7630062B2 (ja) 脈波推定装置、状態推定装置、及び、脈波推定方法
JP7223103B1 (ja) 錐体外路症状診断装置及び錐体外路症状診断プログラム
CN112884699B (zh) 用于分割图像数据的方法和图像处理设备和计算机程序产品
CN116982093A (zh) 呈现攻击检测
KR102074977B1 (ko) 전자 장치 및 그의 제어 방법
WO2025017760A1 (ja) 脈波推定装置および脈波推定方法
JP6780639B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
CN116959074B (zh) 一种基于多光谱成像的人体皮肤检测方法及装置
JP2025090039A (ja) モデル生成装置、生体データ推定装置、モデル生成システム、生体データ推定システム、および、モデル生成プログラム
KR20250093315A (ko) 신체의 움직임을 검출하기 위한 방법
CN121080938A (zh) 基于结构光的睡眠参数监测方法、装置、终端及存储介质
CN119274240A (zh) 活体检测方法、装置、电子设备及存储介质
Unnikrishnan Analysis of Vocal Fold Kinematics Using High Speed Video

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22936547

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2024513659

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 112022006483

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22936547

Country of ref document: EP

Kind code of ref document: A1