WO2023223376A1 - Human detection device, human detection system, human detection method, and human detection program - Google Patents
Human detection device, human detection system, human detection method, and human detection program Download PDFInfo
- Publication number
- WO2023223376A1 WO2023223376A1 PCT/JP2022/020341 JP2022020341W WO2023223376A1 WO 2023223376 A1 WO2023223376 A1 WO 2023223376A1 JP 2022020341 W JP2022020341 W JP 2022020341W WO 2023223376 A1 WO2023223376 A1 WO 2023223376A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- human
- person
- shape
- likeness
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
Definitions
- the present disclosure relates to a human detection device, a human detection system, a human detection method, and a human detection program.
- Patent Document 1 discloses that a first photoelectric conversion element generates first image data from a visible light component from a subject, a second photoelectric conversion element generates second image data from an infrared component from a subject, an imaging unit having a second photoelectric conversion element, a filter provided on the subject side of the second photoelectric conversion element and on the optical axis from the subject, which removes visible light components and transmits infrared components; a position specifying unit that specifies the position of the subject image within the screen; an intensity detection unit that detects the infrared intensity from the subject in the second image data;
- This paper proposes a technology related to an imaging device having a living body detection unit that detects a living body.
- JP2010-136223A (Page 18, Figure 4)
- the device of Patent Document 1 detects a living body (for example, an actually existing person) using a thermal image as second image data taken with an infrared camera as a second photoelectric conversion element.
- a living body for example, an actually existing person
- a thermal image as second image data taken with an infrared camera as a second photoelectric conversion element.
- a person also referred to as a "person in the medium”
- a display device such as a television that generates heat may be erroneously detected as a living person.
- the present disclosure makes it possible to determine with high accuracy whether a person photographed by a visible image camera is an actually existing person or a person displayed or drawn on the medium.
- the purpose of the present invention is to provide a human detection device, a human detection system, a human detection method, and a human detection program.
- the human detection device of the present disclosure receives an image obtained by photographing a photographing range with a visible image camera that photographs an image in at least a wavelength range of visible light, and receives human shape information indicating the shape of a person in the image.
- a human shape extraction unit that extracts a human shape
- a heat generation area extraction unit that receives a thermal image taken by an infrared camera and extracts heat generation area information indicating a region with a large amount of heat generation in the thermal image
- the shape of the person indicated by the human shape information is based on the human-likeness calculation unit that calculates the human-likeness, which is a numerical value representing the likelihood of
- the present invention is characterized by comprising a person determining unit that determines whether the shape is the shape of the person who actually exists or the shape of a person in the medium who is a person displayed or drawn on the medium.
- the human detection method of the present disclosure is a method executed by a human detection device, which receives an image obtained by photographing a photographing range with a visible image camera that photographs an image in at least a wavelength range of visible light, and a step of extracting human shape information indicating the shape of a person in the image; a step of receiving a thermal image taken with an infrared camera and extracting heat generating area information indicating a region with a large amount of heat generation in the thermal image; Selecting a predetermined specific shaped part of the human shape, and determining whether the selected specific shaped part actually exists within the imaging range based on the human shape information and the heat generation area information.
- the method is characterized by the step of determining whether the shape is the shape of the person who actually exists or the shape of a person in the medium who is a person displayed or drawn on the medium.
- the present invention it is possible to determine with high accuracy whether the shape of a person photographed by a visible image camera is the shape of an actually existing person or the shape of a person displayed or drawn on the medium. It can be determined by
- FIG. 1 is a block diagram schematically showing the configuration of a human detection device and a human detection system according to Embodiment 1.
- FIG. 1 is a diagram illustrating an example of a hardware configuration of a human detection device according to Embodiment 1.
- FIG. (A) to (C) are diagrams showing examples of information acquired by each block of the human detection device according to Embodiment 1, in which (A) is a visible image taken by a visible image camera; ) shows human shape information extracted from a visible image, and (C) shows heat generation area information extracted from a thermal image taken with an infrared camera.
- 3 is a flowchart showing the operation of the human detection device according to the first embodiment.
- FIG. 7 is a flowchart showing the operation of the spherical part human-likeness calculation unit in the first embodiment.
- (A) and (B) are schematic diagrams showing the operation of the spherical part human-likeness calculation unit in the first embodiment.
- 7 is a flowchart showing the operation of a line segment part human-likeness calculation unit in the first embodiment.
- (A) and (B) are schematic diagrams showing the operation of the line segment part human-likeness calculation unit in the first embodiment.
- FIG. 2 is a block diagram schematically showing the configuration of a human detection device and a human detection system according to a second embodiment.
- FIG. 3 is a block diagram schematically showing the configuration of a human detection device and a human detection system according to a third embodiment.
- FIG. 3 is a block diagram schematically showing the configuration of a human detection device and a human detection system according to a fourth embodiment.
- FIG. 1 is a block diagram schematically showing the configuration of a human detection device 10 and a human detection system 1 according to the first embodiment.
- the human detection system 1 includes a human detection device 10, a visible image camera 60, and an infrared camera 70.
- the human detection device 10 is a device that can implement the human detection method according to the first embodiment.
- the human detection device 10 receives a visible image (also simply referred to as an "image") D60 obtained by photographing a shooting range with a visible image camera 60, and human shape information indicating the shape of a person in this visible image D60.
- a human shape extraction unit 11 that extracts D11 receives a thermal image (that is, an infrared image) D70 taken by an infrared camera 70, and extracts heat generation area information D12 indicating a region with a large amount of heat generation in this thermal image D70. It has a heat generating area extracting section 12 that performs the following. Examples of the visible image D60, the human shape information D11, and the heat generating area information D12 are shown in FIGS. 3A to 3C, which will be described later.
- the visible image camera 60 is a camera that captures images in at least the wavelength range of visible light, and is also called a visible light camera.
- the infrared camera 70 is a camera that takes images in an infrared wavelength region, and is also called a thermal image camera or a thermo camera.
- the visible image camera 60 and the infrared camera 70 are configured such that the photographing range, which is an area photographed by the visible image camera 60, and the photographing range, which is an area photographed by the thermal imaging camera, overlap each other (that is, they share a common photographing range. ), it will be installed.
- the human detection device 10 may receive visible images D60 from a plurality of visible image cameras 60.
- the human detection device 10 may receive thermal images D70 from a plurality of infrared cameras 70.
- the visible image camera 60 and the infrared camera 70 do not need to be dedicated to the human detection system 1, and may be cameras used as part of existing equipment.
- the human detection device 10 selects a predetermined specific shape part of the human shape, and determines whether the specific shape part is actually within the imaging range based on the human shape information D11 and the heat generation area information D12.
- the human-likeness calculation unit 13 calculates the human-likeness D13, which is a numerical value representing the certainty that the part is a part of an existing person, and the human-likeness calculation unit 13 calculates the human-likeness D13, which is a numerical value representing the certainty that the part is a part of an existing person.
- the determination unit 14 has a determination unit 14.
- the human-likeness calculation unit 13 selects a spherical spherical part (e.g., head, hand, etc.) as a part of the body with a specific shape (i.e., a specific part), and calculates the human-likeness ("
- the spherical part human-likeness calculation unit 13a calculates D13a, and selects a linear segment part (for example, a part between joints) as a part of a specific shape of the body. and a line segment part human-likeness calculation unit 13b that calculates human-likeness (also referred to as "second human-likeness") D13b based on the line segment parts.
- the person determining unit 14 determines whether the overall shape of the person indicated by the human shape information D11 is the shape of an actually existing person, based on the humanness D13a and D13b of specific parts of the human shape information D11. It is determined whether the shape is that of a person in the medium, and a determination result D14 is output. Note that the determination of the shape of the entire person indicated by the human shape information D11 is referred to as "determination of the human-likeness of the entire human shape information D11." Further, the human-likeness calculation section 13 may include only one of the spherical part human-likeness calculation section 13a and the line segment human-likeness calculation section 13b.
- the spherical part human-likeness calculation unit 13a calculates the human-likeness D13a of a specific part of a person when the specific part of the person is considered to be spherical, based on the human shape information D11 and the heat generation area information D12.
- the calculated human-likeness D13a is used by the human-judgment unit 14 to determine the human-likeness of the entire human shape information D11.
- the spherical part human-likeness calculation unit 13a creates a histogram in which the horizontal axis is the temperature value T and the vertical axis is the degree #N for a circular region including the spherical part, and based on the shape of this histogram, The likelihood D13a is calculated.
- the spherical part human-likeness calculation unit 13a calculates the human-likeness in the case where the histogram shape shows bimodality to a higher value (i.e., the human-likeness in the case where the histogram shape does not show bimodality) (i.e., set to a value indicating that the person is likely to be a person).
- a higher value i.e., the human-likeness in the case where the histogram shape does not show bimodality
- the line segment part human-likeness calculation unit 13b calculates the human-likeness D13b of a specific part of a person when the specific part of the person is regarded as a line segment shape, based on the human shape information D11 and the heat generation area information D12.
- the calculated human-likeness D13b of the specific part is used by the person determining unit 14 to determine the human-likeness of the entire human shape information D11.
- the line segment part human-likeness calculation unit 13b creates a temperature distribution graph with the horizontal axis as the position and the vertical axis as the temperature value T for the line segment part, and calculates the human-likeness based on the shape of this temperature distribution graph. Calculate D13b.
- the line segment part human-likeness calculation unit 13b sets the human-likeness D13b when the shape of the temperature distribution graph is unimodal to a higher value than the humanlikeness D13b when the shape of the temperature distribution graph is not unimodal. (In other words, a value indicating that the person is likely to actually exist).
- a value indicating that the person is likely to actually exist A specific example of the temperature distribution graph will be described later using FIGS. 8(A) and 8(B).
- FIG. 2 is a diagram showing an example of the hardware configuration of the human detection device 10 according to the first embodiment.
- the human detection device 10 is, for example, a computer.
- the human detection device 10 is a device that can execute the human detection program according to the first embodiment.
- the human detection device 10 includes a processor 91 and a memory 92 that is a volatile storage device.
- the human detection device 10 also includes a nonvolatile storage device 93 such as a hard disk drive (HDD) or a solid state drive (SSD), and an interface 94.
- the memory 92 is, for example, a semiconductor memory such as a RAM (Random Access Memory).
- Each block of the human detection device 10 shown in FIG. 1 is configured by a processor that executes a human detection program, which is a software program installed from a recording medium or via a communication line and stored in the memory 92, for example.
- Each function of the human detection device 10 may be realized by a processing circuit.
- the processing circuitry may be dedicated hardware or may be a processor 91 executing a person detection program stored in memory 92.
- the processor 91 may be any one of a processing device, an arithmetic device, a microprocessor, a microcomputer, and a DSP (Digital Signal Processor).
- the processing circuit is dedicated hardware, the processing circuit is, for example, an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).
- part of the human detection device 10 may be realized by hardware, and the other part may be realized by software or firmware.
- the processing circuit can implement each of the above-mentioned functions using hardware, software, firmware, or any combination thereof.
- FIGS. 3A to 3C are diagrams showing examples of information acquired by each block of the human detection device 10.
- 3(A) shows a visible image D60 taken by the visible image camera 60
- FIG. 3(B) shows human shape information D11 extracted from the visible image D60
- FIG. 3(C) shows a visible image D60 taken by the infrared camera 70.
- the heat generating area information D12 extracted from the photographed thermal image D70 is shown.
- the imaging range photographed by the visible image camera 60 may be, for example, the residential area where the person to be monitored lives (e.g. , inside the residence).
- the visible image D60 often includes a display device that is a display medium such as a television. Therefore, as shown in FIG. 3(A), the visible image D60 acquired by the visible image camera 60 includes an image of the person 100 actually existing within the shooting range and the image displayed on the screen of the display device 200.
- a person (that is, a person in the medium that is a person in the display medium) 210 may be included.
- the human shape extraction unit 11 extracts human shape information D11 of the person in the visible image D60 from the visible image D60 acquired by the visible image camera 60 using a known posture detection algorithm such as MoveNet.
- the human shape information D11 includes coordinates of body parts. Further, the human shape information D11 may include coordinates of body parts and reliability of the body parts. Examples of body parts include the head, both shoulders, both elbows, both wrists, hips, the bases of both feet, both knees, and both ankles. If the reliability of a body part cannot be explicitly obtained, the subsequent processing is performed with the reliability of all parts set to the same value (for example, 1).
- the human shape information D11 also includes a person depicted on a poster who is a person in the medium existing in the visible image D60.
- the spherical part 101 indicated by the human shape information D11 of the actually existing person 100 and the medium displayed on the screen of the display device 200 The medium internal region 211 indicated by the human shape information D11 of the person 210 may be included.
- Line segments shown as solid lines in FIG. 3(B) represent parts of the human body by connecting coordinate points of each specific part included in the human shape information D11 with lines.
- a line segment indicated by a dotted line in FIG. 3B represents a case where the reliability of points at both ends of the line segment is low.
- the reliability of the points representing the lower body is low.
- the infrared camera 70 photographs the inside of a residential area where people live, and outputs a thermal image D70 that expresses high-temperature areas with high brightness values.
- objects expressed as high temperature include living things such as humans and animals, and devices that generate heat (for example, displays such as televisions, home appliances, heating devices, etc.).
- objects represented as having low temperatures in the thermal image D70 include non-heat generating objects (for example, posters pasted on walls) including walls and floors.
- the heat generating area extracting unit 12 outputs heat generating area information D12 by extracting a set of pixels with high temperature using techniques such as lump detection in the thermal image D70 acquired by the infrared camera 70.
- the heat generating area information D12 expresses the shapes of people and heat generating objects in the living room, and processing is performed to exclude small heat generating objects and noise values generated by the infrared camera 70.
- the acquired heat generation area information D12 includes a person area 102 which is heat generation area information D12 of the person 100 who actually exists, and a device area 201 which is the heat generation area information D12 of the display device 200. and is included.
- the gray portion indicates a portion that is higher in temperature than the white region and has a higher pixel value in the heat generation area information D12.
- the person determining unit 14 inputs the human shape information D11 and the heat generation area information D12, and causes the humanlikeness calculation unit 13 to calculate the humanlikeness D13 (D13a, D13b) from the correspondence between the human shape information D11 and the heat generation area information D12. Then, the human shape information D11 is filtered.
- the calculation of the human-likeness D13 (D13a, D13b) is performed using at least one of the spherical part human-likeness calculating section 13a and the line segment human-likeness calculating section 13b. Note that the details of the method of filtering the human shape information D11 by calculating the human-likeness D13 (D13a, D13b) will be described later.
- the person determination unit 14 can exclude people in the medium, such as people depicted on posters and people displayed on the screen of the display device 200, from the obtained human shape information D11. As a result, the person determining unit 14 can acquire only the human shape information D11 of the person actually present in the living room.
- FIG. 4 is a flowchart showing the operation of the person determination unit 14 of the person detection device 10.
- the person determination unit 14 filters each person represented by the person shape information D11 using the person-likeness D13 (D13a, D13b) to remove the person in the medium and identify the person who actually exists. Perform the detection process.
- step S1 the person determination unit 14 estimates (that is, calculates) the distance of the person represented by the human shape information D11 from the visible image camera 60 based on the size of the human shape information D11 in the image. do.
- the person determining unit 14 selects a body part in the human shape information D11, and causes the person-likeness calculating unit 13 to calculate the human-likeness D13 (D13a, D13b) of the selected specific part.
- body parts of the human shape information D11 to be selected include the head, upper arm, lower arm, hand, torso, thigh, and lower leg.
- a part whose center position is estimated to be outside the area of the visible image D60 may be excluded from the human-likeness evaluation.
- the processes of steps S2 to S4 are repeatedly executed for each specific part of the person.
- the calculation of the human-likeness D13 is performed by the spherical part human-likeness calculation unit 13a and the line segment human-likeness calculation unit 13b, but the calculation of the human-likeness calculation unit 13a for the spherical part or the human-likeness calculation unit for line segment 13b. Calculations may be made using only one. Alternatively, both the human-likeness D13a and D13b may be calculated and the average human-likeness may be used. Alternatively, a selection may be made such as using the one with higher humanness among the two humanness D13a and D13b.
- the spherical part human-likeness computing section 13a may be determined whether to use either the spherical part human-likeness computing section 13a or the line segment human-likeness computing section 13b depending on the region to be selected. For example, a method may be adopted in which the spherical part human-likeness calculating section 13a is used for the head and hands, and the line segment human-likeness calculating section 13b is used for the limbs and the torso.
- step S5 the person determining unit 14 calculates the human-likeness E of the entire human-shaped information D11 by combining the human-likeness D13a, D13b of each specific part and the reliability of the human-shaped information D11.
- the person determination unit 14 calculates the average value of the values obtained by multiplying the humanness D13a, D13b of each specific part by the reliability of the human shape information D11, and calculates the humanness E of the whole human shape information D11. It may also be used as Regarding the reliability of the human shape information D11, the person determination unit 14 uses the reliability of the human shape information D11 as it is for a spherical part, and calculates the average reliability of the human shape information D11 at both ends for a line segment part. May be used.
- step S6 the person determining unit 14 determines whether the human-likeness E of the entire human shape information D11 calculated in step S5 is greater than or equal to a threshold value. If E is greater than or equal to the threshold (YES in step S6), the process proceeds to step S7, and if E is less than the threshold (NO in step S6), the process proceeds to step S8.
- step S7 the person determining unit 14 considers the human shape information D11 to be determined to be an actually existing person, and adopts the human shape information D11.
- step S8 the person determining unit 14 considers the human shape information D11 to be determined to be a person in the medium, and excludes the human shape information D11. This completes the process in which the person determining unit 14 filters the human shape information D11 by calculating the humanness of each person represented by the human shape information D11.
- FIG. 5 is a flowchart showing the operation of the spherical part human-likeness calculation unit 13a in the first embodiment.
- FIG. 5 shows a method for calculating the human-likeness D13a when it is assumed that the specific part selected by the spherical-part human-likeness calculation unit 13a is a spherical part.
- FIGS. 6A and 6B are schematic diagrams showing the operation of the spherical part human-likeness calculation unit 13a.
- the spherical part human-likeness calculation unit 13a obtains the center point G of the position of the spherical part of the human shape information D11. If the specific part is a part composed of one mass, such as the head and hand, the coordinates of the center of the part are used as the center point G. Note that if the specific part is a part expressed by a line segment, such as an extremity or a torso, the coordinates of the center of the line segment are used as the center point G.
- the spherical part human-likeness calculation unit 13a cuts out a circular area around the center point G (101a in FIG. 6(A), 201a in FIG. 6(B)) in the heat generation area information D12, and Obtain the temperature value T in the surrounding area.
- the circular radius of the peripheral area is an area that is slightly larger than the size of the spherical part of the person (101 in FIG. 6(A), 201 in FIG. 6(B)) expressed by the human shape information D11, for example.
- a coefficient dependent on the spherical part is determined based on the resolution of the visible image camera 60 and the distance estimated in step S1.
- the spherical part human-likeness calculation unit 13a calculates the human-likeness from the shape of the distribution of the obtained temperature values T.
- the graphs in FIGS. 6A and 6B are histogram distributions in which the horizontal axis is the temperature value T and the vertical axis is the number of temperature values (that is, the number of degrees #N).
- the radius of the circular area determined in step S32 is set to ⁇ 2 times the radius of the spherical part of the person (the head in the figure) calculated from the distance to the person.
- the ideal state is that the spherical part of the person is perfectly spherical and the entire spherical part is at high temperature
- the area of the high temperature part originating from the spherical part of the person and the area other than the person i.e., the area around the spherical part
- the histogram theoretically consists of two peaks with equal heights, as shown in Figure 6(A). It is thought that it will have a shape like this.
- the temperature of the part of the head where hair is located is a little lower, the shoulders, arms, and other heat-generating objects are included in the circle in addition to the head, and the shape of the hands is often far from spherical. Therefore, the height and spread of the two mountain-like shapes are not equal.
- the histogram is considered to have a bimodal shape.
- the histogram is expressed as the sum of two normal distributions, and use the mean and variance, which are the parameters of each normal distribution, when fitting the normal distribution, as a numerical value representing humanness. It is possible that From now on, of the two normal distributions obtained through fitting, the normal distribution with a small variance and a sharp peak will be referred to as the first normal distribution, and the normal distribution with a large variance and a gentle peak will be referred to as the second normal distribution. . At this time, if bimodality is exhibited, the values of the first normal distribution and the second normal distribution will be close to each other, and if unimodality is exhibited, the values of the first normal distribution and the second normal distribution will be close to each other.
- the value obtained by calculating may be used as the humanness D13a of the spherical part.
- the above completes the process of calculating the human-likeness when the part selected by the spherical-part human-likeness calculation unit 13a is assumed to be spherical.
- FIG. 7 is a flowchart showing the operation of the line segment part human-likeness calculation unit 13b to determine the human-likeness D13b.
- FIG. 7 shows a method for calculating the human-likeness D13b when it is assumed that the specific site selected by the line-segment site human-likeness calculation unit 13b is a linear segment site.
- FIGS. 8A and 8B are schematic diagrams showing the operation of the line segment part human-likeness calculation unit 13b.
- the line segment part human-likeness calculation unit 13b acquires parameters expressing the selected line segment part as human shape information D11.
- Line segments indicated by thick solid lines in FIGS. 8(A) and 8(B) correspond to line segment sites.
- a line segment part is specified by coordinate values representing both ends of the line segment. For example, if the right upper arm is selected as a line segment part, the coordinate values of the right shoulder and the coordinates of the right elbow are specified. The combination with the value is a parameter that expresses the line segment site.
- step S35 the line segment part human-likeness calculation unit 13b calculates a line segment that is perpendicular to the selected line segment (for example, a line segment that passes through the center position of the selected line segment and is perpendicular to the selected line segment). .
- the thin solid lines in FIGS. 8(A) and 8(B) correspond to this.
- the length of this vertical line segment is determined, for example, by the selected linear site, the resolution of the visible image camera 60, and the distance estimated from step S1.
- step S36 the line segment part human-likeness calculation unit 13b acquires the temperature value T from the heat generation area information D12 for the coordinates on the vertical line segment calculated in step S35, and from the temperature value T on the line segment. Calculate your civilization.
- the horizontal axis is the value (i.e., position) in the horizontal axis direction within the image on the line segment
- the vertical axis is the temperature value T. It is a graph for obtaining changes in temperature values.
- the change in temperature value on the line segment will be a single peak, as shown in FIG. 8(A).
- This is considered to be a graph that shows the In reality, the base of the mountain may spread or the temperature may not decrease at the end of the line because it overlaps with other parts of the same person or with other heat-generating objects. However, in most cases, at least at one end of the line segment, it descends.
- the temperature value on the line segment may be The shape of the change is a uniform graph, as shown in the lower right corner of FIG. 7(B). Similarly, a uniform graph is shown for a person displayed on a non-high temperature object such as a poster, although the temperature is different.
- the Min function is a function that selects the smaller of the given arguments, the variance value with K as the reference (10 in the above example), Min(1, ⁇ (K/[normal distribution The value obtained by calculating the variance])) may be used as the "humanity of the line segment part.”
- the above completes the human-likeness calculation process when it is assumed that the body part selected by the line-segment-part human-likeness calculation unit 13b is a line segment.
- the human detection device 10 uses the human shape information D11 extracted from the visible image D60 obtained from the visible image camera 60 to By filtering using the heat generation area information D12 extracted from the thermal image D70, it is possible to exclude the human shape information D11 corresponding to the person in the medium. Therefore, according to the first embodiment, by excluding people in the medium displayed on posters, televisions, etc. that are present in the visible image D60, it is possible to detect people who actually exist with high accuracy. Furthermore, according to the first embodiment, it is also possible to take the posture of an actually existing person.
- FIG. 9 is a block diagram schematically showing the configuration of a person detection device 20 and a person detection system 2 according to the second embodiment.
- the person detection device 20 according to the second embodiment includes a device usage information acquisition unit 21 that acquires device usage information indicating the usage status of one or more devices 300 that generate heat existing within a shooting range; A device learning unit 22 that learns the relationship between the heat generating area information D12, and a heat generating area information D23 corrected by excluding a thermal area caused by heat generation of the device 300 from the heat generating area information D12 when the device 300 is in use.
- This embodiment differs from the human detection device 10 according to the first embodiment in that it further includes a device exclusion section 23 that outputs the following.
- the device usage information acquisition unit 21 acquires device usage information indicating the usage status of one or more devices 300 existing within the shooting range.
- the device usage information is, for example, when the device 300 can transmit power-on or power-off information using a communication method such as HEMS (Home Energy Management System), which is a system for managing and controlling home appliances, etc. Information on whether the device 300 is powered on or off can be collected from the HEMS.
- HEMS Home Energy Management System
- a smart meter that is a power meter with a communication function (i.e., a power consumption meter) and the human detection device 20 can communicate with each other, the device 300 can be turned on or off based on the power usage information of the device 300. It is possible to obtain the status of
- the device learning unit 22 compares the heat generation area information D12 of the heat generation area extraction unit 12 with the device usage information of the device usage information acquisition unit 21, and determines if any of the electrical devices is in use in the device usage information. Next, the relationship between the device and the area showing high temperature in the heat generation area information D12 is learned. Immediately after the person detection device 20 is installed, this learning of relationships is not completed, but by continuing to learn to a certain extent, it becomes accurate like the known technology of image background subtraction. It can be expected that a strong association will be made. Note that background subtraction is a process of extracting objects that do not exist in the previously acquired image by comparing the observed image and the previously acquired image.
- the device exclusion unit 23 corrects by excluding the heat area associated with the device 300 from the heat generation area information D12 of the heat generation area extraction unit 12 when one or more devices 300 existing within the imaging range is in use.
- the generated heat generating area information D23 is acquired.
- the person determining unit 14, the spherical part human-likeness calculation unit 13a, and the line segment human-likeness calculation unit 13b of the second embodiment obtain benefits by excluding the thermal region associated with the device 300 output by the device exclusion unit 23.
- the corrected heat generating area information D23 is used.
- the human-likeness calculation unit 13 can more accurately calculate the human-likeness.
- the human detection device 20 calculates the humanness of the human shape information D11, it detects a device that generates heat that is unrelated to an actually existing person. Since the configuration is such that heat generation area information can be ignored, more accurate human-likeness calculations can be performed. Therefore, according to the second embodiment, by excluding the person in the medium who is present in the visible image D60, the person who actually exists can be detected with high accuracy.
- FIG. 10 is a block diagram schematically showing the configuration of a person detection device 30 and a person detection system 3 according to the third embodiment.
- the person detection device 30 according to the third embodiment includes a device usage information input unit 31 through which a user inputs usage information of one or more devices 300 that generate heat that are present within the imaging range,
- the device learning unit 22 learns the relationship between the area information D12 and the corrected heat generation obtained by excluding the heat area caused by the heat generation of the device 300 from the heat generation area information D12 when the device 300 is in use.
- This embodiment differs from the human detection device 10 according to the first embodiment in that it further includes a device exclusion section 23 that outputs area information D23. Further, in the human detection device 30 according to the third embodiment, the user performs an input operation on the device usage information acquisition unit 21 of FIG. This differs from the person detection device 20 according to the second embodiment in that it is replaced with a device usage information input section 31. However, the human detection device 30 according to the third embodiment may include a device usage information input section 31 in addition to the configuration of the human detection device 20 in FIG. 9 .
- the device usage information input unit 31 inputs the device usage information by the user inputting the fact that the device 300 is in use. is transmitted to the device learning section 22. This may be input using an operation unit (for example, a button) attached to the housing of the human detection device 30, or the information may be input via a communication terminal such as a mobile terminal owned by the user of the human detection device 30. It may also be in the form of input.
- the operations of the device learning section 22 and the device exclusion section 23 are explained in the second embodiment.
- the device usage information input unit 31 functions effectively even in a form where the user inputs information to the device 300 during actual life, it is possible to turn on the device 300 one by one immediately after installing the human detection device 10, More effectiveness can be achieved by providing a phase in which the device learning section 22 learns the association with the region indicating high temperature in the heat generation region information D12 of the heat generation region extraction section 12. Further, when it is detected that a new device 300 has been purchased and installed in the living room, the device 300 is turned on, and the device learning section 22 detects a high temperature using the heat generation area information D12 of the heat generation area extraction section 12. It can also be more effective by providing a phase in which the user learns the relationship with the indicated area.
- the user can input the usage information of the device 300, so that even when the device in the living room cannot transmit the usage status of the device by communication, it is possible to detect a person.
- the device 30 calculates the human-likeness of the human shape information D11, it becomes possible to ignore heat generation area information of devices that generate heat that are unrelated to the person. Therefore, the human detection device 30 can calculate the human-likeness with higher accuracy.
- the third embodiment by excluding the person in the medium that exists in the visible image D60, it is possible to detect the person who actually exists with high accuracy.
- the third embodiment is the same as the first or second embodiment.
- FIG. 11 is a block diagram schematically showing the configuration of a person detection device 40 and a person detection system 4 according to the fourth embodiment.
- the human detection device 40 according to the fourth embodiment includes a communication unit 41 as a first communication unit that communicates with the visible image camera 60 by wire or wirelessly, and a second communication unit that communicates with the infrared camera 70 by wire or wirelessly.
- the visible image D60 taken by the visible image camera 60 mounted on the camera-equipped device 61 is input to the human shape extraction section 11 via the communication section 41, and the camera-equipped device
- the human detection device 10 is different from the human detection device 10 according to the first embodiment in that a thermal image D70 taken by an infrared camera 70 mounted on the device 71 is input to the heat generation area extraction unit 12 via the communication unit 42.
- the human detection device 10 acquires the visible image D60 via the communication unit 41, and similarly to the first embodiment, the human detection device 10 acquires the visible image D60. It is possible to calculate the person-likeness D13 (D13a, D13b) of the information D11 and perform processing to exclude people in the medium. Furthermore, the human detection device 40 according to the fourth embodiment is provided with information indicating the relationship between the coordinates of the human shape information D11 and the heat generating area information D12 in advance, so that it is possible to link the coordinates of both. Can be done.
- the fourth embodiment is the same as the first embodiment except for the above. Furthermore, it is also possible to apply the communication units 41 and 42 described in the fourth embodiment to the second or third embodiment. Furthermore, the human detection device 40 may have a built-in one of a visible image camera 60 and an infrared camera 70, and may be configured to communicate with the other by wire or wirelessly via a communication unit.
- the person detection devices 10, 20, 30, 40 and the person detection systems 1 to 4 according to Embodiments 1 to 4 are installed in facilities or homes for the purpose of monitoring elderly people, for example.
- the present invention can be applied to a monitoring system that notifies a predetermined notification destination (for example, a facility manager or a family member) of the occurrence of an abnormality when an abnormality occurs in the behavior of an elderly person.
- a predetermined notification destination for example, a facility manager or a family member
- false notifications of abnormality occurrences can be reduced.
- the function of the human-likeness calculation unit 13 of the human detection devices 10, 20, 30, and 40 it is possible to detect the posture of the person, and therefore it is also possible to notify the person's condition when an abnormality occurs. .
- 1 to 4 Human detection system 10, 20, 30, 40 Human detection device, 11 Human shape extraction unit, 12 Heat generation area extraction unit, 14 Human determination unit, 13 Human-likeness calculation unit, 13a Spherical part human-likeness calculation unit, 13b Line segment human-likeness calculation unit, 21 Equipment usage information acquisition unit, 22 Equipment learning unit, 23 Equipment exclusion unit, 31 Equipment usage information input unit, 41, 42 Communication unit, 60 Visible image camera, 70 Infrared camera, 61 Camera installed Equipment, 71 Camera-equipped equipment, 101 Spherical part, 101a Surrounding area, 300 Equipment, D11 Human shape information, D12 Heat generation area information, D13a Humanity, D13b Humanity, D23 Corrected heat generation area information, D60 Visible image (image) , D70 thermal image, D14 judgment result.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本開示は、人検知装置、人検知システム、人検知方法、及び人検知プログラムに関する。 The present disclosure relates to a human detection device, a human detection system, a human detection method, and a human detection program.
例えば、特許文献1は、被写体からの可視光成分から第1の画像データを生成する第1の光電変換素子と被写体からの赤外線成分から第2の画像データを生成する第2の光電変換素子とを有する撮像部と、第2の光電変換素子の被写体側かつ被写体からの光軸上に設けられ、可視光成分を除去して赤外線成分を透過させるフィルタと、第1の画像データにおいて被写体像及び画面内における被写体像の位置を特定する位置特定部と、第2の画像データにおいて被写体からの赤外線強度を検出する強度検出部と、画面内における被写体像の位置と当該位置の赤外線強度とに基づいて、生体を検出する生体検出部とを有する撮像装置に関する技術を提案している。
For example,
しかしながら、特許文献1の装置は、第2の光電変換素子としての赤外線カメラで撮影した第2の画像データとしての熱画像を使って生体(例えば、実際に存在する人)を検出しているので、発熱するテレビなどの表示機に表示されている人物(「媒体内人物」ともいう。)を生体として誤検出することがあるという問題があった。
However, the device of
本開示は、可視画像カメラで撮影された人が、実際に存在する人であるのか、媒体上に表示された又は描かれた媒体内人物であるのかを高い精度で判定することを可能にする人検知装置、人検知システム、人検知方法、及び人検知プログラムを提供することを目的とする。 The present disclosure makes it possible to determine with high accuracy whether a person photographed by a visible image camera is an actually existing person or a person displayed or drawn on the medium. The purpose of the present invention is to provide a human detection device, a human detection system, a human detection method, and a human detection program.
本開示の人検知装置は、少なくとも可視光の波長領域の画像を撮影する可視画像カメラで撮影範囲を撮影して得られた画像を受信し、前記画像内における人の形状を示す人形状情報を抽出する人形状抽出部と、赤外線カメラで撮影された熱画像を受信し、前記熱画像内における発熱量の大きい領域を示す発熱領域情報を抽出する発熱領域抽出部と、前記人の形状の予め定められた特定形状の部位を選択し、前記人形状情報と前記発熱領域情報とに基づいて、選択された前記特定形状の部位が、前記撮影範囲内に実際に存在する人の部位であることの確からしさを表す数値である人らしさを計算する人らしさ演算部と、選択された前記特定形状の部位について計算された前記人らしさに基づいて、前記人形状情報が示す前記人の形状が、実際に存在する前記人の形状であるのか、媒体上に表示された又は描かれた人物である媒体内人物の形状であるのかを判定する人判定部と、を有することを特徴とする。 The human detection device of the present disclosure receives an image obtained by photographing a photographing range with a visible image camera that photographs an image in at least a wavelength range of visible light, and receives human shape information indicating the shape of a person in the image. a human shape extraction unit that extracts a human shape, a heat generation area extraction unit that receives a thermal image taken by an infrared camera and extracts heat generation area information indicating a region with a large amount of heat generation in the thermal image, and Selecting a part with a predetermined specific shape, and based on the human shape information and the heat generation area information, the selected part with the specific shape is a part of a person actually existing within the imaging range. The shape of the person indicated by the human shape information is based on the human-likeness calculation unit that calculates the human-likeness, which is a numerical value representing the likelihood of The present invention is characterized by comprising a person determining unit that determines whether the shape is the shape of the person who actually exists or the shape of a person in the medium who is a person displayed or drawn on the medium.
本開示の人検知方法は、人検知装置によって実行される方法であって、少なくとも可視光の波長領域の画像を撮影する可視画像カメラで撮影範囲を撮影して得られた画像を受信し、前記画像内における人の形状を示す人形状情報を抽出するステップと、赤外線カメラで撮影された熱画像を受信し、前記熱画像内における発熱量の大きい領域を示す発熱領域情報を抽出するステップと、前記人の形状の予め定められた特定形状の部位を選択し、前記人形状情報と前記発熱領域情報とに基づいて、選択された前記特定形状の部位が、前記撮影範囲内に実際に存在する人の部位であることの確からしさを表す数値である人らしさを計算するステップと、選択された前記特定形状の部位について計算された前記人らしさに基づいて、前記人形状情報が示す前記人の形状が、実際に存在する前記人の形状であるのか、媒体上に表示された又は描かれた人物である媒体内人物の形状であるのかを判定するステップと、を有することを特徴とする。 The human detection method of the present disclosure is a method executed by a human detection device, which receives an image obtained by photographing a photographing range with a visible image camera that photographs an image in at least a wavelength range of visible light, and a step of extracting human shape information indicating the shape of a person in the image; a step of receiving a thermal image taken with an infrared camera and extracting heat generating area information indicating a region with a large amount of heat generation in the thermal image; Selecting a predetermined specific shaped part of the human shape, and determining whether the selected specific shaped part actually exists within the imaging range based on the human shape information and the heat generation area information. calculating the human-likeness, which is a numerical value representing the certainty that the part is a human part, and the human-likeness indicated by the human-shaped information based on the human-likeness calculated for the selected part of the specific shape. The method is characterized by the step of determining whether the shape is the shape of the person who actually exists or the shape of a person in the medium who is a person displayed or drawn on the medium.
本発明によれば、可視画像カメラで撮影された人の形状が、実際に存在する人の形状であるのか、媒体上に表示された又は描かれた媒体内人物の形状であるのかを高い精度で判定することができる。 According to the present invention, it is possible to determine with high accuracy whether the shape of a person photographed by a visible image camera is the shape of an actually existing person or the shape of a person displayed or drawn on the medium. It can be determined by
以下に、実施の形態に係る人検知装置、人検知システム、人検知方法、及び人検知プログラムを、図面を参照しながら説明する。以下の実施の形態は、例にすぎず、実施の形態を適宜組み合わせること及び各実施の形態を適宜変更することが可能である。 Below, a person detection device, a person detection system, a person detection method, and a person detection program according to embodiments will be described with reference to the drawings. The following embodiments are merely examples, and the embodiments can be combined as appropriate and each embodiment can be changed as appropriate.
《1》実施の形態1
《1-1》構成
図1は、実施の形態1に係る人検知装置10及び人検知システム1の構成を概略的に示すブロック図である。図1に示されるように、人検知システム1は、人検知装置10と、可視画像カメラ60と、赤外線カメラ70とを有している。人検知装置10は、実施の形態1に係る人検知方法を実施することができる装置である。
<<1>>
<<1-1>> Configuration FIG. 1 is a block diagram schematically showing the configuration of a
人検知装置10は、可視画像カメラ60で撮影範囲を撮影して得られた可視画像(単に「画像」ともいう。)D60を受信し、この可視画像D60内における人の形状を示す人形状情報D11を抽出する人形状抽出部11と、赤外線カメラ70で撮影された熱画像(すなわち、赤外線画像)D70を受信し、この熱画像D70内における発熱量の大きい領域を示す発熱領域情報D12を抽出する発熱領域抽出部12とを有している。可視画像D60、人形状情報D11、及び発熱領域情報D12の例は、後述の図3(A)から(C)に示されている。可視画像カメラ60は、少なくとも可視光の波長領域の画像を撮影するカメラであり、可視光カメラとも呼ばれる。赤外線カメラ70は、赤外線の波長領域の画像を撮影するカメラであり、熱画像カメラ又はサーモカメラとも呼ばれる。可視画像カメラ60と赤外線カメラ70とは、可視画像カメラ60によって撮影される領域である撮影範囲と熱画像カメラによって撮影される領域である撮影範囲とが互いに重なるように(すなわち、共通の撮影範囲を有するように)、設置される。また、人検知装置10は、複数台の可視画像カメラ60から可視画像D60を受信してもよい。また、人検知装置10は、複数台の赤外線カメラ70から熱画像D70を受信してもよい。可視画像カメラ60及び赤外線カメラ70は、人検知システム1に専用のものである必要はなく、既存の設備の一部として使用されているカメラであってもよい。
The
また、人検知装置10は、人の形状の予め定められた特定形状の部位を選択し、人形状情報D11と発熱領域情報D12とに基づいて、特定形状の部位が、撮影範囲内に実際に存在する人の部位であることの確からしさを表す数値である人らしさD13を計算する人らしさ演算部13と、人らしさD13に基づいて、人形状情報D11が示す人の形状が、実際に存在する人の形状であるのか、媒体(例えば、表示機のスクリーン又はポスターなどの印刷物)に表示された又は描かれた媒体内人物の形状であるのかを判定して、判定結果D14を出力する人判定部14とを有している。
In addition, the
人らしさ演算部13は、体の特定形状の部位(すなわち、特定部位)として球形状の球形部位(例えば、頭、手、など)を選択し、選択された球形部位に基づいて人らしさ(「第1の人らしさ」ともいう。)D13aを計算する球形部位人らしさ演算部13aと、体の特定形状の部位として線状の線分部位(例えば、関節間の部位)を選択し、選択された線分部位に基づいて人らしさ(「第2の人らしさ」ともいう。)D13bを計算する線分部位人らしさ演算部13bとを有している。この場合、人判定部14は、人形状情報D11の特定の部位の人らしさD13a、D13bに基づいて、人形状情報D11が示す人全体の形状が、実際に存在する人の形状であるのか、媒体内人物の形状であるのかを判定して判定結果D14を出力する。なお、人形状情報D11が示す人全体の形状の判定は、「人形状情報D11全体の人らしさ判定」という。また、人らしさ演算部13は、球形部位人らしさ演算部13a及び線分部位人らしさ演算部13bの一方だけを有してもよい。
The human-
球形部位人らしさ演算部13aは、人形状情報D11と発熱領域情報D12に基づいて、人の特定部位を球形とみなした場合の当該特定部位の人らしさD13aの計算を行う。計算された人らしさD13aは、人判定部14にて人形状情報D11全体の人らしさ判定に使用される。具体的には、球形部位人らしさ演算部13aは、球形部位を含む円形状領域に関して横軸を温度値Tとし縦軸を度数#Nとするヒストグラムを作成し、このヒストグラムの形状に基づいて人らしさD13aを計算する。球形部位人らしさ演算部13aは、ヒストグラムの形状が双峰性を示す場合における人らしさを、ヒストグラムの形状が双峰性を示さない場合における人らしさよりも、高い値(すなわち、実際に存在する人である可能性が高いことを示す値)に設定する。ヒストグラムの具体例は、図6(A)及び(B)を用いて後述される。
The spherical part human-
線分部位人らしさ演算部13bは、人形状情報D11と発熱領域情報D12に基づいて、人の特定部位を線分形状とみなした場合の当該特定部位の人らしさD13bの計算を行う。計算された特定部位の人らしさD13bは、人判定部14にて人形状情報D11全体の人らしさ判定に使用される。具体的には、線分部位人らしさ演算部13bは、線分部位に関して横軸を位置とし縦軸を温度値Tとする温度分布グラフを作成し、この温度分布グラフの形状に基づいて人らしさD13bを計算する。線分部位人らしさ演算部13bは、温度分布グラフの形状が単峰性を示す場合における人らしさD13bを、温度分布グラフの形状が単峰性を示さない場合における人らしさD13bよりも、高い値(すなわち、実際に存在する人である可能性が高いことを示す値)に設定する。温度分布グラフの具体例は、図8(A)及び(B)を用いて後述される。
The line segment part human-
図2は、実施の形態1に係る人検知装置10のハードウェア構成の例を示す図である。人検知装置10は、例えば、コンピュータである。人検知装置10は、実施の形態1に係る人検知プログラムを実行することができる装置である。人検知装置10は、プロセッサ91と、揮発性の記憶装置であるメモリ92とを有している。また、人検知装置10は、ハードディスクドライブ(HDD)又はソリッドステートドライブ(SSD)などの不揮発性の記憶装置93と、インタフェース94とを有している。メモリ92は、例えば、RAM(Random Access Memory)などの半導体メモリである。図1に示される人検知装置10の各ブロックは、例えば、記録媒体から又は通信回線を介してインストールされメモリ92に記憶されたソフトウェアプログラムである人検知プログラムを実行するプロセッサにより構成される。
FIG. 2 is a diagram showing an example of the hardware configuration of the
人検知装置10の各機能は、処理回路により実現されてもよい。処理回路は、専用のハードウェアであってもよく、又はメモリ92に格納される人検知プログラムを実行するプロセッサ91であってもよい。プロセッサ91は、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、及びDSP(Digital Signal Processor)のいずれであってもよい。処理回路が専用のハードウェアである場合、処理回路は、例えば、ASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)などである。
Each function of the
なお、人検知装置10は、一部をハードウェアで実現し、他の一部をソフトウェア又はファームウェアで実現するようにしてもよい。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、又はこれらのうちのいずれかの組み合わせによって、上述の各機能を実現することができる。
Incidentally, part of the
図3(A)から(C)は、人検知装置10の各ブロックで取得された情報の例を示す図である。図3(A)は可視画像カメラ60で撮影された可視画像D60を示し、図3(B)は可視画像D60から抽出された人形状情報D11を示し、図3(C)は赤外線カメラ70で撮影された熱画像D70から抽出された発熱領域情報D12を示す。
FIGS. 3A to 3C are diagrams showing examples of information acquired by each block of the
例えば、人検知装置10が人(例えば、高齢者)を見守る見守りシステムの一部である場合、可視画像カメラ60が撮影する撮影範囲は、例えば、見守り対象としての人が生活する居住区域(例えば、住居の内部)である。この場合、可視画像D60には、テレビなどの表示媒体である表示機が含まれる場合が多い。したがって、図3(A)に示されるように、可視画像カメラ60によって取得される可視画像D60には、撮影範囲内に実際に存在する人100の映像と、表示機200のスクリーンに表示される人物(すなわち、表示媒体内の人物である媒体内人物)210とが含まれる場合がある。
For example, when the
人形状抽出部11は、可視画像カメラ60によって取得された可視画像D60から、MoveNetなどの公知の姿勢検出アルゴリズムを用いて、可視画像D60内の人物の人形状情報D11を抽出する。人形状情報D11には、体の部位の座標が含まれる。また、人形状情報D11には、体の部位の座標と体の部位の信頼度とが含まれてもよい。体の部位としては、例えば、頭、両肩、両肘、両手首、腰、両足の付け根、両膝、両足首などが挙げられる。体の部位の信頼度が明示的に得られない場合は、すべての部位の信頼度を同じ値(例えば、1)として、以降の処理が行われる。また、人形状情報D11には、可視画像D60内に存在する媒体内人物であるポスターに描かれている人物も含まれる。したがって、図3(B)に示されるように、取得される人形状情報D11において、実際に存在する人100の人形状情報D11が示す球形部位101と表示機200のスクリーンに表示される媒体内人物210の人形状情報D11が示す媒体内部位211が含まれる場合がある。図3(B)において実線で示される線分は、人形状情報D11に含まれる各特定部位の座標点どうしを線でつなぐことで人体の部位を表現したものである。また、図3(B)において点線で示される線分は、線分の両端の点の信頼度が低い場合を表している。図3(B)の例では、表示機のスクリーンに表示される媒体内人物210について、下半身が表示されていないために、下半身を表現する部位の点の信頼度が低くなっている。
The human
赤外線カメラ70は、人が生活する居住区域内を撮影して、温度が高い部分を高い輝度値で表現する熱画像D70を出力する。熱画像D70において、高温のものとして表現される物体は、人間及び動物などの生物、並びに、発熱する機器(例えば、テレビなどの表示機、家電機器、暖房機器、など)が挙げられる。また、熱画像D70において低温のものとしで表現される物体は、壁及び床などを含む非発熱物体(例えば、壁に貼られたポスターなど)が挙げられる。
The
発熱領域抽出部12は、赤外線カメラ70によって取得された熱画像D70内の塊検出の技術などを用いて温度の高い画素の集合を抽出することで、発熱領域情報D12を出力する。発熱領域情報D12では、居室内の人物及び発熱物体の形状が表現されており、小さい発熱物及び赤外線カメラ70で発生したノイズ値について、除外する処理が行われている。図3(C)に示されるように、取得される発熱領域情報D12は、実際に存在する人100の発熱領域情報D12である人領域102と表示機200の発熱領域情報D12である機器領域201とが含まれる。図3(C)において、グレーで示された部分は、白色の領域より高温であり、発熱領域情報D12において高い画素値である部分を示している。
The heat generating
人判定部14は、人形状情報D11と発熱領域情報D12を入力とし、人らしさ演算部13に、人形状情報D11と発熱領域情報D12の対応関係から人らしさD13(D13a、D13b)を算出させて、人形状情報D11のフィルタリングを行う。人らしさD13(D13a、D13b)の算出は、球形部位人らしさ演算部13a及び線分部位人らしさ演算部13bのうちの少なくとも1つを使用して行われる。なお、人らしさD13(D13a、D13b)の算出による人形状情報D11のフィルタリング方法の詳細は、後述される。人判定部14により、得られた人形状情報D11から、ポスターに描かれた人物及び表示機200のスクリーンに表示された人物のような媒体内人物を除外することができる。その結果として、人判定部14は、実際に居室内に存在する人の人形状情報D11だけを取得することができる。
The
《1-2》動作
図4は、人検知装置10の人判定部14の動作を示すフローチャートである。人判定部14は、人形状情報D11で表現される人のそれぞれについて、人らしさD13(D13a、D13b)を用いてフィルタリングを行うことで、媒体内人物を除去して、実際に存在する人を検出する処理を行う。
<<1-2>> Operation FIG. 4 is a flowchart showing the operation of the
ステップS1において、人判定部14は、ある人形状情報D11の画像内での大きさから、当該人形状情報D11で表現される人の、可視画像カメラ60からの距離を推定(すなわち、計算)する。
In step S1, the
次のステップS2~S4において、人判定部14は、人形状情報D11の体の部位を選択し、選択した特定部位の人らしさD13(D13a、D13b)を人らしさ演算部13に計算させる。選択される人形状情報D11の体の部位の例としては、頭、上腕、下腕、手、胴、大腿、下腿などが挙げられる。また、各特定部位について、その中心位置が可視画像D60の領域外にあると推定された部位については、人らしさの評価から除外してもよい。ステップS2~S4の処理は、人の各特定部位について繰り返し実行される。
In the next steps S2 to S4, the
人らしさD13(D13a、D13b)の計算は、球形部位人らしさ演算部13a及び線分部位人らしさ演算部13bによって行われるが、球形部位人らしさ演算部13a又は線分部位人らしさ演算部13bの一方だけを使用しても計算してもよい。また、人らしさD13a、D13bの両方を計算し、人らしさの平均を使用してもよい。また、2つの人らしさD13a、D13bのうち、人らしさが高い方を使用するなどの選択を行ってもよい。さらには、選択する部位に応じて球形部位人らしさ演算部13a又は線分部位人らしさ演算部13bのいずれかを使用するかを決定してもよい。例えば、頭部及び手であれば球形部位人らしさ演算部13aを使用し、四肢及び胴であれば線分部位人らしさ演算部13bを使用するという方式を採用してもよい。
The calculation of the human-likeness D13 (D13a, D13b) is performed by the spherical part human-
ステップS5において、人判定部14は、各特定部位の人らしさD13a、D13bと人形状情報D11の信頼度とを組み合わせることで、人形状情報D11全体の人らしさEを計算する。人判定部14は、各特定部位について各特定部位の人らしさD13a、D13bと人形状情報D11の信頼度とをかけ合わせて得られた値の平均値を、人形状情報D11全体の人らしさEとして用いてもよい。なお、人判定部14は、人形状情報D11の信頼度について、球形部位については、人形状情報D11の信頼度そのままを、線分部位については、両端の人形状情報D11の信頼度の平均を使用してもよい。
In step S5, the
ステップS6において、人判定部14は、ステップS5にて計算した人形状情報D11全体の人らしさEがしきい値以上であるかどうかを判定する。Eがしきい値以上である場合(ステップS6においてYESの場合)、処理はステップS7に進み、Eがしきい値未満である場合(ステップS6においてNOの場合)、処理はステップS8に進む。
In step S6, the
ステップS7において、人判定部14は、判定対象である人形状情報D11について、実際に存在する人であるとみなし、当該の人形状情報D11を採用する。ステップS8において、人判定部14は、判定対象である人形状情報D11について、媒体内人物であるとみなし、当該の人形状情報D11を除外する。以上で、人判定部14が人形状情報D11で表現される人物それぞれについての人らしさの算出による人形状情報D11のフィルタリングを行う処理が完了となる。
In step S7, the
図5は、実施の形態1における球形部位人らしさ演算部13aの動作を示すフローチャートである。図5は、球形部位人らしさ演算部13aにて選択された特定部位が球形である球体部位である仮定した場合の人らしさD13aを算出する方法を示す。また、図6(A)及び(B)は、球形部位人らしさ演算部13aの動作を示す模式図である。
FIG. 5 is a flowchart showing the operation of the spherical part human-
図5のステップS31において、球形部位人らしさ演算部13aは、人形状情報D11の球形部位の位置の中心点Gを取得する。特定部位が頭及び手などのように1つの塊で構成される部位であれば、部位の中心の座標が中心点Gとして使用される。なお、特定部位が四肢及び胴など線分で表現される部位であれば、線分の中心の座標が中心点Gとして使用される。
In step S31 of FIG. 5, the spherical part human-
次のステップS32において、球形部位人らしさ演算部13aは、発熱領域情報D12において、中心点Gの周辺領域(図6(A)における101a、図6(B)における201a)を円形に切り出し、その周辺領域内の温度値Tを取得する。なお、周辺領域の円形の半径は、人形状情報D11で表現される人物の球形部位(図6(A)における101、図6(B)における201)のサイズよりも少し大きい領域であり、例えば、球形部位依存の係数、可視画像カメラ60の解像度とステップS1で推定された距離に基づいて決定される。
In the next step S32, the spherical part human-
次のステップS33においては、球形部位人らしさ演算部13aは、取得した温度値Tの分布の形状から人らしさを算出する。図6(A)及び(B)内のグラフは、横軸が温度値T、縦軸が温度値の個数(すなわち、度数#N)であるヒストグラム分布である。例えば、ステップS32で定める円形領域の半径を、人物の距離から算出される人の球形部位(図中では頭部)の半径の√2倍に設定する。この場合、理想状態として人の球形部位が完全な球形であり、球形部位の全体が高温であるとすると、周辺領域の円形の内部において、人物の球形部位に由来する高温部の面積と人物以外(すなわち、球形部位の周囲の領域)に由来する低温部の面積とが同一になり、ヒストグラムは、理論的には、図6(A)に示されるように、2つの等しい高さを持つ山のような形状になると考えられる。実際には、頭部のうちの髪の毛ある部分の温度は少し低いこと、頭部以外に肩及び腕、その他の発熱物体なども円形内に含まれること、手の形状が球形から遠い場合が多いことなどが考えられるため、2つの山のような形状の高さ及び広がりは等しくない。ただし、ヒストグラムは、概形として双峰性を示すと考えられる。
In the next step S33, the spherical part human-
一方で、表示機のスクリーンに表示される人物の場合は、人物の球形部位以外の領域も表示機により一様に高温になることが考えられるため、ヒストグラムは、図6(B)に示すように、単峰性を示すグラフになる。また、ポスターなど非高温物に表示される人物についても、温度が異なるものの同様に単峰性を示す。 On the other hand, in the case of a person displayed on the screen of a display device, areas other than the spherical part of the person can be uniformly heated by the display device, so the histogram is The graph becomes unimodal. Furthermore, a person displayed on a non-high temperature object such as a poster also shows a single peak, although the temperature is different.
以上のことから、人らしさを表す数値として、ヒストグラムが2つの正規分布の合計で表現されると仮定し、正規分布のフィッティングを行った際の各正規分布のパラメータである平均及び分散を使用することが考えられる。以降、フィッティングを行って得られた2つの正規分布のうち、分散が小さく鋭いピークを持つ正規分布を第1の正規分布、分散が大きくなだらかなピークを持つ正規分布を第2の正規分布とする。このとき、双峰性を示す場合は、第1の正規分布と第2の正規分布の値が近い数値になり、単峰性を示す場合は、第1の正規分布と第2の正規分布の値が大きく異なる数値となることが考えられる。このことから、例えば、(第1の正規分布の分散/第2の正規分布の分散)の計算で得られた値を、球形部位の人らしさD13aとしてもよい。以上で、球形部位人らしさ演算部13aにて選択された部位が球形であると仮定した場合の人らしさの算出処理が完了する。
From the above, we assume that the histogram is expressed as the sum of two normal distributions, and use the mean and variance, which are the parameters of each normal distribution, when fitting the normal distribution, as a numerical value representing humanness. It is possible that From now on, of the two normal distributions obtained through fitting, the normal distribution with a small variance and a sharp peak will be referred to as the first normal distribution, and the normal distribution with a large variance and a gentle peak will be referred to as the second normal distribution. . At this time, if bimodality is exhibited, the values of the first normal distribution and the second normal distribution will be close to each other, and if unimodality is exhibited, the values of the first normal distribution and the second normal distribution will be close to each other. It is conceivable that the values will be significantly different. Therefore, for example, the value obtained by calculating (variance of first normal distribution/dispersion of second normal distribution) may be used as the humanness D13a of the spherical part. The above completes the process of calculating the human-likeness when the part selected by the spherical-part human-
図7は、線分部位人らしさ演算部13bが人らしさD13bの動作を示すフローチャートである。図7は、線分部位人らしさ演算部13bにて選択された特定部位が線状である線分部位である仮定した場合の人らしさD13bを算出する方法を示す。また、図8(A)及び(B)は、線分部位人らしさ演算部13bの動作を示す模式図である。
FIG. 7 is a flowchart showing the operation of the line segment part human-
図7のステップS34において、線分部位人らしさ演算部13bは、人形状情報D11として選択した線分部位を表現するパラメータを取得する。図8(A)及び(B)における太い実線で示された線分が、線分部位に対応する。具体的には、線分部位は、線分の両端を表現する座標値などで特定される、例えば、右上腕が線分部位として選択される場合は、右肩の座標値と右肘の座標値との組み合わせが、線分部位を表現するパラメータである。
In step S34 of FIG. 7, the line segment part human-
ステップS35においては、線分部位人らしさ演算部13bは、選択した線分に鉛直な線分(例えば、選択した線分の中央位置を通り、選択した線分に鉛直な線分)を計算する。図8(A)及び(B)における細い実線がこれに該当する。この鉛直な線分の長さは、例えば、選択された線状部位と、可視画像カメラ60の解像度と、ステップS1とから推定された距離とによって決定される。
In step S35, the line segment part human-
ステップS36においては、線分部位人らしさ演算部13bは、ステップS35で計算された鉛直な線分上の座標について、発熱領域情報D12から温度値Tを取得し、線分上の温度値Tから人らしさを計算する。図8(A)及び(B)における温度分布グラフは、横軸が線分上の画像内の横軸方向の値(すなわち、位置)、縦軸が温度値Tであって、線分上の温度値の変化を得るためのグラフである。
In step S36, the line segment part human-
ここで、理想状態として、人物の線分部位が同一人物の他の線分部位と重なっていない場合、線分上の温度値の変化は、図8(A)に示されるように、単峰性を示すグラフとなると考えられる。実際には、同一人物の他の部位と重なったり、他の発熱物体と重複したりするために、山の裾野が広がる場合又は線分端にて温度値の下降が見られない場合が考えられるが、少なくとも片方の線分端においては、下降するケースがほとんどである。一方で、表示機のスクリーンに表示される媒体内人物の場合は、人物の線分部位の以外の領域も表示機により一様に高温になることが考えられるため、線分上の温度値の変化の形状は、図7(B)の右下部に示すように、一様なグラフになる。また、ポスターなど非高温物に表示される人物についても、温度が異なるものの同様に一様なグラフを示す。 Here, as an ideal state, if a line segment part of a person does not overlap with other line segment parts of the same person, the change in temperature value on the line segment will be a single peak, as shown in FIG. 8(A). This is considered to be a graph that shows the In reality, the base of the mountain may spread or the temperature may not decrease at the end of the line because it overlaps with other parts of the same person or with other heat-generating objects. However, in most cases, at least at one end of the line segment, it descends. On the other hand, in the case of a person in a medium displayed on the screen of a display device, areas other than the line segments of the person may also become hot due to the display device, so the temperature value on the line segment may be The shape of the change is a uniform graph, as shown in the lower right corner of FIG. 7(B). Similarly, a uniform graph is shown for a person displayed on a non-high temperature object such as a poster, although the temperature is different.
以上のことから、人らしさを表す数値として、線分上の温度値の変化が1つの正規分布で表現されると仮定し、正規フィッティングを行った際の正規分布のパラメータである平均及び分散を使用することが考えられる。このとき、一様なグラフに正規分布をフィッティングした場合は、分散の値が10000を超える大きな値になることが考えられる。一方で、単峰性を示すグラフの場合は、分散の値は、10以下のような小さな値になることが考えられる。このことから、例えば、Min関数を与えられた引数のうち小さい方を選択する関数、Kを基準となる分散値(上記の例では、10)、Min(1,√(K/[正規分布の分散]))の計算で得られた値を「線分部位の人らしさ」としてもよい。以上で、線分部位人らしさ演算部13bにて選択された部位が線分であると仮定した場合の人らしさの算出処理が完了する。
From the above, we assume that changes in temperature values on a line segment are expressed by one normal distribution as numerical values representing human-likeness, and we calculate the mean and variance, which are the parameters of the normal distribution when performing normal fitting. It is possible to use it. At this time, if a normal distribution is fitted to a uniform graph, the value of variance may be a large value exceeding 10,000. On the other hand, in the case of a graph exhibiting unimodal characteristics, the value of variance is likely to be a small value of 10 or less. From this, for example, the Min function is a function that selects the smaller of the given arguments, the variance value with K as the reference (10 in the above example), Min(1,√(K/[normal distribution The value obtained by calculating the variance])) may be used as the "humanity of the line segment part." The above completes the human-likeness calculation process when it is assumed that the body part selected by the line-segment-part human-
《1-3》効果
以上に説明したように、実施の形態1によれば、人検知装置10が、可視画像カメラ60から得た可視画像D60から抽出された人形状情報D11を赤外線カメラ70の熱画像D70から抽出された発熱領域情報D12を用いてフィルタリングすることにより、媒体内人物に相当する人形状情報D11を除外することができる。このため、実施の形態1によれば、可視画像D60内に存在するポスター及びテレビなどに表示される媒体内人物を除外することで、実際に存在する人を高い精度で検出することができる。また、実施の形態1によれば、実際に存在する人の姿勢をすることも可能である。
<<1-3>> Effects As explained above, according to the first embodiment, the
《2》実施の形態2
図9は、実施の形態2に係る人検知装置20及び人検知システム2の構成を概略的に示すブロック図である。図9において、図1に示される構成と同一又は対応する構成には、図1に示される符号と同じ符号が付されている。実施の形態2に係る人検知装置20は、撮影範囲内に存在する1つ以上の発熱を伴う機器300の使用状況を示す機器使用情報を取得する機器使用情報取得部21と、機器使用情報と発熱領域情報D12の関連を学習する機器学習部22と、機器300が使用中である場合に発熱領域情報D12から機器300の発熱に起因する熱領域を除外することで修正された発熱領域情報D23を出力する機器除外部23とを更に有する点が、実施の形態1に係る人検知装置10と相違する。
<<2>>
FIG. 9 is a block diagram schematically showing the configuration of a
機器使用情報取得部21は、撮影範囲内に存在する1つ以上の機器300の使用状況を示す機器使用情報を取得する。機器使用情報は、機器300が、例えば、家電製品などを管理・コントロールするシステムであるHEMS(Home Energy Management System)などの通信方法により電源オン又はオフの情報を発信できるものである場合には、HEMSから機器300の電源オン又はオフの情報を収集することができる。また、通信機能を備えた電力メーター(すなわち、電力消費量計測器)であるスマートメーターと、人検知装置20とが通信可能である場合、機器300の電力の使用情報から機器300のオン又はオフの状態を取得することが可能である。
The device usage
機器学習部22は、発熱領域抽出部12の発熱領域情報D12と機器使用情報取得部21の機器使用情報とを照らし合わせ、機器使用情報において、いずれかの電気機器が使用中となっている場合に、機器と発熱領域情報D12で高温を示す領域との関連性を学習する。この学習は、人検知装置20を設置した直後では、関連性の学習が完了していないが、ある程度、学習を行い続けることで、公知の技術である画像の背景差分の技術のように、正確な関連付けを行うことが期待できる。なお、背景差分は、観測画像と事前に取得した画像とを比較することで、事前に取得した画像には存在しない物体を抽出する処理である。
The
機器除外部23は、撮影範囲内に存在する1つ以上の機器300が使用中である場合に、発熱領域抽出部12の発熱領域情報D12から機器300に関連付けられる熱領域を除外することで修正された発熱領域情報D23を取得する。なお、実施の形態2の人判定部14、球形部位人らしさ演算部13a及び線分部位人らしさ演算部13bは、機器除外部23が出力する機器300に関連付けられる熱領域を除外することで得られた、修正された発熱領域情報D23を使用する。そのため、球形部位人らしさ演算部13a及び線分部位人らしさ演算部13bが人形状情報D11の各特定部位の人らしさの計算を行う際に、人以外の発熱を伴う機器の発熱領域情報を無視して計算することができる。このため、人らしさ演算部13は、より正確に人らしさの計算を行うことができる。
The
以上に説明したように、実施の形態2によれば、人検知装置20が、人形状情報D11の人らしさの計算を行う際に、実際に存在する人とは関係のない発熱を伴う機器の発熱領域情報を無視できるように構成されているので、より正確な人らしさの計算を行うことができる。このため、実施の形態2によれば、可視画像D60内に存在する媒体内人物を除外することで、実際に存在する人を高い精度で検出することができる。
As explained above, according to the second embodiment, when the
なお、上記以外に関し、実施の形態2は、実施の形態1と同じである。 Note that the second embodiment is the same as the first embodiment except for the above.
《3》実施の形態3
図10は、実施の形態3に係る人検知装置30及び人検知システム3の構成を概略的に示すブロック図である。図10において、図1に示される構成と同一又は対応する構成には、図1に示される符号と同じ符号が付されている。実施の形態3に係る人検知装置30は、撮影範囲内に存在する1つ以上の発熱を伴う機器300の使用情報についてユーザが入力操作を行う機器使用情報入力部31と、機器使用情報と発熱領域情報D12の関連を学習する機器学習部22と、機器300が使用中である場合に発熱領域情報D12から機器300の発熱に起因する熱領域を除外することで得られた、修正された発熱領域情報D23を出力する機器除外部23とを更に有する点が、実施の形態1に係る人検知装置10と相違する。また、実施の形態3に係る人検知装置30は、図9の機器使用情報取得部21を、撮影範囲内に存在する1つ以上の発熱を伴う機器300の使用情報についてユーザが入力操作を行う機器使用情報入力部31で置き換えた点が、実施の形態2に係る人検知装置20と相違する。ただし、実施の形態3に係る人検知装置30は、図9の人検知装置20の構成に加えて、機器使用情報入力部31を備えてもよい。
<3>
FIG. 10 is a block diagram schematically showing the configuration of a
機器使用情報入力部31は、撮影範囲内に存在する1つ以上の機器300が使用中である場合に、ユーザが、当該機器300が使用中である旨を入力操作することで、機器使用情報を機器学習部22に送信する。これは、人検知装置30の筐体に付された操作部(例えば、ボタン)によって入力されてもよいし、人検知装置30のユーザが所有する携帯端末などの通信端末を経由して情報を入力する形態でもよい。機器学習部22及び機器除外部23の動作は、実施の形態2で説明されている。
When one or
機器使用情報入力部31は、実際の生活の最中にユーザが機器300の入力を行う形態でも有効に機能するが、人検知装置10の導入直後に機器300を一つずつ電源オン状態にし、機器学習部22が、発熱領域抽出部12の発熱領域情報D12で高温を示す領域との関連性を学習するというフェーズを設けることでより効果を発揮できる。また、新規に機器300を購入し居室内に設置したことが検知できた場合に、当該機器300を電源オン状態にし、機器学習部22が、発熱領域抽出部12の発熱領域情報D12で高温を示す領域との関連性を学習するというフェーズを設けることでも、より効果を発揮できる。
Although the device usage
以上に説明したように、実施の形態3によれば、ユーザが、機器300の使用情報を入力できることで、居室内の機器が、当該機器の使用状況を通信によって発信できない場合においても、人検知装置30が、人形状情報D11の人らしさの計算を行う際に、人物とは関係のない発熱を伴う機器の発熱領域情報を無視できるようになる。このため、人検知装置30は、より高い精度で人らしさの計算を行うことができる。実施の形態3によれば、可視画像D60内に存在する媒体内人物を除外することで、実際に存在する人を高い精度で検出することができる。
As explained above, according to the third embodiment, the user can input the usage information of the
なお、上記以外に関し、実施の形態3は、実施の形態1又は2と同じである。 Note that, except for the above, the third embodiment is the same as the first or second embodiment.
《4》実施の形態4
図11は、実施の形態4に係る人検知装置40及び人検知システム4の構成を概略的に示すブロック図である。図11において、図1に示される構成と同一又は対応する構成には、図1に示される符号と同じ符号が付されている。実施の形態4に係る人検知装置40は、可視画像カメラ60と有線又は無線で通信を行う第1の通信部としての通信部41と、赤外線カメラ70と有線又は無線で通信を行う第2の通信部としての通信部42とを有し、カメラ搭載機器61に搭載された可視画像カメラ60で撮影された可視画像D60が通信部41を介して人形状抽出部11に入力され、カメラ搭載機器71に搭載された赤外線カメラ70によって撮影された熱画像D70が通信部42を介して発熱領域抽出部12に入力される点が、実施の形態1に係る人検知装置10と相違する。
<4>
FIG. 11 is a block diagram schematically showing the configuration of a
実施の形態4では、可視画像カメラ60が人検知装置40の外部に存在するものの、人検知装置10が通信部41を介することで可視画像D60を取得し、実施の形態1と同様に人形状情報D11の人らしさD13(D13a、D13b)を計算し、媒体内人物を除外する処理を行うことができる。また、実施の形態4に係る人検知装置40は、人形状情報D11と発熱領域情報D12との座標の相互の関係を示す情報が予め与えられているので、両者の座標の紐付けを行うことができる。
In the fourth embodiment, although the
以上に説明したように、実施の形態4によれば、実施の形態1で説明した効果と同様の効果を得ることができる。 As explained above, according to the fourth embodiment, the same effects as those explained in the first embodiment can be obtained.
なお、上記以外に関し、実施の形態4は、実施の形態1と同じである。また、実施の形態4で説明した通信部41及び42を実施の形態2又は3に適用することも可能である。さらに、人検知装置40は、可視画像カメラ60又は赤外線カメラ70の一方を内蔵し、他方を通信部を介して有線又は無線で通信する構成とすることも可能である。
Note that the fourth embodiment is the same as the first embodiment except for the above. Furthermore, it is also possible to apply the
《5》変形例
実施の形態1から4に係る人検知装置10、20、30、40及び人検知システム1~4は、例えば、高齢者の見守りなどを目的として施設内及び宅内などに設置され、高齢者の行動に異常が発生した場合に、所定の通知先(例えば、施設管理者又は家族、など)に対して異常発生を通知する見守りシステムに適用可能である。実際に存在する人を高い精度で検知できる人検知装置10、20、30、40及び人検知システム1~4を採用することによって、異常発生の誤通知を減らすことができる。人検知装置10、20、30、40の人らしさ演算部13の機能を用いれば、人の姿勢を検出することが可能であるため、異常発生時における人の状態を通知することも可能である。
<<5>> Modifications The
1~4 人検知システム、 10、20、30、40 人検知装置、 11 人形状抽出部、 12 発熱領域抽出部、 14 人判定部、 13 人らしさ演算部、 13a 球形部位人らしさ演算部、 13b 線分部位人らしさ演算部、 21 機器使用情報取得部、 22 機器学習部、 23 機器除外部、 31 機器使用情報入力部、 41、42 通信部、 60 可視画像カメラ、 70 赤外線カメラ、 61 カメラ搭載機器、 71 カメラ搭載機器、 101 球形部位、 101a 周辺領域、 300 機器、 D11 人形状情報、 D12 発熱領域情報、 D13a 人らしさ、 D13b 人らしさ、 D23 修正された発熱領域情報、 D60 可視画像(画像)、 D70 熱画像、 D14 判定結果。 1 to 4 Human detection system, 10, 20, 30, 40 Human detection device, 11 Human shape extraction unit, 12 Heat generation area extraction unit, 14 Human determination unit, 13 Human-likeness calculation unit, 13a Spherical part human-likeness calculation unit, 13b Line segment human-likeness calculation unit, 21 Equipment usage information acquisition unit, 22 Equipment learning unit, 23 Equipment exclusion unit, 31 Equipment usage information input unit, 41, 42 Communication unit, 60 Visible image camera, 70 Infrared camera, 61 Camera installed Equipment, 71 Camera-equipped equipment, 101 Spherical part, 101a Surrounding area, 300 Equipment, D11 Human shape information, D12 Heat generation area information, D13a Humanity, D13b Humanity, D23 Corrected heat generation area information, D60 Visible image (image) , D70 thermal image, D14 judgment result.
Claims (14)
赤外線カメラで撮影された熱画像を受信し、前記熱画像内における発熱量の大きい領域を示す発熱領域情報を抽出する発熱領域抽出部と、
前記人の形状の予め定められた特定形状の部位を選択し、前記人形状情報と前記発熱領域情報とに基づいて、選択された前記特定形状の部位が、前記撮影範囲内に実際に存在する人の部位であることの確からしさを表す数値である人らしさを計算する人らしさ演算部と、
選択された前記特定形状の部位について計算された前記人らしさに基づいて、前記人形状情報が示す前記人の形状が、実際に存在する前記人の形状であるのか、媒体上に表示された又は描かれた人物である媒体内人物の形状であるのかを判定する人判定部と、
を有することを特徴とする人検知装置。 a human shape extraction unit that receives an image obtained by photographing a photographing range with a visible image camera that photographs an image in at least a wavelength range of visible light, and extracts human shape information indicating the shape of a person in the image;
a heat generating area extraction unit that receives a thermal image taken by an infrared camera and extracts heat generating area information indicating a region with a large amount of heat generation in the thermal image;
Selecting a predetermined specific shaped part of the human shape, and determining whether the selected specific shaped part actually exists within the imaging range based on the human shape information and the heat generation area information. a human-likeness calculation unit that calculates human-likeness, which is a numerical value representing the certainty that it is a human part;
Based on the human-likeness calculated for the selected part of the specific shape, it is possible to determine whether the shape of the person indicated by the human shape information is the shape of the person who actually exists, or whether it is displayed on the medium or not. a person determination unit that determines whether the shape of the person in the medium is the depicted person;
A person detection device characterized by having.
ことを特徴とする請求項1に記載の人検知装置。 The human-likeness calculation section includes a spherical part human-likeness calculation section that selects a spherical spherical part as the part of the specific shape and calculates the human-likeness based on the spherical part and a surrounding area surrounding the spherical part. The person detection device according to claim 1, characterized in that it has.
ことを特徴とする請求項2に記載の人検知装置。 The spherical part human-likeness calculation unit creates a histogram in which the horizontal axis is a temperature value and the vertical axis is a degree with respect to the surrounding area, and calculates the human-likeness based on the shape of the histogram. 2. The human detection device according to 2.
ことを特徴とする請求項3に記載の人検知装置。 The spherical part human-likeness calculation unit sets the human-likeness when the histogram shows a bimodal distribution to a higher value than the human-likeness when the shape of the histogram shows a unimodal distribution. The human detection device according to claim 3, characterized in that:
ことを特徴とする請求項1に記載の人検知装置。 The human-likeness calculating unit is characterized by having a line-segment-part human-likeness calculating unit that selects a linear segment site as the part of the specific shape and calculates the human-likeness based on the line segment site. The human detection device according to claim 1.
ことを特徴とする請求項5に記載の人検知装置。 The line segment part human-likeness calculation unit creates a temperature distribution graph with respect to the line segment part in which the horizontal axis is a position perpendicular to the line segment part and the vertical axis is a temperature value, and the shape of the temperature distribution graph is The person detection device according to claim 5, wherein the person-likeness is calculated based on the person-likeness.
ことを特徴とする請求項6に記載の人検知装置。 The line segment part human-likeness calculation unit sets the human-likeness when the temperature distribution graph shows a unimodal distribution to a higher value than the humanlikeness when the temperature distribution graph does not show a unimodal distribution. The human detection device according to claim 6, wherein the human detection device is set to .
前記特定形状の部位として球形状の球形部位を選択し、前記球形部位に基づいて第1の人らしさを計算する球形部位人らしさ演算部と、
前記特定形状の部位として線状の線分部位を選択し、前記線分部位に基づいて第2の人らしさを計算する線分部位人らしさ演算部と、
を有し、
前記人判定部は、前記第1の人らしさと前記第2の人らしさとに基づいて、前記人形状情報が示す前記人の形状が、実際に存在する前記人の形状であるのか、前記媒体内人物の形状であるのかを判定する
ことを特徴とする請求項1に記載の人検知装置。 The human-likeness calculation unit is
a spherical part human-likeness calculation unit that selects a spherical spherical part as the specific-shaped part and calculates a first human-likeness based on the spherical part;
a line segment part person-likeness calculation unit that selects a linear line segment part as the part of the specific shape and calculates a second person-likeness based on the line segment part;
has
The person determining unit determines whether the shape of the person indicated by the human shape information is the shape of the person who actually exists, based on the first person-likeness and the second person-likeness, and determines whether the shape of the person indicated by the human shape information is the shape of the person who actually exists The person detection device according to claim 1, wherein the person detection device determines whether the shape is that of an internal person.
前記使用情報と前記発熱領域情報との関連を学習する機器学習部と、
前記機器が使用中である場合に、前記発熱領域情報から前記機器に起因する発熱部分の情報を除外して、修正された発熱領域情報を生成する機器除外部と
を更に有し、
前記人らしさ演算部は、前記人形状情報と修正された前記発熱領域情報とに基づいて、前記人らしさを計算する
ことを特徴とする請求項1から8のいずれか1項に記載の人検知装置。 a device usage information acquisition unit that acquires usage information of devices that generate heat installed within the photographing range;
a device learning unit that learns the relationship between the usage information and the heat generation area information;
further comprising a device exclusion unit that, when the device is in use, excludes information on a heat generating part caused by the device from the heat generating area information to generate corrected heat generating area information;
The human-likeness calculation unit calculates the human-likeness based on the human-like shape information and the corrected heat-generating region information. Device.
前記使用情報と前記発熱領域情報との関連を学習する機器学習部と、
前記機器が使用中である場合に、前記発熱領域情報から前記機器に起因する発熱部分の情報を除外して、修正された発熱領域情報を生成する機器除外部と
を更に有し、
前記人らしさ演算部は、前記人形状情報と修正された前記発熱領域情報とに基づいて、前記人らしさを計算する
ことを特徴とする請求項1から8のいずれか1項に記載の人検知装置。 an equipment usage information input unit that acquires usage information of equipment that generates heat installed within the imaging range;
a device learning unit that learns the relationship between the usage information and the heat generation area information;
further comprising a device exclusion unit that, when the device is in use, excludes information on a heat generating part caused by the device from the heat generating area information to generate corrected heat generating area information;
The person detection according to any one of claims 1 to 8, wherein the person-likeness calculation unit calculates the person-likeness based on the human shape information and the corrected heat generation area information. Device.
前記赤外線カメラから送信された前記熱画像を受信する第2の通信部と、
を更に有し、
前記人形状抽出部は、前記第1の通信部を介して前記画像を受け取り、
前記発熱領域抽出部は、前記第2の通信部を介して前記熱画像を受け取る
ことを特徴とする請求項1から10のいずれか1項に記載の人検知装置。 a first communication unit that receives the image transmitted from the visible image camera;
a second communication unit that receives the thermal image transmitted from the infrared camera;
It further has
The human shape extraction unit receives the image via the first communication unit,
The person detection device according to any one of claims 1 to 10, wherein the heat generation area extraction unit receives the thermal image via the second communication unit.
前記可視画像カメラと、
前記赤外線カメラと、
を有することを特徴とする人検知システム。 A human detection device according to any one of claims 1 to 10,
the visible image camera;
the infrared camera;
A person detection system characterized by having.
少なくとも可視光の波長領域の画像を撮影する可視画像カメラで撮影範囲を撮影して得られた画像を受信し、前記画像内における人の形状を示す人形状情報を抽出するステップと、
赤外線カメラで撮影された熱画像を受信し、前記熱画像内における発熱量の大きい領域を示す発熱領域情報を抽出するステップと、
前記人の形状の予め定められた特定形状の部位を選択し、前記人形状情報と前記発熱領域情報とに基づいて、選択された前記特定形状の部位が、前記撮影範囲内に実際に存在する人の部位であることの確からしさを表す数値である人らしさを計算するステップと、
選択された前記特定形状の部位について計算された前記人らしさに基づいて、前記人形状情報が示す前記人の形状が、実際に存在する前記人の形状であるのか、媒体上に表示された又は描かれた人物である媒体内人物の形状であるのかを判定するステップと、
を有することを特徴とする人検知方法。 A person detection method performed by a person detection device, the method comprising:
receiving an image obtained by photographing a photographing range with a visible image camera that photographs an image in at least a wavelength range of visible light, and extracting human shape information indicating the shape of a person in the image;
receiving a thermal image taken by an infrared camera, and extracting heat generation area information indicating a region with a large amount of heat generation in the thermal image;
Selecting a predetermined specific shaped part of the human shape, and determining whether the selected specific shaped part actually exists within the imaging range based on the human shape information and the heat generation area information. a step of calculating human-likeness, which is a numerical value representing the certainty that it is a human part;
Based on the human-likeness calculated for the selected part of the specific shape, it is possible to determine whether the shape of the person indicated by the human shape information is the shape of the person who actually exists, or whether it is displayed on the medium or not. determining whether the shape of the person in the medium is the depicted person;
A person detection method characterized by having the following.
赤外線カメラで撮影された熱画像を受信し、前記熱画像内における発熱量の大きい領域を示す発熱領域情報を抽出するステップと、
前記人の形状の予め定められた特定形状の部位を選択し、前記人形状情報と前記発熱領域情報とに基づいて、選択された前記特定形状の部位が、前記撮影範囲内に実際に存在する人の部位であることの確からしさを表す数値である人らしさを計算するステップと、
選択された前記特定形状の部位について計算された前記人らしさに基づいて、前記人形状情報が示す前記人の形状が、実際に存在する前記人の形状であるのか、媒体上に表示された又は描かれた人物である媒体内人物の形状であるのかを判定するステップと、
をコンピュータに実行させることを特徴とする人検知プログラム。 receiving an image obtained by photographing a photographing range with a visible image camera that photographs an image in at least a wavelength range of visible light, and extracting human shape information indicating the shape of a person in the image;
receiving a thermal image taken by an infrared camera, and extracting heat generation area information indicating a region with a large amount of heat generation in the thermal image;
Selecting a predetermined specific shaped part of the human shape, and determining whether the selected specific shaped part actually exists within the imaging range based on the human shape information and the heat generation area information. a step of calculating human-likeness, which is a numerical value representing the certainty that it is a human part;
Based on the human-likeness calculated for the selected part of the specific shape, it is possible to determine whether the shape of the person indicated by the human shape information is the shape of the person who actually exists, or whether it is displayed on the medium or not. determining whether the shape of the person in the medium is the depicted person;
A human detection program that causes a computer to execute.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022557792A JP7199614B1 (en) | 2022-05-16 | 2022-05-16 | HUMAN DETECTION DEVICE, HUMAN DETECTION SYSTEM, HUMAN DETECTION METHOD, AND HUMAN DETECTION PROGRAM |
| PCT/JP2022/020341 WO2023223376A1 (en) | 2022-05-16 | 2022-05-16 | Human detection device, human detection system, human detection method, and human detection program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2022/020341 WO2023223376A1 (en) | 2022-05-16 | 2022-05-16 | Human detection device, human detection system, human detection method, and human detection program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2023223376A1 true WO2023223376A1 (en) | 2023-11-23 |
Family
ID=84784187
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2022/020341 Ceased WO2023223376A1 (en) | 2022-05-16 | 2022-05-16 | Human detection device, human detection system, human detection method, and human detection program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7199614B1 (en) |
| WO (1) | WO2023223376A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06117836A (en) * | 1992-08-21 | 1994-04-28 | Matsushita Electric Ind Co Ltd | Image processing device and air conditioner control device and applied equipment using the image processing device |
| JPH0723934A (en) * | 1993-07-14 | 1995-01-27 | Agency Of Ind Science & Technol | Face direction discrimination device |
| JP2006217413A (en) * | 2005-02-04 | 2006-08-17 | Nikon Corp | Electronic camera |
| WO2009107237A1 (en) * | 2008-02-29 | 2009-09-03 | グローリー株式会社 | Biometrics device |
| JP2021185458A (en) * | 2020-05-25 | 2021-12-09 | オムロン株式会社 | Biometric determination apparatus and biometric determination method |
-
2022
- 2022-05-16 WO PCT/JP2022/020341 patent/WO2023223376A1/en not_active Ceased
- 2022-05-16 JP JP2022557792A patent/JP7199614B1/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06117836A (en) * | 1992-08-21 | 1994-04-28 | Matsushita Electric Ind Co Ltd | Image processing device and air conditioner control device and applied equipment using the image processing device |
| JPH0723934A (en) * | 1993-07-14 | 1995-01-27 | Agency Of Ind Science & Technol | Face direction discrimination device |
| JP2006217413A (en) * | 2005-02-04 | 2006-08-17 | Nikon Corp | Electronic camera |
| WO2009107237A1 (en) * | 2008-02-29 | 2009-09-03 | グローリー株式会社 | Biometrics device |
| JP2021185458A (en) * | 2020-05-25 | 2021-12-09 | オムロン株式会社 | Biometric determination apparatus and biometric determination method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7199614B1 (en) | 2023-01-05 |
| JPWO2023223376A1 (en) | 2023-11-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7138931B2 (en) | Posture analysis device, posture analysis method, and program | |
| JP6705028B2 (en) | Image sensor | |
| JP6115335B2 (en) | Information processing apparatus, information processing method, and program | |
| JP6167563B2 (en) | Information processing apparatus, information processing method, and program | |
| JP2023126261A (en) | User interface for configuring the thermal imaging system | |
| CN112101115B (en) | Temperature control method and device based on thermal imaging, electronic equipment and medium | |
| JP6270433B2 (en) | Information processing apparatus, information processing method, and information processing system | |
| CN110199316B (en) | Camera and image processing method of camera | |
| KR101927220B1 (en) | Method and Apparatus for Detecting Object of Interest By Using Infrared Thermography Image | |
| JP6720909B2 (en) | Action detection device, method and program, and monitored person monitoring device | |
| WO2018008702A1 (en) | Behavior detection system | |
| JP6413310B2 (en) | Monitoring device, display method and program | |
| CN107272424A (en) | The method and apparatus for controlling intelligent appliance | |
| CN112102360B (en) | Action type identification method and device, electronic equipment and medium | |
| Xiang et al. | Remote safety monitoring for elderly persons based on omni-vision analysis | |
| Naser et al. | Towards human distance estimation using a thermal sensor array | |
| CN115880771A (en) | Method for detecting long-term stagnation of human body, electronic equipment and storage medium | |
| JP6870514B2 (en) | Watching support system and its control method | |
| Yang et al. | Design of indoor fall detection system for the elderly based on ZYNQ | |
| JP7172376B2 (en) | Information providing device, information providing system, information providing method, and program | |
| JP7199614B1 (en) | HUMAN DETECTION DEVICE, HUMAN DETECTION SYSTEM, HUMAN DETECTION METHOD, AND HUMAN DETECTION PROGRAM | |
| Chen et al. | Miso: Monitoring inactivity of single older adults at home using rgb-d technology | |
| JP6822326B2 (en) | Watching support system and its control method | |
| CN111246177A (en) | A kind of user safety warning prompting method and system | |
| WO2016181837A1 (en) | Image processing system, image processing device, image processing method, and image processing program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| ENP | Entry into the national phase |
Ref document number: 2022557792 Country of ref document: JP Kind code of ref document: A |
|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22942581 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 22942581 Country of ref document: EP Kind code of ref document: A1 |