WO2013136395A1 - 検知装置、検知方法、プログラムが格納された記憶媒体 - Google Patents
検知装置、検知方法、プログラムが格納された記憶媒体 Download PDFInfo
- Publication number
- WO2013136395A1 WO2013136395A1 PCT/JP2012/007464 JP2012007464W WO2013136395A1 WO 2013136395 A1 WO2013136395 A1 WO 2013136395A1 JP 2012007464 W JP2012007464 W JP 2012007464W WO 2013136395 A1 WO2013136395 A1 WO 2013136395A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- candidate
- detection
- area
- image
- current time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Definitions
- the present invention relates to a detection device, a detection method, and a program, and more particularly, to an image recognition technique in a condition in which image change is remarkable, such as detection of a pedestrian area in a vehicle-mounted moving image.
- Various computer processing methods are disclosed as a method for recognizing a specific object from a moving image sequence acquired from a camera.
- a method using a statistical discriminator by machine learning is known as a method for detecting an object of a specific category such as a person, a vehicle, or a face from an image.
- features are extracted from a plurality of sample images with categories labeled in advance, and the statistical properties of these labeled features are used by machine learning. Generate a classifier that classifies categories. Then, an image of an object belonging to a specific category is detected from the newly input image using the generated classifier.
- Patent Document 1 discloses a technique for detecting a person on a surveillance camera by using three detectors, a head detector, a face detector, and an upper body detector, which are configured by a statistical discriminator.
- the accuracy of detection, position, and scale such as missing detection (miss detection), false detection (false detection), missing or misaligned detection region (region of interest: ⁇ ⁇ ROI), etc.
- the decrease may make it difficult or impossible to select the correct area.
- a plurality of candidate ROIs may overlap ROIs output around the image area of the detection target. In such a case, the ROI moves, expands, contracts, disappears, appears, etc. regardless of the movement of the detection target object on the image, so not only lower the expected value of detection performance for each single frame, This will cause ROI time-series inconsistencies.
- time series information In order to eliminate the instability of detection as described above and realize robust object detection, it is possible to use time series information. This is a method based on a reasonable assumption that the correct area is detected with a higher frequency or higher certainty than the other areas as a statistical property with a sufficient number of trials in the candidate detection result by the classifier. .
- time-series filtering framework that uses time-series input information or time-series output results to determine final detection results, false detections and omissions that may occur in frame-wise detection results are eliminated. It can be expected to obtain a stable detection result.
- Patent Document 1 As a method using time-series tracking together, in Patent Document 1, the detection result by the person detector and the tracking result by the person tracker are obtained by independent criteria, and finally the results are collated, The tracking position of the person on the image at the time is acquired.
- Such a technique works effectively under conditions where both the detector and the tracker have little performance degradation factor. For example, in applications such as acquisition of a person's movement history using a fixed surveillance camera image with a background of a scene image with little change, it can be expected that the detector and the tracker will output a matching result, and the results of both are collated. Therefore, only people can be detected and tracked without error.
- Patent Document 2 discloses an object detection method that calculates an evaluation value of shading for each extracted candidate area, and detects the area of the target object by reflecting the evaluation value in shape determination.
- Patent Document 3 discloses a technique for recognizing a moving object with high accuracy by performing a search by dividing an input image into blocks and evaluating whether the moving object is due to light disturbance.
- the detection module of Patent Document 1 may cause an error due to noise or movement of the background object image. Detection and detection omissions occur, and the tracking module increases the factors that cause mistracking. Therefore, it is difficult for both the detection module and the tracking module to always maintain high reliability at the same time.
- Patent Document 1 employs a method in which the detection result and the tracking result are obtained on independent criteria, and the error is reduced by adopting only when both results match. If you fail to get the tracking results, you will not be able to get the tracking results.
- Patent Document 1 a candidate with low certainty detected in the past can be tracked and adopted when a detection result with high certainty is obtained.
- the determination is based on the result of the frame-wise detection module. Therefore, the influence of detection omission due to a change in image and a decrease in detection area accuracy is inevitable. Therefore, in Patent Document 1, even though false detection can be reduced, detection failure and reduction in area detection accuracy in the frame-wise detection result cannot be reduced, and the stability of the detection result is not guaranteed. Had the problem.
- the detection accuracy may decrease under conditions where the detection target and the background image constantly change, and detection with high detection performance even under such bad conditions A device was sought.
- the present invention solves the above problems, suppresses the detection performance degradation due to false detection and detection omission, and at the same time improves the position and scale accuracy of the detection region, thereby providing a stable and high level of detection result with time consistency.
- An object is to provide an accurate detection device, detection method, and program.
- the detection device includes an image input unit that receives an input image, a detection unit that detects a candidate of an image region that includes a detection target in the input image as a candidate region, and the detection unit at a previous time.
- the estimation means for estimating the candidate area at the current time by updating the candidate area detected in step, the candidate area at the current time detected by the detection means, and the current time estimated by the estimation means Determining means for evaluating an overlapping degree with the candidate area and determining an image area including the detection target.
- the detection method includes an image input step of receiving an input image, a detection step of detecting a candidate of an image region including a detection target in the input image as a candidate region, and the previous time at the time An estimation step for estimating the candidate area at the current time by updating the candidate area detected by the detection means; the candidate area at the current time detected by the detection means; and the current time estimated by the estimation means And determining the image area including the detection target by evaluating the degree of overlap with the candidate area.
- the program includes an image input step of receiving an input image, a detection step of detecting an image region candidate including a detection target in the input image as a candidate region, and the detection at a previous time.
- the present invention it is possible to suppress detection performance deterioration due to erroneous detection or detection omission, and at the same time, improve the position / scale accuracy of the detection region, thereby providing a stable and highly accurate detection device having temporal consistency of detection results, A detection method and a program can be provided.
- FIG. 1 is a block diagram illustrating an overall configuration of an object detection system according to Embodiment 1.
- FIG. 3 is a block diagram illustrating a functional configuration of the object detection device according to Embodiment 1.
- FIG. 3 is a flowchart showing an operation flow of the object detection apparatus according to the first embodiment.
- 6 is a block diagram illustrating a functional configuration of an object detection device according to Embodiment 2.
- FIG. 10 is a schematic diagram showing how candidate areas are detected according to Embodiment 2.
- FIG. 10 is a schematic diagram illustrating a definition of a notation such as a parameter representing a candidate area according to the second embodiment.
- 10 is a schematic diagram illustrating an example of a time difference vector according to Embodiment 2.
- FIG. 10 is a schematic diagram illustrating an example in the case of estimating a difference element at the position of a time difference vector using Optical flow according to the second embodiment.
- FIG. 10 is a schematic diagram showing a definition of notation when an ROI region area inclusion relation is used when a spatio-temporal correlation feature generation unit according to Embodiment 2 obtains a correlation feature value.
- FIG. 10 is a schematic diagram illustrating a state in which a spatio-temporal correlation feature generation unit according to Embodiment 2 projects correlation feature values for obtained candidates onto a position-scale parameter space.
- FIG. 10 is a schematic diagram illustrating an example in the case of estimating a difference element at the position of a time difference vector using Optical flow according to the second embodiment.
- FIG. 10 is a schematic diagram showing a definition of notation when an ROI region area inclusion relation is used when a spatio-temporal correlation feature generation unit according to Embodiment 2 obtains a correlation feature value.
- FIG. 10 is a schematic diagram
- FIG. 10 is a schematic diagram illustrating an example of a spatiotemporal correlation feature generated as a result of projecting a correlation feature value for each obtained candidate onto a position-scale parameter space by the spatiotemporal correlation feature generation unit according to the second embodiment.
- Schematic diagram showing how the spatiotemporal correlation feature generation unit according to Embodiment 2 smoothes the generated spatiotemporal correlation feature, and the detection region determination unit determines a peak as an object detection region by threshold processing and maximum search It is.
- FIG. 10 is a flowchart showing an operation flow of the object detection apparatus according to the second embodiment.
- FIG. 10 is a flowchart illustrating an example of an operation flow of a candidate estimation unit of the object detection device according to the second embodiment.
- FIG. 10 is a flowchart illustrating an example of an operation flow of a spatiotemporal correlation feature generation unit of the object detection device according to the second embodiment. It is the figure which showed typically the pattern of the detection result output in the discriminator in the object detection apparatus which concerns on background art.
- FIG. 1 is a block diagram schematically showing the overall configuration of an object detection system 1 according to Embodiment 1 of the present invention.
- the object detection system 1 includes an electronic control device 10, an image output device 20, and a terminal device 30.
- the electronic control device 10 is a computer that performs information processing for detecting an object in an image.
- the electronic control device 10 specifies a region of an object (pedestrian, preceding vehicle, etc.) belonging to a specific category as a detection target in the image based on a predetermined program according to the image information sent from the image output device 20. Information processing is performed.
- the image output device 20 is a device that outputs at least image information to the electronic control device 10.
- FIG. 1 shows a case where the image output apparatus 20 is specifically a camera device.
- the camera device is an imaging device that captures images in real time, and continuously acquires images to be captured.
- a video camera that outputs an NTSC (National Television Standards Committee) or PAL (Phase Alternate Line) format can be used as the imaging device.
- NTSC National Television Standards Committee
- PAL Phase Alternate Line
- an image capture device that reads out image information stored in a storage medium, converts it into an NTSC output, PAL output, or other image format that can be read by an electronic control device and outputs it. Can be used.
- the image output device in this case can also be realized as a software program that operates inside the CPU 11 of the electronic control device 10.
- the terminal device 30 operates as a user interface for operating the electronic control device 10 and monitoring the internal state and output of the electronic control device 10. For example, the terminal device 30 displays the input image itself, a detection area, a symbol indicating a registered recognition target list to the user, a detection result of an object included in the target category in the electronic control device 10 ( It takes the form of an image display device. As another example, the terminal device 30 is an input device (for example, a switch) for inputting a command to the electronic control device 10 such as start / end of the image recognition device, designation of a recognition target, selection of display presentation information, and the like. Board, keyboard, mouse, touch panel, etc.).
- the present invention can be realized with a configuration that does not include the terminal device 30.
- a device that uses information acquired by the object detection device 100 as an input can be connected.
- the function of such a device can also be realized as a software program that operates on a CPU (Central Processing Unit) inside the electronic control device 10.
- CPU Central Processing Unit
- the electronic control device 10 includes a central processing unit (CPU) 11, a first storage device (Mem) 12, a second storage device (DB) 13, a first interface 14, and a second interface 15.
- CPU central processing unit
- Mem first storage device
- DB second storage device
- first interface 14 first interface 14
- second interface 15 second interface 15
- the central processing unit (CPU) 11 is a device that performs information processing, and is electrically connected to the first storage device (Mem) 12, the second storage device (DB) 13, the first interface 14, and the second interface 15. It is connected.
- the central processing unit (CPU) 11 executes a program, and based on the image information input from the image output device 20 via the first interface 14, the first storage device (Mem) 12 and the second storage device (DB) Information processing for specifying an image region of an object to be detected is performed while appropriately referring to information stored in 13.
- detection means identifying and specifying an image area of an object belonging to a specific category such as a pedestrian or a vehicle from the other image areas on the input image.
- the first storage device (Mem) 12 is a device for storing temporary data, and is electrically connected to the central processing unit 11.
- the second storage device (DB) 13 is mainly a database (DB), and is electrically connected to the central processing unit 11.
- the first storage device (Mem) 12 and the second storage device (DB) 13 are drawn separately for convenience, but these two storage devices may be realized as a single storage device. Good.
- storage device (DB) 13 are built in the electronic controller 10 in FIG. 1, you may be comprised as an external memory
- the first interface 14 is a device that mediates the exchange of information between the central processing unit (CPU) 11, the first storage device (Mem) 12, the second storage device (DB) 13, and the image output device 20. is there.
- the first interface 14 is configured to be connected only to the image output device 20 and the central processing unit (CPU) 11, but the first interface 14 includes the first storage device (Mem) 12, It is also possible to adopt a configuration in which the two storage devices (DB) 13 are directly connected.
- the second interface 15 receives a command input to the electronic control device 10 input from the terminal device 30 when the result of the information processing performed inside the electronic control device 10 is delivered to the terminal device 30 connected to the outside. In some cases, it serves as an information broker.
- FIG. 2 is a block diagram schematically showing a functional configuration of the object detection apparatus 100 according to the first embodiment.
- the object detection device 100 can implement the various functions shown in FIG. 2 when the electronic control device 10 executes a software program in the central processing unit 11. Note that the various functions implemented in the object detection apparatus 100 may be implemented as individual devices, function units, or electronic circuits.
- the object detection apparatus 100 includes an image input unit 110, a candidate detection unit 120, a candidate estimation unit 130, and an evaluation determination unit 140.
- the image input unit 110 receives an input image output from the image output device 20. At this time, the image input unit 110 may perform adjustment of an acquired image format such as extraction of a necessary image region, adjustment of resolution and size, extraction of an odd (or even) field from an NTSC format image, image quality improvement, and the like. .
- the image input unit 110 outputs the input image received from the image output device 20 to the candidate detection unit 120 and the candidate estimation unit 130.
- the candidate detection unit 120 detects a candidate for an image area that includes a detection target in the input image received from the image input unit 110.
- a candidate image area including a detection target is defined as a candidate area.
- the candidate detection unit 120 detects an image area candidate including a detection target in the input image as a candidate area (ROI: region of interest).
- the candidate detection unit 120 can detect a candidate for an image region including a detection target by statistically identifying the detection target based on a feature amount included in the input image.
- the candidate detection unit 120 outputs information regarding the detected candidate area to the candidate estimation unit 130 and the evaluation determination unit 140.
- the candidate estimation unit 130 estimates the candidate region at the current time by updating the candidate region detected by the candidate detection unit 120 at the previous time.
- the candidate estimation unit 130 can use a method of updating the candidate area by comparing input images at different times. For example, the candidate estimation unit 130 obtains an optical flow vector (Optical Flow vector) between the input images of the immediately preceding time and the current time, and updates the candidate region using the Optical Flow Vector, thereby candidate at the current time Estimate the region.
- Optical Flow vector optical flow vector
- the candidate estimation unit 130 not only updates the candidate area detected by the candidate detection unit 120 at the previous time and estimates the candidate area at the current time, but also the candidate detected by the candidate detection unit 120 at an earlier time.
- the candidate area at the current time is estimated by cumulatively updating the area a plurality of times. That is, the candidate estimation unit 130 temporarily stores the estimated candidate area in the storage device 12 and estimates the candidate area at the current time by updating the candidate area stored at the previous time at the next time.
- the extent to which the candidate estimation unit 130 estimates the candidate area at the current time based on the candidate areas detected in the past can be appropriately set according to the request for the processing amount and the object detection accuracy. .
- the candidate estimation unit 130 needs to perform estimation for many candidate areas, The amount of processing increases.
- the candidate estimation unit 130 sets a predetermined reference and limits the number of candidate regions to be estimated.
- the candidate estimation unit 130 may limit the number of candidate areas to be estimated at the current time by setting a reference regarding the retroactive period and not updating candidate areas detected at a time before the reference.
- the candidate estimation unit 130 may be configured to limit the retroactive time to one section and update only the candidate area detected at the immediately preceding time from the relationship between processing amount and accuracy.
- the candidate estimation unit 130 sets the reliability for each candidate area, sets a criterion for the reliability, and does not update the candidate area with a low reliability so that the candidate area to be estimated at the current time is set.
- the number may be limited.
- the reliability indicates the certainty that the image in the candidate region is an object belonging to the target category that is the detection target. By repeatedly updating the candidate area, the certainty that the object belonging to the detection target is included in the cumulatively updated candidate area generally decreases. Therefore, it is preferable that the candidate estimation unit 130 is configured to update the images in the candidate area together with the certainty factor that is the detection target.
- the evaluation determination unit 140 evaluates the degree of overlap between the candidate region at the current time detected by the candidate detection unit 120 and the candidate region at the current time estimated by the candidate estimation unit 130 and determines an image region including the detection target. To do.
- FIG. 3 is a flowchart showing an operation flow of the object detection apparatus 100.
- the image input unit 110 sequentially receives input images and outputs them at regular time intervals (step S101).
- the candidate detection unit 120 that has received the input image from the image input unit 110 detects a candidate area that is a candidate for the object detection area from the input image (step S102).
- the candidate estimation unit 130 estimates the candidate area at the current time by updating the candidate area acquired before the previous time (step S103).
- the evaluation determination unit 140 evaluates the degree of overlap between the candidate area at the current time detected at step S102 and the candidate area at the current time estimated at step S103 (step S104).
- the evaluation determining unit 140 determines an image area including the detection target based on the evaluation result in step S104 (step S105).
- the object detection apparatus 100 determines an image region after evaluating the spatiotemporal overlap of a plurality of candidate regions. Therefore, even if erroneous detection or omission of detection is included in the result of candidate detection for each single frame, it is finally determined by evaluating the degree of overlap with the estimated candidate region obtained by updating the candidate region acquired in another frame.
- the image area including the detection target is determined. With this configuration, it is possible to determine a correct candidate area as an image area including an object to be detected.
- Embodiment 2 The second embodiment is characterized in that an image region including a detection target is determined by generating a feature amount that evaluates the degree of spatiotemporal overlap between candidate regions.
- an image region including a detection target is determined by generating a feature amount that evaluates the degree of spatiotemporal overlap between candidate regions.
- FIG. 4 is a block diagram showing a configuration of the object detection apparatus 200 according to the second embodiment.
- the object detection device 200 includes an image input unit 210, a candidate detection unit 220, a candidate estimation unit 230, and an evaluation determination unit 240.
- the evaluation determination unit 240 specifically includes a spatiotemporal correlation feature generation unit 241 and a detection region determination unit 242.
- the image input unit 210, the candidate detection unit 220, the candidate estimation unit 230, and the evaluation determination unit 240 are respectively the image input unit 110, the candidate detection unit 120, the candidate estimation unit 130, and the evaluation determination unit of the first embodiment. Corresponds to the portion 140.
- the image input unit 210 receives the input image output from the image output device 20, and outputs the input image to the candidate detection unit 220 and the candidate estimation unit 230.
- the candidate detection unit 220 detects an image area candidate including a detection target in the input image received from the image input unit 210 as a candidate area.
- the candidate detection unit 220 identifies a candidate area that is a candidate for an image area of a category (pedestrian, vehicle, Etc.) to be detected from the input image received at each time from the image input unit 210 as a background image.
- the candidate detection unit 220 outputs the position and scale of the detected candidate area, and a reliability numerical value indicating the certainty as information related to the candidate area.
- the candidate detection unit 220 can be realized by using, for example, a general classifier based on statistical learning.
- a statistical discriminator such as SVM or AdaBoost using Haar-like features, HoG features, or the like as feature quantities can be used.
- the candidate detection unit 220 detects image region candidates including the detection target based on the feature amount included in the input image.
- the candidate detection unit 220 can output only candidates having a reliability equal to or higher than the threshold by setting a threshold (threshCandVal1) to the numerical value of the reliability. Also, if a candidate that exceeds the threshold (maxCandNum) that defines the maximum number of candidates to be output is detected, reset the threshold (threshCandVal2) with a higher reliability than (threshCandVal1) so that it falls below maxCandNum. Thus, the maximum number of candidates that can be output can be limited.
- FIG. 5 shows how the candidate detection unit 220 detects a candidate area.
- the candidate detection unit 220 captures the characteristics of a person appearing in the input image (Image) plane) and detects three areas as image area candidates including the person to be detected.
- the candidate detection unit 220 sets threshCandVal1 so as to allow duplication of candidate areas and acquire as many candidates as the calculation resource allows.
- a candidate (candidate area) of each image area detected by the candidate detection unit 220 can be expressed as Equation 1 below with reference to FIG.
- each index in Formula 1 indicates the following value.
- the values output from the candidate detection unit 220 are the initial values, and the counter value cnt is 0 as the initial value.
- the reliability val indicates the certainty that the image in the candidate area is the detection target.
- information relating to the position of the candidate area detected by the candidate detection unit 220 in the input image, information relating to the area size, and information relating to the certainty that the image in the candidate area is the detection target are collectively represented as candidate information.
- the counter value cnt indicates the number of times the candidate estimation unit has updated the candidate area, and may be referred to as update number information in the following description.
- the candidate estimation unit 230 estimates the candidate region at the current time by updating the candidate region detected by the candidate detection unit 220 at the previous time. Specifically, the candidate estimation unit 230 detects each candidate area detected at a time ((t-1), (t-2), (t-3), ...) before the current time (t). The difference (time difference vector) between the estimated value at the previous time (t ⁇ 1) and the state at the current time (t) is obtained, and each candidate area is updated based on the obtained time difference vector. The updated candidate area is also labeled with the position vector p, the scale vector s, the reliability val, and the counter value cnt as shown in Equation 1.
- the time difference vector is a vector representing the transition from the previous time to the current time (position: p, scale: s, etc.) of each candidate area as shown in FIG.
- the specific calculation method of the time difference vector for the position information can be reduced to the problem of associating the image area in the input image at the previous time and the current time, and various existing methods can be used.
- the candidate estimation unit 230 divides the image region included in the candidate region R (i, t ⁇ 1) at the previous time into subregions of an appropriate size, and each subregion unit. Obtain the Optical Flow between the input images of the previous time and the current time. Then, the candidate estimation unit 230 sets the representative vector such as the average value or the center value of the obtained Optical-Flow as the time difference vector ⁇ p related to the position of the candidate region. The candidate estimation unit 230 can obtain the time difference vector ⁇ p related to the position by this method. As a method for obtaining Optical-Flow, existing methods such as Horn-Schunk and Lucas-Kanade can be used.
- the candidate estimation unit 230 includes image features in each image region of the input image at the current time, such as luminance, edge gradient feature (eg, HOG feature), and color feature (eg, HS histogram) in the candidate region at the previous time.
- image features in each image region of the input image at the current time such as luminance, edge gradient feature (eg, HOG feature), and color feature (eg, HS histogram) in the candidate region at the previous time.
- the time difference vector ⁇ s related to the scale may be set to 0 on the assumption that the candidate scale is constant in a minute time interval. Further, for example, a configuration in which the time difference vector ⁇ s is obtained by an existing tracking unit similar to that for obtaining the time difference vector related to the position may be used.
- the candidate estimation unit 230 associates the image of the candidate area at the previous time with the area of the input image at the current time, the candidate estimation unit 230 changes the current time side rectangular area while changing the scale as well as the position. By comparing with the image of the candidate area, it is possible to estimate ⁇ s by a technique that also estimates the scale change.
- the candidate reliability displacement ⁇ val may be 0, but a positive or negative value may be set as an adjustment term to be added or subtracted according to the estimation accuracy of the time difference vector ⁇ p related to the position.
- the displacement ⁇ cnt of the candidate elapsed time counter is a constant value of +1 as the increment of the frame index.
- the candidate estimation unit 230 may use the number of clocks passed during the processing from the previous time t-1 to the current time t, or the real time elapsed time as the displacement ⁇ cnt of the elapsed time counter.
- the candidate estimation unit 230 estimates the candidate region at the current time by updating the candidate information generated by the candidate detection unit 220 detecting the candidate region.
- the candidate estimation unit 230 updates the candidate information and updates the update count information indicating the number of times the candidate area has been updated. However, if the update count information indicates a threshold indicating the limit of the update count, the candidate estimation unit 230 discards the candidate information without updating the candidate information thereafter.
- each candidate area is updated to the current time candidate area and stored.
- the candidate area R (i, t ⁇ 1) at the previous time (t ⁇ 1) is updated as in the following Equation 2 at the current time (t).
- Equation 2 ⁇ (i, t ⁇ 1, t) is a time difference vector at time (t) of the candidate region R (i, t ⁇ 1), and W (i, t ⁇ 1, t) is a weight in updating. It is a matrix.
- Equation 2 Each term can be defined as Equations 3-6 below.
- ⁇ is a weighting factor for the reliability of the candidate, represents a change in reliability over time, and a real number value of 0 ⁇ ⁇ 1 can be set.
- An appropriate constant may be set, or may be increased or decreased based on accuracy in position estimation.
- the candidate area at the current time output by the candidate detection unit 220 is stored as it is without being updated.
- information regarding each candidate region is output to the spatiotemporal correlation feature generation unit 241.
- the candidate estimation unit 230 sets a threshold value (cumulative threshold value) for the elapsed time counter cnt, so that only candidates within a certain time (cumulative period) from the first detection by the candidate detection unit 220 are used.
- the length of the time interval used by the correlation feature generation unit 241 can be defined. Information regarding candidate regions that exceed the threshold can be discarded.
- the candidate estimation unit 230 stores information on the candidate area acquired at the current time and information on the updated candidate area (cumulative candidate) acquired in the past, and provides the spatio-temporal correlation feature generation unit 241 with it.
- the spatiotemporal correlation feature generation unit 241 evaluates the degree of overlap between the candidate region at the current time detected by the candidate detection unit 220 and the candidate region at the current time estimated by the candidate estimation unit 230.
- the spatio-temporal correlation feature generation unit 241 detects the candidate area detected by the candidate detection unit 220 at the current time and the candidate detection unit 220 detected in the past before the previous time, and the candidate estimation unit 230 sets the time difference vector.
- Correlation feature values are calculated using all candidate regions within the accumulated section that have been updated and stored.
- the correlation feature amount is a numerical value for evaluating the degree of similarity with respect to the position and scale of each candidate region
- the magnitude of the obtained correlation feature amount value is an index of the probability as the object detection region. Become.
- R (i, t) is a candidate area detected by the candidate detection unit 220 at the current time t and a candidate area acquired within the accumulated time zone corrected by the candidate estimation unit 230 at the current time t. , R (j, t),.
- i and j indicate indexes of candidate areas.
- the spatiotemporal correlation feature generation unit 241 calculates, for each candidate region, a correlation feature value that evaluates the overlap of the region with a set of candidate regions including itself.
- the correlation feature value f (i, t) for the candidate region R (i, t) at time t indicated by the index i can be obtained from, for example, Equation 7 below.
- Area is a function representing the area area of the argument
- R (i, t) ⁇ R (j, t) and R (i, t) ⁇ R (j, t) are two candidate regions R, respectively.
- the product set and union of (i, t) and R (j, t) on the image plane (on the uv plane) are shown.
- FIG. 9 is a schematic diagram illustrating the definition of notation when using the inclusion relation of candidate area areas.
- the spatio-temporal correlation feature generation unit 241 uses the correlation feature value f (i, t) obtained for the candidate region R (i, t) as the position of the candidate region R (i, t).
- the vector p (u, v) and the scale vector s (w, h) are used as parameters, and mapping is performed in a parameter space having a correlation feature value f as a value.
- the spatio-temporal correlation feature generation unit 241 maps the correlation feature value f obtained for each candidate region R into a parameter space using the position vector p and the scale vector s as parameters.
- a distribution structure of feature values generated by mapping the correlation feature value f is referred to as a spatio-temporal correlation feature f (p, s; t).
- the spatiotemporal correlation feature is an index generated for quantitatively evaluating the degree of overlap between detection candidate regions.
- the spatiotemporal correlation feature may be referred to as a region mutual overlap degree as an index indicating the degree of overlap between candidate regions.
- the spatiotemporal correlation feature generation unit 241 can smooth the spatiotemporal correlation feature f (p, s; t) using a Median filter, a Gaussian filter, or the like.
- the spatio-temporal correlation feature can obtain a distribution of evaluation values that represent the likelihood of the image area containing the object to be detected in the position-scale space, based on the distribution of the correlation feature value. Can be determined.
- the spatio-temporal correlation feature can be used for other purposes in combination with other feature quantities, in addition to being directly used as a criterion for determining the object detection region.
- a new correlation feature space representing an object region within a certain distance may be used in combination with a range map by a radar or the like.
- the detection area determination unit 242 determines an image area including the detection target based on the evaluation regarding the overlapping degree of the candidate areas at the current time t in the spatiotemporal correlation feature generation unit 241. Specifically, the detection area determination unit 242 uses the size and distribution of the feature value of the spatio-temporal correlation feature f (p, s; t) generated by the spatio-temporal correlation feature generation unit 241 as an index, and detects the object detection area. Make a decision.
- the detection region determination unit 242 extracts a peak by binarization by threshold processing of the feature value of the spatiotemporal correlation feature f (p, s; t), maximum value extraction processing, and the like, and a position p corresponding to this. And an area on the image plane determined by the scale s is determined as an object detection area.
- FIG. 13 is a flowchart showing an operation flow of the object detection apparatus 200.
- the image input unit 210 acquires an input image from the image output device 20 (step S201).
- the candidate detection unit 220 detects a candidate area that is a candidate for the object detection area, and stores information related to the candidate area in the storage device 12 (step S202).
- the candidate detection unit 220 represents the detected candidate region with the position vector p (u, v), the scale vector s (w, h), the reliability val, and the initial value of the counter value cnt, and these pieces of information are represented as follows.
- the information on the candidate area at the current time t is stored in the storage device 12.
- the candidate estimation unit 230 calculates a time difference vector representing the difference between the state at the previous time and the current time for the candidate (accumulated candidate) acquired before the previous time, and updates the state of the cumulative candidate based on this. And stored in the storage device 12 (step S203).
- the cumulative candidates updated by the candidate estimation unit 230 at the current time t are candidates before the previous time (t ⁇ 1), in addition to the candidate areas detected by the candidate detection unit 220 at the previous time (t ⁇ 1).
- the candidate area detected by the detection unit 220 and updated at the previous time (t ⁇ 1) is included.
- the spatio-temporal correlation feature generation unit 241 includes all candidates acquired within a predetermined time interval (cumulative interval) (candidates detected at the current time (t) and cumulative candidates updated at the current time (t). Is used to generate spatiotemporal correlation features (step S204). Finally, the detection area determination unit 242 determines a detection area using the size and distribution of the feature value of the spatio-temporal correlation feature obtained in step S204 as an index (step S205).
- FIG. 14 is a flowchart schematically showing an example of details of the operation in step S203.
- the candidate estimation unit 230 selects an unupdated cumulative candidate R (i, t ⁇ 1) from the cumulative candidate set stored in the storage device 12 (step S301).
- the candidate estimation unit 230 branches the process based on the value of the accumulation counter cnt of the accumulation candidate R (i, t ⁇ 1) (step S302). That is, the candidate estimation unit 230 determines whether the cnt of the candidate R (i, t ⁇ 1) selected in step S301 is less than a predetermined threshold value.
- step S302 determines that the candidate region R (i, t ⁇ 1) selected in step S301 exceeds the cumulative interval, and stores the storage device The candidate area is discarded from step 12, and the process proceeds to step S306 (step S303).
- the candidate estimation unit 230 assumes that the current position is within the cumulative section and inputs the candidate region R (i, t ⁇ 1) and the current time (t). Association with a region on the image is performed, and time differences ⁇ p and ⁇ s between the position p and the scale s of the candidate region R are calculated (step S304).
- the candidate estimation unit 230 updates the reliability and the cumulative counter differences ⁇ val and ⁇ cnt, if necessary, to obtain the time difference vector ⁇ (i, t ⁇ 1, t). Also, the elements of the weight matrix W (i, t ⁇ 1, t) are updated if necessary. By default, these values may be set to constants.
- the candidate estimation unit 230 uses the time difference vector ⁇ (i, t ⁇ 1, t) and the weight matrix W (i, t ⁇ 1, t) as candidates for information on the candidate R (i, t ⁇ 1). Update to region R (i, t-1) (step S305).
- the candidate estimation unit 230 loops the process under conditions until all the unupdated accumulated candidates are updated (step S306). If the condition is satisfied, the process ends. If not, the process returns to S301 and the above process is repeated.
- FIG. 15 is a flowchart schematically showing an example of details of the operation in step S204 shown in FIG.
- the spatiotemporal correlation feature generation unit 241 calculates a correlation feature value f (i, t) for all the accumulated candidates R (i, t) held (step S401). ).
- the spatio-temporal correlation feature generation unit 241 projects the obtained correlation feature value f (i, t) onto the parameter space at the position p and the scale s, and the spatio-temporal correlation feature f (p, s; t). Generate (step S402).
- the spatiotemporal correlation feature generation unit 241 smoothes the generated spatiotemporal correlation feature f ⁇ ⁇ (p, s; t) using a smoothing function such as a Gaussian function or a Median filter (S403).
- the detection area determination unit 242 performs a peak process on the spatiotemporal correlation feature f ⁇ (p, s; t) after smoothing obtained by the processes in steps S401 to S403, determines a detection area, and sets the target category. Detect an object.
- a feature quantity that evaluates the spatio-temporal overlap of a plurality of candidate detection ROI areas is generated and used to specify an object detection area.
- the spatio-temporal correlation feature generation unit 241 calculates the correlation feature value f by calculating the union and intersection with other candidate regions according to Equation 7, but the present invention is not limited to this. It is not done.
- the spatio-temporal correlation feature generation unit 241 employs another method of calculating the correlation feature value f by calculating the degree of mutual overlap among candidate region sets including candidate regions detected and updated at different times. It is possible.
- the detection apparatus of the present invention evaluates the correlation in time and space of a plurality of candidate areas, and finally determines an image area that includes a detection target at the current time.
- the detection device of the present invention evaluates the correlation between the estimated candidate area at the current time estimated based on the detection result of the candidate area at the previous time and the detection result of the candidate area at the current time.
- the detection device of the present invention holds the output of an object discriminator normally used for the purpose of detecting an object of a specific category such as a person or a vehicle as a candidate region in time series, and the time on the input image of each candidate region. After correcting the change, the correlation of the spatio-temporal overlap of the candidates is extracted as a feature representing the certainty as the detection target region.
- the extracted correlation feature value for specifying the detection area it is possible to suppress detection omissions, false detections, and deterioration in detection area accuracy included in the results of candidate detection due to image noise, background, and target movement. It is possible to compensate, and the object region can be detected reliably and stably.
- the detection target is described as being an object.
- the detection target is not limited to this, and a specific action of a predetermined object may be set as the detection target. That is, the detection device of the present invention may be configured as an object detection device that detects a target object, or may be configured as a gesture recognition device that recognizes a gesture.
- each function described in each of the above embodiments may be realized by hardware, or may be realized by causing a CPU (Central Processing Unit) to execute a computer program.
- the above-described program can be stored using various types of non-transitory computer readable media and supplied to a computer.
- Non-transitory computer readable media include various types of tangible storage media.
- non-transitory computer-readable media examples include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROM (Read Only Memory) CD-R, CD -R / W, including semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
- the program may be supplied to a computer by various types of temporary computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves.
- the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
- present invention can be appropriately combined with the above-described embodiments.
- present invention can take the following forms.
- An image input means for receiving an input image; a detection means for detecting a candidate image area including a detection target in the input image as a candidate area; and updating the candidate area detected by the detection means at a previous time.
- estimating means for estimating the candidate area at the current time, and evaluating the degree of overlap between the candidate area at the current time detected by the detecting means and the candidate area at the current time estimated by the estimating means
- a determining unit that determines an image area including the detection target.
- the detection unit generates information regarding the position of the detected candidate region in the input image, the region size, and the certainty that the image in the candidate region is the detection target, as candidate information, The detection device according to attachment 1, wherein the estimation unit estimates the candidate region at a current time by updating the candidate information.
- the detection apparatus according to appendix 2 wherein the estimation unit calculates a vector representing a transition at a current time from a previous time of the candidate area, and updates the candidate information using the calculated vector.
- the detection means further generates an initial value of update count information indicating the number of times the estimation means has updated the candidate area, and the estimation means updates the candidate information and updates the update count information together.
- the detection device according to appendix 2 or 3.
- the detection device according to appendix 4, wherein the estimation unit discards the candidate information without updating the candidate information thereafter when the update number information indicates a threshold value indicating a limit of the number of updates.
- the determining means is configured to generate an image based on the candidate area detected at the current time by the detecting means and the candidate area detected by the detecting means within the accumulation interval and estimated at the current time by the estimating means.
- a spatio-temporal correlation feature generating means for evaluating a degree of overlap on a plane and projecting it onto a parameter space of a candidate area; and the detection target based on a magnitude of the correlation feature value in the spatio-temporal correlation feature
- the detection device according to any one of appendices 2 to 5, further comprising detection region determination means for determining an image region including (Appendix 7)
- the spatio-temporal correlation feature generating means includes the candidate area detected at the current time by the detecting means, the candidate area detected by the detecting means within a cumulative section, and estimated at the current time by the estimating means,
- the correlation feature value is calculated by evaluating the degree of overlap on the image plane based on the image, and the spatio-temporal correlation feature is generated by projecting the calculated correlation feature value onto the parameter space of the candidate region.
- the spatio-temporal correlation feature generation means generates a second candidate in the cumulative candidate set for a first candidate region R1 arbitrarily selected from a cumulative candidate set that is a set of all candidate regions held in the cumulative section. A value obtained by multiplying the ratio of the common part R1 ⁇ R2 to the union R1 ⁇ R2 with the candidate region R2 of the second candidate region R2 and the certainty factor of the second candidate region R2 is calculated.
- the detection device according to appendix 6 or appendix 7, wherein the result of taking the sum while changing all candidates is used as the correlation feature value of the first candidate region R1.
- the detection area determining means determines a parameter of a candidate area corresponding to a point where a correlation feature value in the spatiotemporal correlation feature generated by the spatiotemporal correlation feature generation means takes a local maximum value in an area exceeding a predetermined threshold.
- the detection device according to any one of appendices 6 to 9, wherein the detection region is determined as an image region including the detection target.
- An estimation step for estimating a candidate area, and the detection target is included by evaluating the degree of overlap between the candidate area at the current time detected by the detection means and the candidate area at the current time estimated by the estimation means
- Detection including an imaging device that captures an image, a detection device that detects an object included in a target category by inputting an image captured by the imaging device, and an image display device that displays a detection result in the detection device
- the detection device includes: an image input unit that receives an input image; a detection unit that detects a candidate of an image region that includes a detection target in the input image as a candidate region; and the detection unit at a previous time.
- the estimation means for estimating the candidate area at the current time by updating the detected candidate area, and the candidate area at the current time detected by the detection means and the current time estimated by the estimation means And a determining unit that evaluates a degree of overlap with the candidate region and determines an image region including the detection target.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Description
本発明は、検知装置、検知方法及びプログラムに関し、特に車載動画像における歩行者領域の検知など、画像変化の著しい条件における画像認識技術に関する。
カメラから取得された動画像系列から特定の物体を認識するための方法として、様々な計算機処理方法が公開されている。例えば、画像中から人物、車両、顔など特定のカテゴリの物体を検知する方法として、機械学習による統計的識別器を用いた方法が知られている。
機械学習による統計的識別器を用いた方法では、予めカテゴリがラベル付けされた複数のサンプル画像から特徴量を抽出し、機械学習によってこれらのラベル付けされた特徴量の統計的性質を利用した各カテゴリを分類する識別器を生成する。そして、新規入力された画像中から特定のカテゴリに属する物体の画像を当該生成した識別器を用いて検知する。
このような統計的識別器を生成する方法としては、SVM(Support Vector Machine)及びAdaBoost等の派生的手法を例として多くの方法が公開されている。例えば、特許文献1には、統計的識別器によって構成された頭部検知器、顔検知器、上半身検知器の3つの検知器によって監視カメラ上で人物検知を行う技術が開示されている。
統計的識別器などにより画像領域中の特定カテゴリに属する物体を検知する場合において、ノイズや検知対象、および背景の動きなどによる画像の変化を要因として、検知結果が不安定になるという問題がある。具体的には、図16に示すように、検知漏れ(miss detection)、誤検知(false detection)、検知領域(region of interest: ROI)の欠けや位置ずれなど、検知、位置、及びスケールの精度低下により正しい領域の選択が困難若しくは不可能となる場合がある。また、複数の候補ROIが検知対象物の画像領域周辺に出力されるROIの重畳を生じる場合もある。このような場合、検知対象物体の画像上の動きとは無関係にROIの移動、拡大、縮小、消失、出現、等を生じるため、単フレーム毎の検知性能の期待値を低下させるだけでなく、ROIの時系列的な不整合を生じることになる。
上記のような検知の不安定性を解消し、ロバストな物体検知を実現するために、時系列情報の利用が考えられる。これは、識別器による候補検知結果において、十分な試行回数における統計的な性質として、正しい領域がそれ以外の領域よりも高い頻度もしくは高い確信度で検知されるという妥当な仮定に基づく方法である。時系列の入力情報もしくは時系列の出力結果を用いて最終的な検知結果を判断する時系列フィルタリングの枠組みを用いることで、Frame-wiseの検知結果で生じる可能性のある誤検知や検知漏れが排除され、安定した検知結果を得ることが期待できる。
時系列的追跡を併用した方法として、特許文献1では、人物検知器による検知結果と、人物追跡器による追跡結果と、をそれぞれ独立した基準で求め、最後にそれらの結果を照合させて、各時刻における画像上の人物の追跡位置を取得する。このような手法は、検知器・追跡器ともに性能低下要因の少ない条件で有効に働く。例えば、変化の乏しい風景画像を背景とする固定監視カメラ画像などによる人物の移動履歴取得などの用途では、検知器・追跡器ともに一致した結果を出力することが期待でき、両者の結果を照合することで誤りなく人物のみを検知・追跡することができる。
また、特許文献2には、抽出された候補領域毎に影らしさの評価値を算出し、当該評価値を形状判定に反映させて対象物体の領域を検知する物体検知方法が開示されている。
また、特許文献3には、入力画像をブロックに分割して探索を行い、移動物体か光の外乱によるものかを評価することで精度良く移動物体を認識する技術が開示されている。
例えば、車載カメラ画像のように、カメラ自体が動くことにより対象のみでなく背景画像が常に変化するような条件においては、ノイズや背景物体画像の移動などにより、特許文献1の検知モジュールでは、誤検知や検知漏れを生じ、追跡モジュールでは、誤追跡を引き起こす要因が増大する。従って、検知モジュール及び追跡モジュールの双方が常に同時に高い信頼性を維持することは困難である。
特に、特許文献1では、検知結果と追跡結果を独立した基準でそれぞれ求め、両者の結果が一致した場合のみを採用することで誤りを低減させる方法を採っているため、どちらか一方が正しい結果の取得に失敗した場合には追跡結果の取得ができなくなってしまう。
また、特許文献1では、過去に検知された確信度の低い候補を追跡し、確信度の高い検知結果が出た時点で採用することができるが、その判断はframe-wiseの検知モジュールの結果に依存しているため、画像の変化による検知漏れ、および検知領域精度の低下の影響は免れない。従って、特許文献1では、誤検知を低減することはできても、検知漏れ、およびframe-wiseの検知結果における領域検知精度の低下を低減することは出来ず、検知結果の安定性は保証されないという問題を有していた。
また、特許文献2、3の技術を用いても、検知対象と背景画像が常に変化するような条件下において検知精度が低下することがあり、このような悪条件においても高い検知性能を有する検知装置が求められていた。
本発明では、上記の問題を解決し、誤検知や検知漏れによる検知性能低下を抑制すると同時に、検知領域の位置・スケール精度を向上させることで、検知結果の時間的整合性をもつ安定かつ高精度な検知装置、検知方法、及びプログラムの提供を目的とする。
本発明の一態様である検知装置は、入力画像を受け付ける画像入力手段と、前記入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出手段と、以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定手段と、前記検出手段で検出された現時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定手段と、を具備する。
また、本発明の一態様である検知方法は、入力画像を受け付ける画像入力ステップと、前記入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出ステップと、以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定ステップと、前記検出手段で検出された現時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定ステップと、を有する。
また、本発明の一態様であるプログラムは、入力画像を受け付ける画像入力ステップと、前記入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出ステップと、以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定ステップと、前記検出手段で検出された現時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定ステップと、を計算機に実行させる。
本発明によれば、誤検知や検知漏れによる検知性能低下を抑制すると同時に、検知領域の位置・スケール精度を向上させることで、検知結果の時間的整合性をもつ安定かつ高精度な検知装置、検知方法、及びプログラムを提供することができる。
本発明の実施の形態について以下に図面を参照して説明する。以下の説明は、本発明の好適な実施の形態を示すものであって、本発明の範囲が以下の実施の形態に限定されるものではない。以下の説明において、同一の符号が付されたものは実質的に同様の内容を示している。
(実施の形態1)
以下、図面を参照して本発明の実施の形態1について説明する。図1は、本発明の実施形態1に係る物体検知システム1の全体構成を模式的に示したブロック図である。図1を参照すると、物体検知システム1は、電子制御装置10と、画像出力装置20と、端末装置30と、を備える。
以下、図面を参照して本発明の実施の形態1について説明する。図1は、本発明の実施形態1に係る物体検知システム1の全体構成を模式的に示したブロック図である。図1を参照すると、物体検知システム1は、電子制御装置10と、画像出力装置20と、端末装置30と、を備える。
電子制御装置10は、画像中の物体を検知するための情報処理を行うコンピュータである。電子制御装置10は、画像出力装置20から送られる画像情報に応じて、所定のプログラムに基づき、画像中の検知対象とした特定カテゴリに属する物体(歩行者、先行車両等)の領域を特定するための情報処理を行なう。
画像出力装置20は、少なくとも画像情報を電子制御装置10に向けて出力する装置である。図1では、画像出力装置20は具体的にカメラデバイスである場合を示している。カメラデバイスは、リアルタイムで画像を撮像する撮像装置であり、撮影対象の画像を連続的に取得する。撮像装置には、例えば、NTSC(National Television Standards Committee)形式やPAL(Phase Alternating Line)形式を出力するビデオカメラ等を用いることができる。
画像出力装置20として、カメラデバイスの他、記憶媒体に保存された画像情報を読み出してNTSC出力やPAL出力、その他電子制御装置が読み取ることのできる画像形式に変換して出力するような画像キャプチャ装置を用いることができる。この場合の画像出力装置は、電子制御装置10のCPU11内部で動作するソフトウェアプログラムとして実現することもできる。
端末装置30は、電子制御装置10を操作し、かつ電子制御装置10の内部状態や出力をモニタリングするためのユーザインタフェースとして動作する。端末装置30は、一例として、入力画像そのものや、検出領域、登録されている認識対象のリストをユーザに示すシンボル、電子制御装置10における対象カテゴリに含まれる物体の検知結果等を提示するディスプレイ(画像表示装置)の形態を取る。また、別の例として、端末装置30は、画像認識装置の開始/終了、認識対象の指定、ディスプレイ提示情報の選択等、電子制御装置10への指令を入力するための入力デバイス(例えば、スイッチボード、キーボード、マウス、タッチパネル等)の形態を取る。
但し、端末装置30を有しない構成で本発明を実現することも可能である。この他、物体検知装置100によって取得された情報を入力として利用する装置を接続することができる。また、そのような装置の機能を電子制御装置10内部のCPU(Central Processing Unit)で動作するソフトウェアプログラムとして実現することもできる。
次に、電子制御装置10について詳しく説明する。電子制御装置10は、中央演算装置(CPU)11と、第1記憶装置(Mem)12と、第2記憶装置(DB)13と、第1インタフェース14と、第2インタフェース15と、を有する。
中央演算装置(CPU)11は、情報処理を行う装置であり、第1記憶装置(Mem)12、及び第2記憶装置(DB)13、第1インタフェース14、第2インタフェース15、と電気的に接続されている。
中央演算装置(CPU)11は、プログラムを実行することで、画像出力装置20から第1インタフェース14を介して入力された画像情報に基づいて、第1記憶装置(Mem)12及び第2記憶装置(DB)13に記憶された情報を適宜参照しながら、検知対象となる物体の画像領域を特定するための情報処理を行う。
ここで、検知(検出)とは、歩行者、あるいは車両などといった特定のカテゴリに属する物体の画像領域を入力画像上でその他の画像領域と識別して特定することをいう。
第1記憶装置(Mem)12は、一時的なデータを記憶する装置であり、中央演算装置11と電気的に接続されている。
第2記憶装置(DB)13は、主にデータベース(DB)であり、中央演算装置11と電気的に接続されている。なお、図1では、第1記憶装置(Mem)12と第2記憶装置(DB)13とを便宜上分けて描いているが、これら2つの記憶装置は、一つの記憶デバイスとして実現されていてもよい。また、第1記憶装置(Mem)12及び第2記憶装置(DB)13は、図1では、電子制御装置10に内蔵されているが、外部の記憶装置として構成されていてもよい。
第1インタフェース14は、中央演算装置(CPU)11、第1記憶装置(Mem)12、及び第2記憶装置(DB)13と、画像出力装置20との間の情報のやり取りを仲介する装置である。図1では、第1インタフェース14は、画像出力装置20と中央演算装置(CPU)11とのみ接続される構成を示しているが、第1インタフェース14は、第1記憶装置(Mem)12や第2記憶装置(DB)13と直接接続される構成とすることも可能である。
第2インタフェース15は、電子制御装置10の内部で行なわれた情報処理の結果を外部に接続した端末装置30に引き渡す場合、あるいは端末装置30から入力される電子制御装置10への指令入力を受け取る場合に情報の仲介装置としての役割を果たす。
図2は、本実施の形態1に係る物体検知装置100の機能構成を模式的に示したブロック図である。物体検知装置100は、電子制御装置10が中央演算装置11においてソフトウェアプログラムを実行することで、図2の各種機能を実現することが可能である。なお、物体検知装置100において実現される各種機能は、個々の装置、又は機能部もしくは電子回路として実現してもよい。
図2を参照すると、本発明の実施形態1に係る物体検知装置100は、画像入力部110と、候補検出部120と、候補推定部130と、評価決定部140と、を備える。
画像入力部110は、画像出力装置20から出力された入力画像を受け取る。この際、画像入力部110は、必要な画像領域の切り出し、解像度やサイズの調整、NTSC形式画像からの奇数(あるいは偶数)フィールドの抽出、画質改善等、取得画像形式の調整を行ってもよい。画像入力部110は、画像出力装置20より受け取った入力画像を候補検出部120及び候補推定部130へ出力する。
候補検出部120は、画像入力部110より受け取った入力画像において検知対象が含まれる画像領域の候補を検出する。以下、検知対象が含まれる画像領域の候補を候補領域と定義する。候補検出部120は、入力画像において検知対象が含まれる画像領域の候補を候補領域(ROI:region of interest)として検出する。
候補検出部120は、入力画像に含まれる特徴量に基づいて統計的に検知対象を識別する構成とすることで検知対象が含まれる画像領域の候補を検出することができる。候補検出部120は、検出した候補領域に関する情報を候補推定部130及び評価決定部140に出力する。
候補推定部130は、以前の時刻において候補検出部120で検出された候補領域を更新することで現在の時刻における候補領域を推定する。候補推定部130は、候補領域の更新方法として、異なる時刻における入力画像を比較することで更新する方法を用いることができる。例えば、候補推定部130は、直前の時刻と現在の時刻との入力画像間のオプティカルフローベクトル(Optical Flow vector)を求め、当該Optical Flow Vectorを用いて候補領域を更新することで現時刻における候補領域を推定する。
候補推定部130は、直前の時刻に候補検出部120で検出された候補領域を更新して現在時刻における候補領域を推定するだけではなく、更に以前の時刻に候補検出部120で検出された候補領域を複数回累積的に更新することで現時刻における候補領域を推定する。すなわち、候補推定部130は、推定した候補領域を記憶装置12に一時的に格納し、次の時刻において、前時刻に格納した候補領域に対する更新を行うことで現時刻における候補領域を推定する。
ここで、候補推定部130がどの程度の過去に検知された候補領域に基づいて現時刻における候補領域を推定するかは、処理量と物体検知精度との要求に応じて適宜設定することができる。長区間前に検出された候補領域に基づいて現時刻における候補領域の推定を行う場合、すなわち、累積区間を長く取る場合、候補推定部130は、多くの候補領域に対する推定を行う必要があり、処理量が大きくなる。また、候補検出部120で複数の候補領域が同時に検出される場合は、これら複数の候補領域に対してそれぞれ更新を行って現時刻の候補領域を複数推定する必要がある。従って、候補推定部130は、所定の基準を設定して、推定する候補領域の数を限定することが好ましい。
候補推定部130は、遡る期間に関して基準を設定し、基準以前の時刻で検出された候補領域については更新を行わないことで、現時刻に推定する候補領域の数を限定しても良い。例えば、候補推定部130は、処理量や精度の関係から、遡る時刻を1区間に限定し、直前の時刻に検出された候補領域にのみ更新を行う構成とすることも可能である。
また、候補推定部130は、各候補領域に対して信頼度を設定し、信頼度に関して基準を設定し、信頼度の低い候補領域については更新を行わないことで現時刻に推定する候補領域の数を制限しても良い。ここで、当該信頼度は、候補領域内の画像が検知対象である対象カテゴリに属する物体である確信度を示している。候補領域の更新が繰り返されることで、累積的に更新された候補領域に検知対象に属する物体が含まれる確信度は一般的に低下する。従って、候補推定部130は、候補領域内の画像が前記検知対象である確信度数を合わせて更新する構成を取ると好ましい。
評価決定部140は、候補検出部120で検出された現時刻における候補領域と候補推定部130で推定された現時刻における候補領域との重なり度合いを評価して検知対象が含まれる画像領域を決定する。
次に、物体検知装置100の動作について説明する。図3は、物体検知装置100の動作の流れを示すフローチャート図である。
画像入力部110は、入力画像を逐次受け付け、一定時刻間隔で出力する(ステップS101)。画像入力部110より入力画像を受け取った候補検出部120は、入力画像に対し、物体検知領域の候補となる候補領域を検出する(ステップS102)。次に、候補推定部130は、前時刻以前に取得された候補領域を更新することで現時刻における候補領域を推定する(ステップS103)。次に、評価決定部140は、ステップS102で検出された現在時刻における候補領域とステップS103で推定された現在時刻における候補領域との重なり度合いを評価する(ステップS104)。評価決定部140は、ステップS104における評価結果に基づいて検知対象が含まれる画像領域を決定する(ステップS105)。
以上のように、本実施の形態1に係る物体検知装置100は、複数の候補領域の時空間的な重なりを評価した上で画像領域を決定する。従って、単フレーム毎の候補検出による結果では誤検出や検出漏れが含まれていたとしても、別フレームで取得された候補領域の更新によって得られる推定候補領域との重なり度合いの評価によって最終的に検知対象が含まれる画像領域が決定される構成を取る。当該構成とすることで、正しい候補領域を検知対象の物体が含まれる画像領域として判断することができる。
(実施の形態2)
本実施の形態2は、候補領域相互の時空間的な重なり度合いを評価した特徴量を生成することで、検知対象が含まれる画像領域を決定することを特徴とする。以下、図面を参照して詳細に説明する。但し、実施の形態1で既に説明した部分については発明の明確化のため一部説明を省略する。
本実施の形態2は、候補領域相互の時空間的な重なり度合いを評価した特徴量を生成することで、検知対象が含まれる画像領域を決定することを特徴とする。以下、図面を参照して詳細に説明する。但し、実施の形態1で既に説明した部分については発明の明確化のため一部説明を省略する。
図4は、本実施の形態2に係る物体検知装置200の構成を示すブロック図である。物体検知装置200は、画像入力部210と、候補検出部220と、候補推定部230と、評価決定部240と、を具備する。ここで、評価決定部240は、具体的に、時空間相関特徴生成部241と、検知領域決定部242と、を有することを特徴とする。なお、画像入力部210、候補検出部220、候補推定部230、及び、評価決定部240は、それぞれ実施の形態1の画像入力部110、候補検出部120、候補推定部130、及び、評価決定部140に対応する。
画像入力部210は、画像出力装置20から出力された入力画像を受け取り、当該入力画像を候補検出部220及び候補推定部230へ出力する。
候補検出部220は、画像入力部210より受け取った入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する。
候補検出部220は、画像入力部210から各時刻に受け取る入力画像に対し、検知対象となるカテゴリ(歩行者、車両、Etc.)の画像領域の候補となる候補領域を背景画像と識別する。候補検出部220は、検出した候補領域の位置、スケール、およびその確からしさを表す信頼度の数値を当該候補領域に関する情報として出力する。
ここで、候補検出部220は、例えば一般的な統計的学習による識別器を用いることで実現可能である。例えば、特徴量として、Haar-like特徴、HoG特徴、などを用いた、SVMやAdaBoostなどの統計的識別器を用いることができる。候補検出部220は、入力画像に含まれる上記特徴量に基づいて検知対象が含まれる画像領域の候補を検出する。
候補検出部220は、信頼度の数値に閾値(threshCandVal1)を設定することで閾値以上の信頼度を持つ候補のみを出力させることができる。また、出力される候補の最大個数を定めた閾値(maxCandNum)を超える候補が検出された場合には、maxCandNum以下に収まるように(threshCandVal1)より高い信頼度の閾値(threshCandVal2)を再設定することで、出力される最大の候補数を制限することができる。
図5は、候補検出部220が候補領域を検出する様子を示している。候補検出部220は、入力画像(Image plane)に写る人物の特徴を捉えて、3つの領域を検知対象である人物が含まれる画像領域の候補として検出している。
なお、検知漏れを極力避けるため、候補検出部220は、候補領域の重複は許容し、計算資源の許す限り多数の候補を取得するようにthreshCandVal1を設定することが好ましい。
ただし、数式1における各インデックスは以下の値を示している。
(1)i:各候補に割り当てられるインデックス
(2)t:現在のフレームインデックス
(3)p:位置ベクトル(p=(xc、yc))
(4)s:スケールベクトル(s=(w、h))
(5)(xc、yc):候補の中心画像座標
(6)w、h:候補の中心座標から矩形境界までの幅と高さ
(7)val:候補の信頼度
(8)cnt:候補検出部220で検出されてから経過したフレームインデックス数(時刻)を表すカウンタ値
(1)i:各候補に割り当てられるインデックス
(2)t:現在のフレームインデックス
(3)p:位置ベクトル(p=(xc、yc))
(4)s:スケールベクトル(s=(w、h))
(5)(xc、yc):候補の中心画像座標
(6)w、h:候補の中心座標から矩形境界までの幅と高さ
(7)val:候補の信頼度
(8)cnt:候補検出部220で検出されてから経過したフレームインデックス数(時刻)を表すカウンタ値
ここで、位置ベクトルp、スケールベクトルs、信頼度valは、それぞれ候補検出部220が出力した値を初期値とし、カウンタ値cntは0を初期値とする。
また、上述の通り、信頼度valは、候補領域内の画像が検知対象である確信度を示している。以下の説明では、候補検出部220が検出した候補領域の入力画像中の位置に関する情報、領域サイズに関する情報、候補領域内の画像が前記検知対象である確信度に関する情報、をまとめて候補情報と称することがある。また、カウンタ値cntは、候補推定部が候補領域を更新した回数を示しているため、以下の説明では更新回数情報と称することがある。
候補推定部230は、以前の時刻において候補検出部220で検出された候補領域を更新することで現時刻における候補領域を推定する。具体的には、候補推定部230は、現時刻(t)より以前の時刻((t-1)、(t-2)、(t-3)、・・・)に検出された各候補領域の前時刻(t-1)における推定値と現時刻(t)における状態との差分(時差ベクトル)を求め、求めた時差ベクトルに基づき各候補領域の更新を行う。更新された候補領域も、数式1で示すように位置ベクトルp、スケールベクトルs、信頼度val、カウンタ値cntでラベルされる。
時差ベクトルは、例えば図7に示すように、各候補領域の状態(位置:p、スケール:s等)の前時刻から現時刻における推移を表すベクトルである。位置情報についての時差ベクトルの具体的演算方法は、前時刻と現時刻の入力画像における画像領域の対応付け問題に帰着することができ、各種の既存方法を用いることができる。
例えば、図8に示すように、候補推定部230は、前時刻の候補領域R(i、t-1)に含まれる画像領域を適当な大きさのサブリージョンに分割し、各サブリージョン単位で前時刻と現時刻の入力画像間のOptical Flowを求める。そして、候補推定部230は、求めたOptical Flowの平均値や中心値などの代表ベクトルを候補領域の位置に関する時差ベクトルΔpとする。候補推定部230は、当該方法により、位置に関する時差ベクトルΔpを求めることができる。なお、Optical Flowを求める手法には、Horn-Schunk、Lucas-Kanadeなどの公開されている既存の手法を用いることができる。
また、候補推定部230は、前時刻の候補領域内の輝度、エッジ勾配特徴(例えばHOG特徴)、色特徴(例えばHSヒストグラム)等の画像特徴の、現時刻の入力画像の各画像領域における画像相関や特徴ベクトルのBhattacharya距離等による類似度に基づく追跡手段等によって、候補領域の現時刻画像上での位置を推定することで、位置に関する時差ベクトルΔpを求めることができる。
スケールに関する時差ベクトルΔsは、微小な時間区間においては候補のスケールが一定であると仮定して、0としてもよい。また、例えば位置に関する時差ベクトルを求める場合と同様の既存の追跡手段によって時差ベクトルΔsが求められる構成であっても良い。候補推定部230は、前時刻の候補領域の画像と現時刻の入力画像の領域との対応付けを行う際、現時刻側の矩形領域を位置だけでなくスケールを微小に変化させながら前時刻の候補領域の画像と比較することで、スケール変化の推定も同時に行うような手法によってΔsを推定することが可能である。
候補の信頼度の変位Δvalは0としてもよいが、位置に関する時差ベクトルΔpの推定精度等に応じて加減算する調整項として正負の値を設定してもよい。
候補の経過時間カウンタの変位Δcntは、フレームインデックスの増加分として+1の一定値とする。若しくは、候補推定部230は、直前の時刻であるt-1から現在時刻tまでの処理の間に経過したクロック数、又は、実時間経過時間を経過時間カウンタの変位Δcntとして用いてもよい。
このように、候補推定部230は、候補検出部220が候補領域を検出して生成した候補情報を更新することで現時刻における候補領域を推定する。また、候補推定部230は、候補情報を更新すると共に候補領域を更新した回数を示す更新回数情報を合わせて更新する。但し、候補推定部230は、更新回数情報が更新回数の限度を示す閾値を示している場合は、その後の候補情報の更新は行わず候補情報を破棄する。
数式2においてΔ(i、t-1、t)は、候補領域R(i、t-1)の時刻(t)における時差ベクトルであり、W(i、t-1、t)は更新における重み行列である。各項は以下の数式3~6のように定義することができる。
ここで、αは候補の信頼度に対する重み係数であり、時間経過による信頼度の変化を表し、0<α≦1の実数の値を設定することができる。適当な定数を設定してもよいし、位置の推定における精度に基づいて増減させるようにしてもよい。
候補検出部220によって出力された現時刻における候補領域は、更新せずにそのまま保存される。同時に、これらの各候補領域に関する情報は、時空間相関特徴生成部241に向けて出力される。候補推定部230は、経過時間カウンタcntに対し閾値(累積閾値)を設定することで、最初に候補検出部220によって検出されてから一定時間(累積区間)以内の候補のみを用いるように時空間相関特徴生成部241で利用する時間区間の長さを規定することができる。閾値を超えた候補領域に関する情報は破棄することができる。
候補推定部230は、現時刻に取得された候補領域に関する情報、および更新された過去に取得された候補領域(累積候補)に関する情報を保持し、時空間相関特徴生成部241に提供する。
時空間相関特徴生成部241は、候補検出部220で検出された現在の時刻における候補領域と候補推定部230で推定された現時刻における候補領域との重なり度合いを評価する。
具体的に、時空間相関特徴生成部241は、現時刻に候補検出部220で検出された候補領域と、前時刻以前の過去に候補検出部220で検出され、候補推定部230で時差ベクトルを用いて更新されて保持されている累積区間以内のすべての候補領域とを用いて、相関特徴量を算出する。ここで、相関特徴量は、各候補領域相互の位置とスケールに対する類似性の度合いを評価する数値であり、求められた相関特徴量の値の大きさが物体検知領域としての確からしさの指標となる。
現時刻tに候補検出部220において検出された候補領域、および現時刻tに候補推定部230において保持されている時差修正済の累積区間以内に取得された候補領域をそれぞれR(i、t)、R(j、t)、・・・とする。ここで、i、jは候補領域のインデックスを示している。時空間相関特徴生成部241は、各候補領域それぞれに対し、それ自身を含む候補領域の集合との領域の重なりを評価する相関特徴値を計算する。インデックスiで示される時刻tの候補領域R(i、t)に対する相関特徴値f(i、t)は、例えば下記の数式7から求めることができる。
ここで、Areaは、引数の領域面積を表す関数とし、R(i、t)∩R(j、t)及びR(i、t)∪R(j、t)は、それぞれ2つの候補領域R(i、t)とR(j、t)の画像平面上(u-v平面上)での積集合及び和集合を示している。図9は、候補領域面積の包含関係を用いる場合における表記の定義を示す模式図である。
図10に示すように、時空間相関特徴生成部241は、候補領域R(i、t)に対して求めた相関特徴値f(i、t)を、候補領域R(i、t)の位置ベクトルp(u、v)及びスケールベクトルs(w、h)をパラメータとし、相関特徴値fを値に持つパラメータ空間にマッピングする。図11に示すように、時空間相関特徴生成部241は、各候補領域Rに対して求めた相関特徴値fを位置ベクトルp及びスケールベクトルsをパラメータとするパラメータ空間にマッピングする。相関特徴値fのマッピングによって生成された特徴値の分布構造を時空間相関特徴f(p、s;t)と称する。当該時空間相関特徴は、検知候補領域同士の重複度を定量的に評価するために生成される指標である。ここでは、現時刻に検出された候補群だけでなく、過去に検出された候補群も合わせて評価される。従って、当該時空間相関特徴は、各候補領域相互の重なり具合を示す指標として領域相互重複度と称することがある。
図12に示すように、時空間相関特徴生成部241は、Medianフィルタやガウシアンフィルタ等を用いて時空間相関特徴f(p、s;t)を平滑化することができる。
時空間相関特徴は、相関特徴値の分布によって、 position-scale空間における検知対象である物体が含まれる画像領域の確からしさを表す評価値の分布を得ることができ、これに基づいて物体検知結果を決定することができる。
また、時空間相関特徴は、直接物体検知領域の決定基準として用いる以外に、その他の特徴量と組み合わせて別の用途に用いることもできる。例えば、レーダー等によるレンジマップと組み合わせて一定の距離以内にある物体領域を表す新たな相関特徴空間を構成するような用途に用いてもよい。
検知領域決定部242は、時空間相関特徴生成部241おける現時刻tにおける各候補領域の重なり度合いに関する評価に基づいて検知対象が含まれる画像領域を決定する。具体的には、検知領域決定部242は、時空間相関特徴生成部241において生成された時空間相関特徴f(p、s;t)の特徴値の大きさや分布などを指標として、物体検知領域の決定を行う。
例えば、検知領域決定部242は、時空間相関特徴f(p、s;t)の特徴値の閾値処理による2値化、および極大値抽出処理などによってピークを抽出し、これに対応する位置pとスケールsによって決まる画像平面上の領域を物体検知領域として決定する。
次に、物体検知装置200の動作について図面を参照して詳細に説明する。図13は、物体検知装置200の動作の流れを示すフローチャート図である。
まず、画像入力部210は、画像出力装置20より入力画像を取得する(ステップS201)。次に、候補検出部220は、物体検知領域の候補となる候補領域を検出し、当該候補領域に関する情報を記憶装置12に格納する(ステップS202)。ここで、候補検出部220は、検出した候補領域を、位置ベクトルp(u、v)とスケールベクトルs(w、h)及び信頼度valとカウンタ値cntの初期値で表し、これらの情報を現時刻tにおける候補領域に関する情報として記憶装置12に格納する。
次に、候補推定部230は、前時刻以前に取得された候補(累積候補)について、前時刻と現時刻における状態の差分を表す時差ベクトルを演算し、これに基づいて累積候補の状態を更新した上で記憶装置12に格納する(ステップS203)。ここで、候補推定部230が現時刻tにおいて更新する累積候補には、前時刻(t-1)に候補検出部220で検出された候補領域に加え、前時刻(t-1)以前に候補検出部220で検出され、前時刻(t-1)で更新された候補領域が含まれる。
次に、時空間相関特徴生成部241は、所定時区間(累積区間)以内に取得されたすべての候補(現時刻(t)に検出された候補および現時刻(t)に更新された累積候補を含む)を用いて時空間相関特徴を生成する(ステップS204)。最後に、検知領域決定部242は、ステップS204で求められた時空間相関特徴の特徴値の大きさや分布を指標として検知領域を決定する(ステップS205)。
図14は、前記ステップS203における動作の詳細の一例を模式的に示したフローチャートである。
図14を参照すると、まず、候補推定部230は、記憶装置12に記憶されている累積候補集合の中から未更新の累積候補R(i、t-1)を選択する(ステップS301)。
次に、候補推定部230は、累積候補R(i、t-1)の累積カウンタcntの値で処理を分岐する(ステップS302)。すなわち、候補推定部230は、ステップS301で選択した候補R(i、t-1)のcntが所定の閾値未満であるかを判定する。
ステップS302の判定の結果、累積カウンタcntが閾値以上であれば、候補推定部230は、ステップS301で選択した当該候補領域R(i、t-1)は累積区間を超えているとして、記憶装置12から当該候補領域を破棄してステップS306に進む(ステップS303)。
一方、ステップS302の判定の結果、累積カウンタcntが閾値未満であれば、候補推定部230は、累積区間内であるとして、候補領域R(i、t-1)と現時刻(t)における入力画像上の領域との対応付けを行い、候補領域Rの位置pおよびスケールsの時差ΔpおよびΔsを算出する(ステップS304)。ここで、候補推定部230は、必要ならば信頼度および累積カウンタの差分Δval、Δcntを更新し、時差ベクトルΔ(i、t-1、t)を求める。また、重み行列W(i、t-1、t)の要素についても必要ならば更新する。デフォルトでは、これらの値は定数に設定されていても良い。
次に、候補推定部230は、候補R(i、t-1)の情報を時差ベクトルΔ(i、t-1、t)および重み行列W(i、t-1、t)を用いて候補領域R(i、t-1)に更新する(ステップS305)。
次に、候補推定部230は、未更新の累積候補がすべて更新されるまでの条件で処理をループさせる(ステップS306)。条件を満たした場合は終了し、満たさない場合にはS301に戻って前記処理を繰り返す。
図15は、図13に示すステップS204における動作の詳細の一例を模式的に示したフローチャートである。
図15を参照すると、第1に、時空間相関特徴生成部241は、すべての保持している累積候補R(i、t)について、相関特徴値f(i、t)を演算する(ステップS401)。
次に、時空間相関特徴生成部241は、求めた相関特徴値f(i、t)を、位置pおよびスケールsのパラメータ空間に投影し、時空間相関特徴f (p、s; t)を生成する(ステップS402)。次に、時空間相関特徴生成部241は、生成された時空間相関特徴f (p、s; t)をガウス関数やMedianフィルタ等の平滑化関数を用いて平滑化する(S403)。
検知領域決定部242は、上記ステップS401~S403の処理によって得られた平滑化後の時空間相関特徴f (p、s; t)に対するピーク処理等を行い、検知領域を決定し、対象カテゴリの物体を検知する。
上記の構成を採用することにより、ノイズによる性能低下を時空間的平滑化効果によって抑制しながら、正しい検知領域に対応する特徴値をより強調するような特徴空間を生成することが可能となる。従って、高精度かつ時間的な整合性のあるロバストな物体検知装置を実現することが可能となる。
このように、複数の候補検知ROIの領域の時空間的な重なりを評価した特徴量を生成し、物体検知領域の特定に利用する。当該方法により、単フレーム毎の候補検知による結果では誤検知や検知漏れを含む場合や、候補検出部が出力する評価値において誤検知領域と正しい検知領域が拮抗する場合でも、より高性能な検知領域の判断が可能となる。
なお、上記説明では、時空間相関特徴生成部241は、数式7に従い、他の候補領域との和集合と積集合とを演算し、相関特徴値fを算出する場合について説明したがこれに限定されるものではない。時空間相関特徴生成部241は、異なる時刻に検出されて更新された候補領域を含む候補領域集合の中で相互の重複度を算出することで相関特徴値fを算出するその他の方法を採用することが可能である。
以上各実施の形態で説明したように、本発明の検知装置は、複数の候補領域の時空間での相関を評価して最終的に現時刻における検知対象が含まれる画像領域を決定する。当該構成とすることで、画像全体が動くような悪条件下においても精度良く対象物体等の検出が可能となる。
また、従来の物体検知装置では、誤検知や重複検知を削減するために識別器の出力に対する閾値を上げることで、検知漏れが増大するというトレードオフの関係に対して適切な処理が施されていなかった。これに対し、本発明の検知装置は、前時刻における候補領域の検出結果に基づいて推定される現時刻の推定候補領域と、現時刻における候補領域の検出結果と、の相関を評価することにより、上記トレードオフの問題に適切に対応することができる。
すなわち、本発明の検知装置は、人物や車両など特定カテゴリの物体を検知する目的で通常用いられる物体識別器の出力を候補領域として時系列的に保持し、各候補領域の入力画像上における時間的変化を補正した上で、候補同士の時空間的な領域の重なりの相関を検知対象領域としての確からしさを表す特徴として取り出す。当該取り出した相関特徴値を検知領域の特定に利用することにより、画像ノイズ、背景、および対象の動きに起因する候補検知の結果に含まれる検知漏れ、誤検知、検知領域精度の低下を抑制・補償することを可能にし、確実かつ安定に物体領域を検知することができる。
なお、上記説明では、検知対象が物体であるものとして説明したがこれに限定されるものではなく、所定の物体の特定動作を検知対象としても良い。すなわち、本発明の検知装置は、対象物体を検知する物体検知装置として構成されていてもよし、ジェスチャを認識するジェスチャ認識装置として構成されていても良い。
また、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記各実施の形態で説明した各機能はハードウェアによって実現されていても良いし、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現されていても良い。また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
また、本発明は上記説明した各実施の形態を適宜組み合わせることが可能である。また、本発明は以下の形態を取ることが可能である。
(付記1)
入力画像を受け付ける画像入力手段と、前記入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出手段と、以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定手段と、前記検出手段で検出された現在の時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定手段と、を具備する検知装置。
(付記2)
前記検出手段は、検出した前記候補領域の前記入力画像中の位置、領域サイズ、前記候補領域内の画像が前記検知対象である確信度、に関する情報を候補情報として生成し、
前記推定手段は、前記候補情報を更新することで現時刻における前記候補領域を推定する、付記1に記載の検知装置。
(付記3)
前記推定手段は、前記候補領域の前時刻から現時刻における推移を表すベクトルを算出し、前記算出したベクトルを用いて前記候補情報を更新する、付記2に記載の検知装置。
(付記4)
前記検出手段は、前記推定手段が前記候補領域を更新した回数を示す更新回数情報の初期値を更に生成し、前記推定手段は、前記候補情報を更新すると共に前記更新回数情報を合わせて更新する、付記2又は3に記載の検知装置。
(付記5)
前記推定手段は、前記更新回数情報が更新回数の限度を示す閾値を示している場合は、その後の前記候補情報の更新は行わず前記候補情報を破棄する、付記4に記載の検知装置。
(付記6)
前記決定手段は、前記検出手段において現時刻に検出された前記候補領域と、前記検出手段において累積区間内に検出され、前記推定手段において現時刻に推定された前記候補領域と、に基づいて画像平面上における重なり度合いを評価して候補領域のパラメータ空間に投影した時空間相関特徴を生成する時空間相関特徴生成手段と、前記時空間相関特徴における相関特徴値の大きさに基づいて前記検知対象が含まれる画像領域を決定する検知領域決定手段と、を備える付記2乃至5のいずれか1項に記載の検知装置。
(付記7)
前記時空間相関特徴生成手段は、前記検出手段において現時刻に検出された前記候補領域と、前記検出手段において累積区間内に検出され、前記推定手段において現時刻に推定された前記候補領域と、に基づいて画像平面上における重なり度合いを評価することで相関特徴値を算出し、前記算出した相関特徴値を候補領域のパラメータ空間に投影することで時空間相関特徴を生成する、付記6に記載の検知装置。
(付記8)
前記時空間相関特徴生成手段は、前記累積区間において保持されたすべての候補領域の集合である累積候補集合から任意に選択された第一の候補領域R1に対し、前記累積候補集合内の第二の候補領域R2との和集合R1∪R2に対する共通部分R1∩R2の割合に前記第二の候補領域R2の前記確信度を掛けた値を演算し、第二の候補領域R2について累積候補集合のすべての候補に変えながら総和をとった結果を第一の候補領域R1の相関特徴値とする、付記6又は付記7に記載の検知装置。
(付記9)
前記時空間相関特徴生成手段は、次式に従って、現時刻tにおける第i番目の候補領域Riの相関特徴値f(i、t)を求めることを特徴とする、付記6乃至8に記載の検知装置。
・・・(式1)
(付記10)
前記検知領域決定手段は、前記時空間相関特徴生成手段において生成された前記時空間相関特徴における相関特徴値が、所定の閾値を超える領域において局所最大値をとる点に対応する候補領域のパラメータを前記検知対象が含まれる画像領域として決定することを特徴とする、付記6乃至9のいずれか1項に記載の検知装置。
(付記11)
入力画像を受け付ける画像入力ステップと、前記入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出ステップと、以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定ステップと、前記検出手段で検出された現在の時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定ステップと、を有する検知方法。
(付記12)
撮像装置より入力した入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出ステップと、以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定ステップと、前記検出手段で検出された現在の時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定ステップと、を計算機に実行させるプログラム。
(付記13)
画像を撮像する撮像装置と、前記撮像装置で撮像された画像を入力して対象カテゴリに含まれる物体を検知する検知装置と、前記検知装置における検知結果を表示する画像表示装置と、を含む検知システムであって、前記検知装置は、入力画像を受け付ける画像入力手段と、前記入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出手段と、以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定手段と、前記検出手段で検出された現在の時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定手段と、を具備する、検知システム。
入力画像を受け付ける画像入力手段と、前記入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出手段と、以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定手段と、前記検出手段で検出された現在の時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定手段と、を具備する検知装置。
(付記2)
前記検出手段は、検出した前記候補領域の前記入力画像中の位置、領域サイズ、前記候補領域内の画像が前記検知対象である確信度、に関する情報を候補情報として生成し、
前記推定手段は、前記候補情報を更新することで現時刻における前記候補領域を推定する、付記1に記載の検知装置。
(付記3)
前記推定手段は、前記候補領域の前時刻から現時刻における推移を表すベクトルを算出し、前記算出したベクトルを用いて前記候補情報を更新する、付記2に記載の検知装置。
(付記4)
前記検出手段は、前記推定手段が前記候補領域を更新した回数を示す更新回数情報の初期値を更に生成し、前記推定手段は、前記候補情報を更新すると共に前記更新回数情報を合わせて更新する、付記2又は3に記載の検知装置。
(付記5)
前記推定手段は、前記更新回数情報が更新回数の限度を示す閾値を示している場合は、その後の前記候補情報の更新は行わず前記候補情報を破棄する、付記4に記載の検知装置。
(付記6)
前記決定手段は、前記検出手段において現時刻に検出された前記候補領域と、前記検出手段において累積区間内に検出され、前記推定手段において現時刻に推定された前記候補領域と、に基づいて画像平面上における重なり度合いを評価して候補領域のパラメータ空間に投影した時空間相関特徴を生成する時空間相関特徴生成手段と、前記時空間相関特徴における相関特徴値の大きさに基づいて前記検知対象が含まれる画像領域を決定する検知領域決定手段と、を備える付記2乃至5のいずれか1項に記載の検知装置。
(付記7)
前記時空間相関特徴生成手段は、前記検出手段において現時刻に検出された前記候補領域と、前記検出手段において累積区間内に検出され、前記推定手段において現時刻に推定された前記候補領域と、に基づいて画像平面上における重なり度合いを評価することで相関特徴値を算出し、前記算出した相関特徴値を候補領域のパラメータ空間に投影することで時空間相関特徴を生成する、付記6に記載の検知装置。
(付記8)
前記時空間相関特徴生成手段は、前記累積区間において保持されたすべての候補領域の集合である累積候補集合から任意に選択された第一の候補領域R1に対し、前記累積候補集合内の第二の候補領域R2との和集合R1∪R2に対する共通部分R1∩R2の割合に前記第二の候補領域R2の前記確信度を掛けた値を演算し、第二の候補領域R2について累積候補集合のすべての候補に変えながら総和をとった結果を第一の候補領域R1の相関特徴値とする、付記6又は付記7に記載の検知装置。
(付記9)
前記時空間相関特徴生成手段は、次式に従って、現時刻tにおける第i番目の候補領域Riの相関特徴値f(i、t)を求めることを特徴とする、付記6乃至8に記載の検知装置。
(付記10)
前記検知領域決定手段は、前記時空間相関特徴生成手段において生成された前記時空間相関特徴における相関特徴値が、所定の閾値を超える領域において局所最大値をとる点に対応する候補領域のパラメータを前記検知対象が含まれる画像領域として決定することを特徴とする、付記6乃至9のいずれか1項に記載の検知装置。
(付記11)
入力画像を受け付ける画像入力ステップと、前記入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出ステップと、以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定ステップと、前記検出手段で検出された現在の時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定ステップと、を有する検知方法。
(付記12)
撮像装置より入力した入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出ステップと、以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定ステップと、前記検出手段で検出された現在の時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定ステップと、を計算機に実行させるプログラム。
(付記13)
画像を撮像する撮像装置と、前記撮像装置で撮像された画像を入力して対象カテゴリに含まれる物体を検知する検知装置と、前記検知装置における検知結果を表示する画像表示装置と、を含む検知システムであって、前記検知装置は、入力画像を受け付ける画像入力手段と、前記入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出手段と、以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定手段と、前記検出手段で検出された現在の時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定手段と、を具備する、検知システム。
この出願は、2012年3月12日に出願された日本出願特願2012-054532を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 検知システム
10 電子制御装置
11 中央演算装置
12 第1記憶装置(メモリ)
13 第2記憶装置(データベース)
14 第1インタフェース
15 第2インタフェース
20 画像出力装置
30 端末装置
100 物体検知装置
110 画像入力部
120 候補検出部
130 候補推定部
140 評価決定部
200 物体検知装置
210 画像入力部
220 候補検出部
230 候補推定部
240 評価決定部
241 時空間相関特徴生成部
242 検知領域決定部
10 電子制御装置
11 中央演算装置
12 第1記憶装置(メモリ)
13 第2記憶装置(データベース)
14 第1インタフェース
15 第2インタフェース
20 画像出力装置
30 端末装置
100 物体検知装置
110 画像入力部
120 候補検出部
130 候補推定部
140 評価決定部
200 物体検知装置
210 画像入力部
220 候補検出部
230 候補推定部
240 評価決定部
241 時空間相関特徴生成部
242 検知領域決定部
Claims (10)
- 入力画像を受け付ける画像入力手段と、
前記入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出手段と、
以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定手段と、
前記検出手段で検出された現時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定手段と、
を具備する検知装置。 - 前記検出手段は、検出した前記候補領域の前記入力画像中の位置、領域サイズ、前記候補領域内の画像が前記検知対象である確信度、に関する情報を候補情報として生成し、
前記推定手段は、前記候補情報を更新することで現時刻における前記候補領域を推定する、
請求項1に記載の検知装置。 - 前記推定手段は、前記候補領域の前時刻から現時刻における推移を表すベクトルを算出し、前記算出したベクトルを用いて前記候補情報を更新する、
請求項2に記載の検知装置。 - 前記検出手段は、前記推定手段が前記候補領域を更新した回数を示す更新回数情報の初期値を更に生成し、
前記推定手段は、前記候補情報を更新すると共に前記更新回数情報を合わせて更新する、
請求項2又は3に記載の検知装置。 - 前記推定手段は、前記更新回数情報が更新回数の限度を示す閾値を示している場合は、その後の前記候補情報の更新は行わず前記候補情報を破棄する、
請求項4に記載の検知装置。 - 前記決定手段は、
前記検出手段において現時刻に検出された前記候補領域と、前記検出手段において累積区間内に検出され、前記推定手段において現時刻に推定された前記候補領域と、に基づいて画像平面上における重なり度合いを評価して候補領域のパラメータ空間に投影した時空間相関特徴を生成する時空間相関特徴生成手段と、
前記時空間相関特徴における相関特徴値の大きさに基づいて前記検知対象が含まれる画像領域を決定する検知領域決定手段と、
を備える請求項2乃至5のいずれか1項に記載の検知装置。 - 前記時空間相関特徴生成手段は、前記累積区間において保持されたすべての候補領域の集合である累積候補集合から任意に選択された第一の候補領域R1に対し、前記累積候補集合内の第二の候補領域R2との和集合R1∪R2に対する共通部分R1∩R2の割合に前記第二の候補領域R2の前記確信度を掛けた値を演算し、第二の候補領域R2について累積候補集合のすべての候補に変えながら総和をとった結果を第一の候補領域R1の相関特徴値とする、
請求項6に記載の検知装置。 - 前記検知領域決定手段は、前記時空間相関特徴生成手段において生成された前記時空間相関特徴における相関特徴値が、所定の閾値を超える領域において局所最大値をとる点に対応する候補領域のパラメータを前記検知対象が含まれる画像領域として決定することを特徴とする、
請求項6又は7に記載の検知装置。 - 入力画像を受け付ける画像入力ステップと、
前記入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出ステップと、
以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定ステップと、
前記検出手段で検出された現時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定ステップと、
を有する検知方法。 - 撮像装置より入力した入力画像において検知対象が含まれる画像領域の候補を候補領域として検出する検出ステップと、
以前の時刻において前記検出手段で検出された前記候補領域を更新することで現時刻における前記候補領域を推定する推定ステップと、
前記検出手段で検出された現在の時刻における前記候補領域と前記推定手段で推定された現時刻における前記候補領域との重なり度合いを評価して前記検知対象が含まれる画像領域を決定する決定ステップと、
を計算機に実行させるプログラムが格納された記憶媒体。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012054532 | 2012-03-12 | ||
| JP2012-054532 | 2012-03-12 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2013136395A1 true WO2013136395A1 (ja) | 2013-09-19 |
Family
ID=49160370
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2012/007464 Ceased WO2013136395A1 (ja) | 2012-03-12 | 2012-11-21 | 検知装置、検知方法、プログラムが格納された記憶媒体 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2013136395A1 (ja) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110532838A (zh) * | 2018-05-25 | 2019-12-03 | 佳能株式会社 | 对象检测装置和方法及存储介质 |
| CN111860436A (zh) * | 2020-07-31 | 2020-10-30 | 济南浪潮高新科技投资发展有限公司 | 一种提高检测系统检测可靠性的方法 |
| US11107231B2 (en) * | 2017-03-22 | 2021-08-31 | Nec Corporation | Object detection device, object detection method, and object detection program |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000099706A (ja) * | 1998-09-25 | 2000-04-07 | Nippon Telegr & Teleph Corp <Ntt> | 画像シーケンスマッチング装置及び方法及びこの方法を記録した記憶媒体 |
| JP2001021345A (ja) * | 1999-07-07 | 2001-01-26 | Tokai Rika Co Ltd | 障害物検出装置 |
| JP2010072723A (ja) * | 2008-09-16 | 2010-04-02 | Omron Corp | 追跡装置及び追跡方法 |
-
2012
- 2012-11-21 WO PCT/JP2012/007464 patent/WO2013136395A1/ja not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000099706A (ja) * | 1998-09-25 | 2000-04-07 | Nippon Telegr & Teleph Corp <Ntt> | 画像シーケンスマッチング装置及び方法及びこの方法を記録した記憶媒体 |
| JP2001021345A (ja) * | 1999-07-07 | 2001-01-26 | Tokai Rika Co Ltd | 障害物検出装置 |
| JP2010072723A (ja) * | 2008-09-16 | 2010-04-02 | Omron Corp | 追跡装置及び追跡方法 |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11107231B2 (en) * | 2017-03-22 | 2021-08-31 | Nec Corporation | Object detection device, object detection method, and object detection program |
| CN110532838A (zh) * | 2018-05-25 | 2019-12-03 | 佳能株式会社 | 对象检测装置和方法及存储介质 |
| CN111860436A (zh) * | 2020-07-31 | 2020-10-30 | 济南浪潮高新科技投资发展有限公司 | 一种提高检测系统检测可靠性的方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10417503B2 (en) | Image processing apparatus and image processing method | |
| US9898677B1 (en) | Object-level grouping and identification for tracking objects in a video | |
| KR101687530B1 (ko) | 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체 | |
| JP6555906B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| US12087039B2 (en) | Information processing device, information processing method, and program recording medium | |
| US12131485B2 (en) | Object tracking device and object tracking method | |
| JP7272024B2 (ja) | 物体追跡装置、監視システムおよび物体追跡方法 | |
| JP2011210030A (ja) | 顔認識装置及び顔認識方法 | |
| EP2309454B1 (en) | Apparatus and method for detecting motion | |
| US20240135552A1 (en) | Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium | |
| KR101139930B1 (ko) | 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법 | |
| US10762372B2 (en) | Image processing apparatus and control method therefor | |
| KR20130091441A (ko) | 물체 추적 장치 및 그 제어 방법 | |
| WO2013136395A1 (ja) | 検知装置、検知方法、プログラムが格納された記憶媒体 | |
| CN109643437B (zh) | 图像处理装置、立体照相机装置以及图像处理方法 | |
| JP2016024534A (ja) | 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム | |
| JP2021056885A (ja) | 検出装置、検出方法、及びプログラム | |
| JP6798609B2 (ja) | 映像解析装置、映像解析方法およびプログラム | |
| US11716448B2 (en) | Information processing apparatus, information processing method, and storage medium | |
| JP2009076094A (ja) | 移動物体監視装置 | |
| JP7243372B2 (ja) | 物体追跡装置および物体追跡方法 | |
| JP7488673B2 (ja) | 移動物体追跡装置、移動物体追跡方法及び移動物体追跡プログラム | |
| JP2012226403A (ja) | 画像領域追跡装置、画像領域追跡方法、および、コンピュータ・プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 12871263 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 12871263 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |