WO2024171459A1 - Outside-world recognition device - Google Patents
Outside-world recognition device Download PDFInfo
- Publication number
- WO2024171459A1 WO2024171459A1 PCT/JP2023/005818 JP2023005818W WO2024171459A1 WO 2024171459 A1 WO2024171459 A1 WO 2024171459A1 JP 2023005818 W JP2023005818 W JP 2023005818W WO 2024171459 A1 WO2024171459 A1 WO 2024171459A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- camera
- reliability
- recognition device
- external environment
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Definitions
- the present invention relates to an in-vehicle external recognition device for image-based obstacle recognition in the vehicle's surrounding environment.
- image-based object recognition devices have been used to detect nearby moving objects and obstacles.
- the image-based object recognition device described above can be used in surveillance systems to detect intrusions or abnormalities, or in vehicle-mounted systems to assist in safe driving.
- such devices are configured to detect moving objects (obstacles) around the vehicle, inform the driver of a potential risk of a collision between the vehicle and a moving or stationary obstacle, and, based on a decision system, automatically stop the vehicle to avoid a collision between the vehicle and the obstacle.
- moving objects obstacles
- a decision system based on a decision system
- the device disclosed in Patent Document 1 can adjust the relationship between device sensors to the current environment by calculating camera pose parameters and adjusting geometric image transformation parameters, thereby maintaining the accuracy of the calculated distance to detected objects without the need for additional external ranging sensors.
- the camera pose parameters to estimate the distance to a target obstacle (object)
- the object of the present invention is to provide an external environment recognition device that can adjust the attitude of the device sensor with respect to the current environment by calculating camera attitude parameters and adjusting geometric image transformation parameters, thereby increasing the reliability of object detection by maintaining the accuracy of the calculated distance to an object detected in the monocular vision area of the acquired image without the need for an additional external ranging sensor, as well as monitoring and determining the reliability of the calculated camera attitude parameters, and in particular being able to assist in scenarios where the position and/or speed of a detected object may be calculated incorrectly due to fluctuations in the sensor attitude caused by changes in the road shape or the movement of the vehicle, thus avoiding erroneous control results (warning, braking, etc.).
- the external environment recognition device of the present invention has an image acquisition unit that acquires an image of a camera sensor that captures the external environment, a sensor information acquisition unit that acquires sensor information collected from a sensor that detects information related to the current attitude of the camera sensor, a three-dimensional object detection unit that detects a three-dimensional object from the image, a camera attitude estimation unit that estimates the attitude of the camera sensor, a camera attitude reliability calculation unit that calculates the reliability of the attitude of the camera sensor estimated from the sensor information as a camera attitude reliability, an object selection unit that sets the reliability of the three-dimensional object detected by the three-dimensional object detection unit as a three-dimensional object reliability based on the camera attitude reliability, and a control judgment unit that makes at least one control judgment of an alarm or brake activation based on the three-dimensional object reliability.
- the accuracy of object detection and distance calculation can be increased simultaneously, thereby increasing the reliability of obstacle recognition, and by monitoring and judging the reliability of the calculated camera pose parameters, erroneous control results can be avoided, and driving safety can be increased even when the environmental conditions in which the device is moving change.
- FIG. 1 is a schematic configuration diagram of an external environment recognition device according to an embodiment of the present invention.
- FIG. 2 is a top view showing a schematic configuration of a sensing unit.
- FIG. 2 is a diagram illustrating the camera pose parameters pitch, yaw, roll, and camera height relative to a flat ground surface.
- FIG. 13 illustrates a scenario in which the external recognition device is mounted on a vehicle, and describes the results of determining the reliability of the camera pose parameters for three different cases.
- FIG. 13 is a diagram showing a scenario in which an external recognition device is mounted on a vehicle and uses the result of determining the reliability of camera pose parameters to set a reliability for a set of obstacle recognition results in two different cases.
- 11 is a flowchart showing a process in which the camera attitude parameter reliability determination unit 141 determines the reliability of a camera attitude parameter estimated at a certain time.
- the external environment recognition device 100 has a configuration in which a CPU, RAM, ROM, etc. are connected via a bus, and the CPU controls the operation of the entire system by executing various control programs stored in the ROM. It should be noted that in the configuration described below, two camera sensors (hereinafter sometimes simply referred to as cameras or sensors) are paired as a single vehicle-mounted stereo camera and therefore correspond to the sensing unit 111. However, this does not limit the device to be used in other configurations in which a single monocular camera is used as the sensing unit 111.
- FIG. 1 is a block diagram showing the configuration of an external environment recognition device according to this embodiment.
- the external environment recognition device 100 is a device that is mounted on, for example, a vehicle (host vehicle), detects three-dimensional objects from images captured by a camera sensor (sensing unit 111) that captures the external world (surroundings of the host vehicle), and performs control decisions (control applications) such as issuing an alarm or activating the brakes based on the detection results of the three-dimensional objects.
- a vehicle host vehicle
- sensing unit 111 that captures the external world (surroundings of the host vehicle)
- control decisions control applications
- the external environment recognition device 100 includes a sensing unit 111 including two camera sensors 111a and 111b arranged at the same height, an image acquisition unit 121, a camera attitude parameter calculation unit 131, a sensor information acquisition unit 132, a camera attitude parameter reliability determination unit 141, an obstacle detection unit 151, an object selection unit 161, and a control application processing unit 171.
- the two (pair) camera sensors 111a and 111b constituting the sensing unit 111 are in-vehicle stereo cameras, and are attached side by side in the left-right direction at the same height on the windshield or the rearview mirror in the vehicle interior, facing the front of the vehicle V, as shown in FIG. 2.
- the camera sensors 111a and 111b are also installed so that their respective fields of view (photographing areas) overlap.
- the center is a stereoscopic viewing area (an area where the fields of view overlap and where distance measurement information (parallax) can be used), and the left and right wide-angle areas are monocular viewing areas (areas where the fields of view do not overlap and where distance measurement information (parallax) cannot be used).
- the image acquisition unit 121 processes the images acquired by one or both of the two camera sensors 111a, 111b corresponding to the sensing unit 111 to adjust image characteristics for further processing.
- This processing may include, but is not limited to, image resolution adjustment, which can shrink or enlarge the input image to change the resulting image size, and image region of interest selection, which can cut (crop) a specific region of the input image from the original input image for further processing, image affine transformation such as rotation, scale, shear, and overhead image transformation, where a flat ground is considered as a reference.
- image affine transformation such as rotation, scale, shear, and overhead image transformation, where a flat ground is considered as a reference.
- the geometric formula or transformation table may be calculated or adjusted in advance.
- the parameters used for image resolution adjustment and image region of interest selection may be controlled based on the current driving environment and conditions (speed, turning speed, etc.).
- stereo matching is performed using the image signals received from both camera sensors 111a, 111b corresponding to the sensing unit 111 to create a three-dimensional range image of the scene in front of the vehicle equipped with the on-board obstacle detection and obstacle recognition device.
- a unit area is determined in two images to be compared, where the difference between image signals is the smallest for each unit area. In other words, the area in which the same object is captured is detected. This results in a synthesis of a three-dimensional distance image (hereinafter referred to as a disparity image).
- the disparity data is used to calculate the distance value from the camera to the target in the real environment.
- the image acquisition unit 121 also has the function of calculating a difference image showing the difference between at least two images acquired at different times by the sensing unit 111 and converted into an overhead image.
- Known methods can be applied for difference calculation, including but not limited to simple pixel-to-pixel difference calculation and filter-based image difference calculation.
- the camera attitude parameter calculation unit 131 has a function of calculating, using the information acquired by the sensor information acquisition unit 132, any or all of the camera external parameters (camera attitude parameters) relative to a flat ground (predetermined reference) defined by the camera pitch angle (rotation of the horizontal axis) (FIG. 3(a)), the camera roll angle (rotation of the vertical axis (front-back axis)) (FIG. 3(c)), the camera yaw angle (rotation of the vertical axis) (FIG. 3(b)), and the camera height (position of the Y axis relative to the flat ground) (FIG. 3(d)), as shown in FIG. 3.
- the camera attitude parameter calculation unit 131 calculates, based on the information acquired by the sensor information acquisition unit 132, any or all of the camera attitude parameters that correct the deviation of the sensor optical axis OA (hereinafter simply referred to as the optical axis OA) of the sensing unit 111 (the camera sensors 111a and 111b) relative to the flat ground DR (predetermined reference) (i.e., the deviation of the current attitude of the sensing unit 111 (the camera sensors 111a and 111b)).
- the sensor information acquisition unit 132 also has a function of determining whether the camera attitude parameter calculation cannot be performed normally at a predetermined time due to a lack of information necessary for parameter calculation.
- This parameter calculation process differs depending on the information collected by the sensor information acquisition unit 132.
- the device configuration includes a process of estimating the inclination of the road in front of the vehicle based on the parallax information calculated by the stereo matching process
- the estimated road is used to calculate the pitch angle and roll angle of the device with respect to the road in front of the vehicle, and its height, in the form of a flat ground.
- the movement of the vehicle during the processing period can be calculated taking into account the speed and turning speed of the vehicle acquired from the sensor information acquisition unit 132, and used accordingly to adjust the position of the sensor in three-dimensional space when the temporary (temporal) nature of the data acquired by the sensing unit 111 is taken into account.
- the camera attitude parameter calculation unit 131 has a function as a camera attitude estimation unit that estimates the current attitude of the camera sensors 111a and 111b using the information acquired by the sensor information acquisition unit 132.
- the camera pose parameters can be adjusted based on offsets from the mounting parameters. Other methods of calculating the above parameters can also be included.
- the sensor information acquisition unit 132 has a function of collecting information used to calculate the camera attitude parameters in the camera attitude parameter calculation unit 131, and the above-mentioned information is collected from one or more sensors including, but not limited to, an external environment recognition device, a vehicle suspension system, a vehicle internal sensor (speed, turning speed, yaw rate, etc.), an attached inertial measurement sensor, etc. That is, the sensor information acquisition unit 132 has a function of acquiring sensor information collected from one or more sensors that detect information related to the current attitude of the camera sensors 111a and 111b (estimated by the camera attitude estimation unit).
- the camera attitude parameter reliability determination unit 141 has a function of determining the reliability of the camera attitude estimation (described by the parameters calculated by the camera attitude parameter calculation unit 131) by performing a time series data analysis of the parameter estimation result to determine whether the current state is reliable. That is, the camera attitude parameter reliability determination unit 141 has a function as a camera attitude reliability calculation unit that calculates the likelihood of the (current) attitude of the camera sensors 111a and 111b estimated by the camera attitude estimation unit (camera attitude parameter calculation unit 131) using sensor information as the camera attitude reliability.
- the reliability is determined for a set of three different regions based on the distance from the host vehicle (camera sensors 111a and 111b), hereinafter referred to as close-distance reliability (nearby reliability), medium-distance reliability (intermediate reliability), and far-distance reliability (far reliability).
- close-distance reliability nearby reliability
- medium-distance reliability intermediate reliability
- far-distance reliability far reliability
- the time series data analysis process takes into account (but is not limited to) the following conditions: the status/result of the estimation process (i.e., give up result, successful estimation result, etc.), the variation of individual parameters over a certain period of time (e.g., parameter difference with respect to the same parameter averaged over 5 seconds), and parameter difference with respect to the default value.
- any of the following conditions must be true: [nc1] the status/result of the estimation process fails for a predefined period (e.g., more than 3 seconds); [nc2] the variation of any of the estimated parameters over a certain period (e.g., moving average of the past 10 estimations) exceeds a predefined range for a defined time (e.g., more than 0.5 seconds); [nc3] the value of any of the estimated parameters shows a difference to the default value that is greater than a predefined range for a defined time (e.g., more than 0.5 seconds).
- NCT1 If any of the above conditions are true for a predefined period [NCT1], first the confidence of the far-distance confidence region is set to "unreliable”. If any of the above conditions remain true for a predefined period [NCT2], the confidence of the medium-distance confidence region is also set to "unreliable”. Furthermore, if any of the above conditions remain true for a second predefined period [NCT3], the confidence of the near-distance confidence region is also set to "unreliable", provided that NCT1 ⁇ NCT2 ⁇ NCT3.
- the obstacle detection unit (three-dimensional object detection unit) 151 has a function of detecting a three-dimensional object using an image acquired by the image acquisition unit 121 and calculating its position.
- the obstacle detection unit 151 uses a method including, but not limited to, a method of creating a cluster of difference pixels that are close to each other and may represent a target obstacle on the road by using a known clustering method (e.g., K-means algorithm) that takes into account the distance between points (pixels) using a difference image.
- K-means algorithm e.g., K-means algorithm
- obstacle detection refers to a process in which at least the following tasks are performed: target object detection (position in image space), target object ranging (position in three-dimensional space), target object identification (e.g., automobile/vehicle, motorcycle, bicycle, pedestrian, pole, etc.), target object tracking (e.g., searching for a previously detected object and tracking it if found), target object speed calculation (e.g., using the result of object tracking).
- target object detection position in image space
- target object ranging position in three-dimensional space
- target object identification e.g., automobile/vehicle, motorcycle, bicycle, pedestrian, pole, etc.
- target object tracking e.g., searching for a previously detected object and tracking it if found
- target object speed calculation e.g., using the result of object tracking.
- the target object ranging process means obtaining a distance measurement value from the vehicle to the target object in three-dimensional space using a combination of a monocular-based method that relies on geometric calculations using camera attitude parameters when the object is located in the monocular vision area of the image (an area where disparity information cannot be calculated), and a method that uses disparity information calculated by the image acquisition unit 121 when the target object is located in an image area where disparity information is available and can be linked to the above-mentioned target object.
- the object selection unit 161 has the function of selecting and prioritizing obstacles detected by the obstacle detection unit 151 so that the appropriate control routine/application can be executed on the ego-vehicle.
- the location of the obstacles relative to the path of the ego-vehicle and their projected (movement) paths are used to select and prioritize targets based on their calculated proximity to the movement path (current and estimated) of the ego-vehicle. That is, if an obstacle is deemed to be on a movement path that will result in a collision (or near collision) with the ego-vehicle, it is selected as a target and prioritized if there are other selected targets.
- Target priorities are assigned based on the distance (proximity) and time to collision calculated for each target, resulting in a high priority being given to obstacles that have a high probability of collision or are near collision with the ego-vehicle both in time and distance.
- the above process takes into account the following parameters and conditions (but is not limited to): confidence in the camera pose parameters, identification of the obstacle, the period during which the obstacle has been tracked and identified, the distance between the detected obstacle and the ego-vehicle, the speed at which the obstacle is moving, the trajectory the obstacle is moving, the estimated path of the ego-vehicle, etc.
- the object selection unit 161 sets (prioritizes) the likelihood of an obstacle (three-dimensional object) detected by the obstacle detection unit 151 as a three-dimensional object reliability based on the camera pose reliability (reliability of the camera pose parameters).
- the image acquisition unit 121 acquires an overhead image based on the monocular vision areas of the left and right wide-angle parts of the on-board stereo camera (camera sensors 111a, 111b), and the obstacle detection unit 151 detects an obstacle from the overhead image.
- the obstacle detection unit 151 also calculates the distance and speed of the obstacle.
- the object selection unit 161 sets (prioritizes) three-dimensional object reliability for the obstacle (three-dimensional object) based on the camera pose reliability (reliability of the camera pose parameters) and the distance and speed of the obstacle.
- the control application processing unit 171 has a function of determining an alarm routine (audible or visual alarm message to the driver) or a control application to be executed in the vehicle equipped with the external environment recognition device according to the result acquired from the object selection unit 161. That is, the control application processing unit 171 has a function as a control determination unit that performs control determination such as an alarm or brake operation to be executed in the vehicle based on the three-dimensional object reliability (priority) set by the object selection unit 161.
- a case where the external environment recognition device 100 is applied as a system for monitoring the surroundings of the vehicle V will be described with reference to Fig. 4 and Fig. 5.
- a camera attitude parameter called the pitch angle ( ⁇ Pitch ) is described, but other camera attitude parameters can be considered without changing the nature of the described processing.
- Figure 4 shows a situation in which the vehicle V equipped with the external environment recognition device 100 is crossing an ideal flat road R1 with a gradient change (hereinafter referred to as R2), and the camera attitude parameters describing the relationship between the optical axis OA and the flat ground surface DR are estimated based on the slope of the road observed from the parallax information obtained within the range of the flat ground surface DR.
- R1 ideal flat road
- R2 a gradient change
- Figure 4(a) shows a situation in which the host vehicle V is crossing an ideal flat road R1, and the camera attitude parameter estimation performed by the camera attitude parameter calculation unit 131 was successful, with the calculated parameter variation being within the allowable range for the period during which the host vehicle was crossing the road. Therefore, all of the conditions necessary for the camera attitude parameter reliability determination unit 141 to set the "reliable" status are met (condition [rc1]: parameter estimation is successful, and condition [rc2]: parameter variation is small), and the short-distance reliability, medium-distance reliability, and long-distance reliability are set as "reliable”.
- FIG. 4(b) shows a situation where the vehicle V crosses an ideal flat road R1 before reaching a gradient change connecting to road R2, and the camera attitude parameters describing the relationship between the optical axis OA and the flat ground DR are estimated based on observation information obtained within the flat ground DR including the gradient change between roads R1 and R2. This causes fluctuations in the pitch angle parameters estimated by the camera attitude parameter calculation unit 131 with respect to the pitch angle value calculated before the information obtained within the flat ground DR includes the gradient change between the roads.
- the camera attitude parameter reliability determination unit 141 does not satisfy all the conditions necessary for setting the "reliable" status in the entire range (condition [rc2] unsatisfied due to large parameter variation), and since this status above has continued for a short period of time, the long-distance reliability is set as "unreliable”, and the short-distance reliability and the medium-distance reliability are set as "reliable”.
- Figure 4(c) shows a situation where the vehicle V is crossing the junction between ideal flat road R1 and ideal flat road R2, and the camera pose parameters describing the relationship between the optical axis OA and the flat ground surface DR are estimated based on observational information obtained within the flat ground surface DR, which at this point only includes information from road R2.
- Figure 5 shows a situation in which the vehicle V equipped with the external environment recognition device 100 is crossing an ideal flat road R1, and the gradient change leading to road R2, showing different situations in which the camera attitude parameters describing the relationship between the optical axis OA and the flat ground surface DR are estimated based on the slope of the road observed from the parallax information obtained within the range of the flat ground surface DR.
- Figure 5(a) shows a situation where the host vehicle V is crossing an ideal flat road R1, and the camera attitude parameter estimation performed by the camera attitude parameter calculation unit 131 is successful, with the close-range reliability, medium-range reliability, and long-range reliability being set as "reliable” (see Figure 4(a)). Therefore, when pedestrian P1 (within close range) and pedestrian P2 (within long range) are selected as objects by the object selection unit 161 based on their features (detection time, speed, etc.), they will continue to be candidates because the camera attitude parameters in the corresponding ranges are set as "reliable”.
- Figure 5(b) shows a situation in which the vehicle V is crossing an ideal flat road R1 before reaching a gradient change connecting to road R2, and the camera attitude parameters describing the relationship between the optical axis OA and the flat ground surface DR are estimated based on observation information obtained within the range of the flat ground surface DR including the gradient change between roads R1 and R2, and the camera attitude parameter estimation performed by the camera attitude parameter calculation unit 131 is successful, with the close-range reliability and mid-range reliability set as "reliable” but the long-range reliability set as "unreliable” (see Figure 4(b)).
- pedestrian P1 (within close range) and pedestrian P2 (within long range) are selected as objects by the object selector 161 based on their features (detection time, speed, etc.)
- pedestrian P1 (within close range) will remain a candidate because the camera pose parameter for close range reliability is set to "reliable”
- pedestrian P2 (within long range) will be lowered in priority or will not be selected as a target because the camera pose parameter for long range reliability is set to "unreliable” (this depends on the configuration of the control application of the host vehicle).
- this does not affect other processing that continues in normal operation, such as obstacle tracking, when the camera reliability is improved.
- FIG. 6 is a flowchart showing the process executed by the camera attitude parameter reliability determination unit 141 to determine the reliability of the current camera attitude parameters and set a reliability flag for each appropriate range.
- step S1 a data storage process is performed to store the results (success and failure) obtained by the camera posture parameter calculation unit 131 for further analysis (time series data analysis) (save camera posture estimation history).
- step S2 a check is performed to ensure that sufficient data has been stored since the start of processing (e.g. system startup at engine start). If not enough data has been stored, processing in step S3 is performed, otherwise step S4 is performed if sufficient data has been stored for further analysis.
- An example of sufficient data may correspond to 5 seconds or more of data stored.
- step S3 If the result of the data check performed in step S2 is that not enough data has been stored, an initialization process is performed in step S3 to set the short-distance reliability, medium-distance reliability, and long-distance reliability as "unreliable.” It should be noted that this initialization process needs to be performed every time until enough data has been stored for further analysis.
- step S4 If the data check performed in step S2 shows that sufficient data has been stored, then in step S4, a time series data analysis is performed to determine the reliability of the current camera pose parameters, and the result of this determination is stored for further evaluation. Examples of this determination (but not limited to these) are as follows:
- any of the following conditions must be true: [nc1] The status/result of the estimation process fails for a given period of time (e.g., more than 3 seconds); [nc2] The variation of any of the estimated parameters over a certain period of time (e.g., a moving average of the last 10 estimations) exceeds a predefined range for a defined time (e.g., more than 0.5 seconds); [nc3] The value of any of the estimated parameters shows a difference against the default value that is greater than a predefined range for a defined time (e.g., more than 0.5 seconds).
- [rc1] The status/result of the estimation process is successful for a given period of time (e.g., more than 5 seconds);
- [rc2] The variation of each estimation parameter over a certain period of time (e.g., a moving average of the past 10 estimations) is within a predefined range for a defined time (e.g., more than 1 second).
- step S5 the current and past results of step S4 (e.g., up to 10 seconds before the current time) are obtained to determine the confidence flag to be set for each range.
- the close, mid, and far confidences are set as “trusted” regardless of their previous status if the confidence of the current camera pose parameters (from step S4) is "trusted” and the same result (trusted) is constant for a defined time [RCT1] (e.g., more than 1 second). If the confidence of the current camera pose parameters (from step S4) is "untrusted” and the same result (untrusted) exists (not necessarily constant) for a defined time [NCT1], first the confidence of the far confidence area is set to "untrusted".
- the reliability of the camera pose parameters can be determined for each range covered by the external environment recognition device 100.
- the result of this process is passed to the object selection unit 161, which performs a process of selecting an object from the obstacles detected by the obstacle detection unit 151.
- the external environment recognition device 100 shown in FIG. 1 has the following features: a sensing unit 111 consisting of two sensing units (camera sensors 111a, 111b) capable of capturing images of the scene in front of the device to which the apparatus is attached; an image acquisition unit 121 that processes the image acquired by the sensing unit 111 to adjust its characteristics (including, but not limited to, image size, image resolution, and image area of interest), and that can perform three-dimensional data generation by matching images acquired from both sensing units and calculating parallax for each pixel; a camera attitude parameter calculation unit 131 that uses information acquired by a sensor information acquisition unit 132 to calculate any one or all of the camera attitude parameters defined by the camera pitch angle (horizontal axis rotation), the camera roll angle (vertical axis rotation), the camera yaw angle (vertical axis rotation), and the camera height (position on the Y axis relative to the plane on which the vehicle is standing) (and updates the geometric image transformation parameters based on the camera attitude parameters
- the external environment recognition device 100 is an image acquisition unit 121 that acquires an image of a camera sensor that captures an external environment; a sensor information acquisition unit 132 that acquires sensor information collected from a sensor that detects information related to a current attitude of the camera sensor; A three-dimensional object detection unit (obstacle detection unit 151) that detects a three-dimensional object (obstacle) from within the image; a camera attitude estimation unit (camera attitude parameter calculation unit 131) that estimates the (current) attitude of the camera sensor (based on the sensor information); a camera posture reliability calculation unit (camera posture parameter reliability determination unit 141) that calculates the likelihood of the (current) posture of the camera sensor estimated from the sensor information (by the camera posture estimation unit) as a camera posture reliability; an object selection unit 161 that sets the likelihood of the three-dimensional object (obstacle) detected by the three-dimensional object detection unit as a three-dimensional object reliability based on the camera pose reliability; and a control determination unit (control application processing unit 171) that performs at least one
- the camera attitude parameter calculation unit 131 updates the camera attitude parameters to match the current environment, thereby improving the accuracy of object detection and position identification performed by the obstacle detection unit 151, and the camera attitude parameter reliability determination unit 141 can be used to monitor and determine the reliability of the calculated camera attitude parameters, thereby avoiding erroneous control caused by fluctuations in the camera attitude that would result in erroneous calculation of the position and/or speed of a detected obstacle. Therefore, even if the environmental conditions in which the device is moving change, reliable and accurate object detection and distance calculation can be performed simultaneously.
- the relationship between the device camera or between multiple device cameras with respect to the current environment is adjusted by calculating camera attitude parameters, thereby simultaneously increasing the accuracy of object detection and distance calculation, thereby making it possible to increase the reliability of obstacle recognition, and by monitoring and judging the reliability of the calculated camera attitude parameters, erroneous control results can be avoided, making it possible to increase driving safety even when the environmental conditions in which the device moves change.
- the present invention is not limited to the above-described embodiment, but includes various modified forms.
- the above-described embodiment has been described in detail to clearly explain the present invention, and is not necessarily limited to having all of the configurations described.
- each of the above configurations, functions, processing units, processing means, etc. may be realized in hardware, in part or in whole, for example by designing them as integrated circuits. Furthermore, each of the above configurations, functions, etc. may be realized in software by a processor interpreting and executing a program that realizes each function. Information such as the programs, tables, files, etc. that realize each function can be stored in a memory, a storage device such as a hard disk or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
- a storage device such as a hard disk or SSD (Solid State Drive)
- a recording medium such as an IC card, SD card, or DVD.
- control lines and information lines shown are those considered necessary for the explanation, and do not necessarily show all control lines and information lines on the product. In reality, it can be assumed that almost all components are interconnected.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、自車両の周辺環境における画像ベースの障害物認識のための車載用外界認識装置に関する。 The present invention relates to an in-vehicle external recognition device for image-based obstacle recognition in the vehicle's surrounding environment.
近年、近傍の移動物体および障害物を検出するために、画像ベースの物体認識装置が使用されている。 In recent years, image-based object recognition devices have been used to detect nearby moving objects and obstacles.
上述した画像ベースの物体認識装置は、侵入または異常を検出する監視システム、あるいは自動車の安全運転を支援する車載システムの用途に使用可能である。 The image-based object recognition device described above can be used in surveillance systems to detect intrusions or abnormalities, or in vehicle-mounted systems to assist in safe driving.
車載用途では、このような装置は、車両の周囲の移動物体(障害物)を検出し、自車両と移動中または静止中の障害物との衝突の潜在的なリスクをドライバに通知し、決定システムに基づいて、車両を自動的に停止させて自車両と障害物との衝突を回避するように構成されている。 In automotive applications, such devices are configured to detect moving objects (obstacles) around the vehicle, inform the driver of a potential risk of a collision between the vehicle and a moving or stationary obstacle, and, based on a decision system, automatically stop the vehicle to avoid a collision between the vehicle and the obstacle.
例えば、特許文献1に開示される装置は、カメラ姿勢パラメータを計算して幾何学的画像変換パラメータを調整することにより、現在の環境に対する装置センサ間の関係を調整することができ、外部の測距センサを追加する必要なく、検出された物体までの計算された距離の精度を維持する。つまり、カメラ姿勢パラメータを調整して対象障害物(対象物)までの距離を推定することにより、測距情報(視差)が利用できないステレオカメラによって取得された画像の単眼視領域で検出された物体の測距値を計算できる。 For example, the device disclosed in Patent Document 1 can adjust the relationship between device sensors to the current environment by calculating camera pose parameters and adjusting geometric image transformation parameters, thereby maintaining the accuracy of the calculated distance to detected objects without the need for additional external ranging sensors. In other words, by adjusting the camera pose parameters to estimate the distance to a target obstacle (object), it is possible to calculate the distance to an object detected in the monocular vision region of an image acquired by a stereo camera where distance information (parallax) is not available.
しかしながら、特許文献1に記載された装置では、例えば、車速および現在の道路状況が車載カメラと現在の道路状況との関係に影響を与えるようなシナリオで使用されるシステムの場合、システムが許容するのが難しい可能性がある最初に設定されたカメラ姿勢パラメータの一定の変動が生じる場合があり(許容値外の状況)、そのため、そのようなカメラ姿勢パラメータの信頼性を確保してシステムの信頼性の低下を防止する必要がある。 However, in the device described in Patent Document 1, for example in a system used in a scenario where the vehicle speed and current road conditions affect the relationship between the on-board camera and the current road conditions, certain variations in the initially set camera attitude parameters may occur that may be difficult for the system to tolerate (out-of-tolerance situations), and therefore it is necessary to ensure the reliability of such camera attitude parameters to prevent a decrease in the reliability of the system.
本発明の目的は、カメラ姿勢パラメータを計算して幾何学的画像変換パラメータを調整することにより、現在の環境に対する装置センサの姿勢を調整することができ、外部の測距センサを追加する必要なく、取得された画像の単眼視領域で検出された物体までの計算された距離の精度を維持することにより、物体検出の信頼性を高めることができるとともに、計算されたカメラ姿勢パラメータの信頼性を監視および判断し、特に、道路形状の変化または自車両の動きによって引き起こされるセンサ姿勢の変動により、検出された物体の位置および/または速度が正しく計算されない可能性があるシナリオを支援することができ、したがって、誤制御結果(警報、ブレーキなど)を回避することができる外界認識装置を提供することである。 The object of the present invention is to provide an external environment recognition device that can adjust the attitude of the device sensor with respect to the current environment by calculating camera attitude parameters and adjusting geometric image transformation parameters, thereby increasing the reliability of object detection by maintaining the accuracy of the calculated distance to an object detected in the monocular vision area of the acquired image without the need for an additional external ranging sensor, as well as monitoring and determining the reliability of the calculated camera attitude parameters, and in particular being able to assist in scenarios where the position and/or speed of a detected object may be calculated incorrectly due to fluctuations in the sensor attitude caused by changes in the road shape or the movement of the vehicle, thus avoiding erroneous control results (warning, braking, etc.).
上記目的を達成すべく、本発明に係る外界認識装置は、外界を撮影するカメラセンサの画像を取得する画像取得部と、前記カメラセンサの現在の姿勢に関連する情報を検出するセンサから収集されるセンサ情報を取得するセンサ情報取得部と、前記画像の中から立体物を検出する立体物検出部と、前記カメラセンサの姿勢を推定するカメラ姿勢推定部と、前記センサ情報により推定した前記カメラセンサの姿勢の確からしさをカメラ姿勢信頼度として算出するカメラ姿勢信頼度算出部と、前記カメラ姿勢信頼度に基づき、前記立体物検出部により検出した前記立体物の確からしさを立体物信頼度として設定する対象物選択部と、前記立体物信頼度に基づき、警報またはブレーキ作動の少なくとも一つの制御判定を行う制御判定部と、を有する。 In order to achieve the above object, the external environment recognition device of the present invention has an image acquisition unit that acquires an image of a camera sensor that captures the external environment, a sensor information acquisition unit that acquires sensor information collected from a sensor that detects information related to the current attitude of the camera sensor, a three-dimensional object detection unit that detects a three-dimensional object from the image, a camera attitude estimation unit that estimates the attitude of the camera sensor, a camera attitude reliability calculation unit that calculates the reliability of the attitude of the camera sensor estimated from the sensor information as a camera attitude reliability, an object selection unit that sets the reliability of the three-dimensional object detected by the three-dimensional object detection unit as a three-dimensional object reliability based on the camera attitude reliability, and a control judgment unit that makes at least one control judgment of an alarm or brake activation based on the three-dimensional object reliability.
本発明によれば、カメラ姿勢パラメータを計算することによって現在の環境に対する装置カメラまたは複数の装置カメラ間の関係を調整することにより、物体検出および距離計算の精度を同時に高めることによって、障害物認識の信頼性を高めることができ、計算されたカメラ姿勢パラメータの信頼性を監視および判断することによって、誤制御結果を回避することができ、装置が移動している環境条件が変化した場合でも、走行安全性を高めることができる。 According to the present invention, by adjusting the relationship of the device camera or between multiple device cameras to the current environment by calculating camera pose parameters, the accuracy of object detection and distance calculation can be increased simultaneously, thereby increasing the reliability of obstacle recognition, and by monitoring and judging the reliability of the calculated camera pose parameters, erroneous control results can be avoided, and driving safety can be increased even when the environmental conditions in which the device is moving change.
上記以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。 Other issues, configurations, and advantages will become clear from the description of the embodiments below.
以下、本発明の外界認識装置の好ましい実施形態について図面を参照して説明する。 Below, a preferred embodiment of the external environment recognition device of the present invention will be described with reference to the drawings.
図1~図6を参照して、外界認識装置100の構成及び性能について説明する。図示は省略するが、外界認識装置100は、CPU、RAM、ROMなどがバスを介して接続された構成であり、CPUがROMに格納された各種制御プログラムを実行することで、システム全体の動作を制御する。ここで以下に説明する構成では、2つのカメラセンサ(以下、単にカメラもしくはセンサと称することがある)が単一の車載ステレオカメラとしてペアリングされ、したがってセンシング部111に対応することに留意すべきである。しかし、これは、単一の単眼カメラがセンシング部111として使用される他の構成に使用される装置を制限するものではない。
The configuration and performance of the external
図1は、本実施形態に係る外界認識装置の構成を示すブロック図である。本実施形態の外界認識装置100は、例えば車両(自車両)に搭載され、外界(自車両周辺)を撮影するカメラセンサ(センシング部111)から取り込んだ画像の中から立体物を検出し、立体物の検出結果に基づき、警報、ブレーキ作動など(制御アプリケーション)の制御判定を行う装置である。
FIG. 1 is a block diagram showing the configuration of an external environment recognition device according to this embodiment. The external
図1において、外界認識装置100は、同じ高さに配置された2つのカメラセンサ111a、111bを含むセンシング部111と、画像取得部121と、カメラ姿勢パラメータ算出部131と、センサ情報取得部132と、カメラ姿勢パラメータ信頼度判定部141と、障害物検出部151と、対象物選択部161と、制御アプリケーション処理部171と、を備える。
In FIG. 1, the external
(センシング部111)
センシング部111を構成する2つの(一対の)カメラセンサ111a、111bは、車載ステレオカメラであり、例えば図2に示すように、自車両V前方に向けて、車室内のフロントガラスやルームミラーなどに同じ高さで左右方向に並んで取り付けられている。また、カメラセンサ111a、111bは、それぞれの視野(撮影領域)の一部が重なるように設置されている。したがって、カメラセンサ111a、111b(車載ステレオカメラ)で撮影された外界(自車両V前方)の画像において、中央はステレオ視領域(視野が重なる領域であって、測距情報(視差)が利用可能な領域)となっており、左右の広角部は単眼視領域(視野が重ならない領域であって、測距情報(視差)が利用できない領域)となっている。
(Sensing unit 111)
The two (pair)
(画像取得部121)
画像取得部121は、センシング部111に対応する2つのカメラセンサ111a、111bの一方または両方によって取得された画像を処理して、さらなる処理のために画像特性を調整する。この処理には、入力画像を縮小または拡大して結果としての画像サイズを変更できる画像解像度調整、および入力画像の特定の領域をさらなる処理のために元の入力画像から切り取る(トリミングする)ことができる画像関心領域選択、回転、スケール、シアーなどの画像アフィン変換、および平坦な地面が基準と見なされる俯瞰画像変換が含まれ得るが、これらに限定されない。アフィン変換の場合、幾何学式または変換テーブルは、事前に計算または調整され得る。画像解像度調整および画像関心領域選択に使用されるパラメータは、現在の運転環境および条件(速度、旋回速度など)に基づいて制御され得る。また、センシング部111に対応する両方のカメラセンサ111a、111bから受信した画像信号を用いてステレオマッチングを行い、車載障害物検出および障害物認識装置が搭載された車両の前方のシーンの3次元距離画像を作成する。ステレオマッチングは、比較対象となる2つの画像において、所定の単位領域ごとに画像信号間の差が最小となる単位領域を決定する。つまり、同じ被写体が写っている領域を検出する。これにより、3次元距離画像(以下、視差画像という)が合成される。視差データは、実際の環境でカメラからターゲットまでの距離値を計算するために使用されることに留意すべきである。
(Image Acquisition Unit 121)
The
俯瞰画像変換の場合、画像取得部121は、センシング部111によって異なる時間に取得され、俯瞰画像に変換された少なくとも2つの画像間の差異を示す差分画像を計算する機能も有する。単純なピクセル間差分計算およびフィルタベースの画像差分計算を含むがこれらに限定されない差分計算に既知の方法を適用することができる。
In the case of overhead image conversion, the
(カメラ姿勢パラメータ算出部131)
カメラ姿勢パラメータ算出部131は、センサ情報取得部132によって取得された情報を用いて、図3に示すように、カメラピッチ角(水平軸の回転)(図3(a))、カメラロール角(縦軸(前後方向軸)の回転)(図3(c))、カメラヨー角(垂直軸の回転)(図3(b))、およびカメラ高さ(平坦な地面に対するY軸の位置)(図3(d))によって定義される、平坦な地面(予め決められた基準)に対するカメラ外部パラメータ(カメラ姿勢パラメータ)のいずれかまたは全てを算出する機能を有する。つまり、カメラ姿勢パラメータ算出部131は、センサ情報取得部132で取得された情報に基づいて、平坦な地面DR(予め決められた基準)に対するセンシング部111(のカメラセンサ111a、111b)のセンサ光軸OA(以下、単に光軸OAとする)のずれ(すなわち、センシング部111(のカメラセンサ111a、111b)の現在の姿勢のずれ)を補正する、カメラ姿勢パラメータのいずれかまたは全てを算出する。また、パラメータ算出を行うために必要な情報が不足しているなどの理由により、カメラ姿勢パラメータ算出が所定の時刻に正常に行えないか否かを判断する機能も有する。センサ情報取得部132によって収集される情報によって、このパラメータ算出処理は異なる。例えば、装置構成がステレオマッチング処理によって算出された視差情報に基づいて自車両の前方の道路の傾きを推定する処理を含む場合に、当該外界認識装置から情報が取得されると、推定された道路は、平坦な地面の形で、自車両の前方の道路に対する当該装置のピッチ角とロール角、およびその高さを算出するために使用される。また、利用可能であれば、センサ情報取得部132から取得された自車両の速度および旋回速度を考慮して、処理期間中の自車両の動きを算出し、それに従ってそれを使用して、センシング部111によって取得されたデータの一時的(時間的)性質が考慮される場合の3次元空間におけるセンサの位置を調整することができる。すなわち、カメラ姿勢パラメータ算出部131は、センサ情報取得部132で取得された情報によりカメラセンサ111a、111bの現在の姿勢を推定するカメラ姿勢推定部としての機能を有する。
(Camera Attitude Parameter Calculation Unit 131)
The camera attitude
別の例では、高さ、ピッチ、ヨー、およびロールの角度を外部センサから直接取得できる場合、カメラ姿勢パラメータは、設置パラメータからのオフセットに基づいて調整できる。上記のパラメータを算出する他の方法も含めることができる。 In another example, if the height, pitch, yaw, and roll angles can be obtained directly from external sensors, the camera pose parameters can be adjusted based on offsets from the mounting parameters. Other methods of calculating the above parameters can also be included.
(センサ情報取得部132)
センサ情報取得部132は、カメラ姿勢パラメータ算出部131でカメラ姿勢パラメータを算出するために用いられる情報を収集する機能を有しており、前述の情報は、外界認識装置、自車サスペンションシステム、自車内部センサ(速度、旋回速度、ヨーレートなど)、付属の慣性計測センサなどを含むがこれらに限定されない1つまたは複数のセンサから収集される。すなわち、センサ情報取得部132は、(カメラ姿勢推定部によって推定される)カメラセンサ111a、111bの現在の姿勢に関連する情報を検出する1つまたは複数のセンサから収集されるセンサ情報を取得する機能を有する。
(Sensor information acquisition unit 132)
The sensor
(カメラ姿勢パラメータ信頼度判定部141)
カメラ姿勢パラメータ信頼度判定部141は、パラメータ推定結果の時系列データ解析を行って現在の状態が信頼できるかどうかを判定することにより、(カメラ姿勢パラメータ算出部131で算出されたパラメータで記述される)カメラ姿勢推定の信頼度を判断する機能を有する。すなわち、カメラ姿勢パラメータ信頼度判定部141は、カメラ姿勢推定部(カメラ姿勢パラメータ算出部131)によってセンサ情報により推定したカメラセンサ111a、111bの(現在の)姿勢の確からしさをカメラ姿勢信頼度として算出するカメラ姿勢信頼度算出部としての機能を有する。さらに、信頼度は、自車両(カメラセンサ111a、111b)からの距離に基づいて、3つの異なる領域のセットに対して判定され、これ以降、近距離信頼度(近傍信頼度)、中距離信頼度(中間信頼度)、および遠距離信頼度(遠方信頼度)と呼ばれる。各領域がカバーする距離および範囲は、当該外界認識装置の構成および自車両で実行される制御アプリケーションに基づいて調整できる。時系列データ解析処理では、次の条件(ただし、これに限定されない)が考慮される:推定処理のステータス/結果(つまり、ギブアップ結果、推定成功結果など)、特定の期間にわたる個々のパラメータの変動(例えば、5秒間にわたって平均化された同じパラメータに関するパラメータ差分)、デフォルト値に関するパラメータ差分。
(Camera Posture Parameter Reliability Determination Unit 141)
The camera attitude parameter
各範囲領域に対する信頼度設定の例(「信頼できる」または「信頼できない」)を以下に示す。ただし、他のバリエーションも含まれる場合がある。 Examples of confidence settings for each range area ("trusted" or "untrusted") are shown below, although other variations may be included.
信頼度を「信頼できない」に設定するために、次の条件のいずれかが真である必要がある:[nc1]推定処理のステータス/結果が所定の期間(例えば、3秒以上)失敗した場合、[nc2]特定の期間にわたる推定パラメータのいずれかの変動(例えば、過去の10回の推定の移動平均)が、定義された時間(例えば、0.5秒以上)の間に事前定義された範囲を超えた場合、[nc3]推定パラメータのいずれかの値が、定義された時間(例えば、0.5秒以上)の間に事前定義された範囲より大きいデフォルト値に対する差を示している場合。上記の条件のいずれかが所定の期間[NCT1]に真である場合、まず、遠距離信頼度領域の信頼度が「信頼できない」に設定される。上記の条件のいずれかが所定の期間[NCT2]に真であり続ける場合、中距離信頼度領域の信頼度も「信頼できない」に設定される。さらに、上記の条件のいずれかが2番目の所定の期間[NCT3]に真であり続ける場合、近距離信頼度領域の信頼度も「信頼できない」に設定される。ただし、NCT1 < NCT2 < NCT3である。 In order to set the confidence to "unreliable", any of the following conditions must be true: [nc1] the status/result of the estimation process fails for a predefined period (e.g., more than 3 seconds); [nc2] the variation of any of the estimated parameters over a certain period (e.g., moving average of the past 10 estimations) exceeds a predefined range for a defined time (e.g., more than 0.5 seconds); [nc3] the value of any of the estimated parameters shows a difference to the default value that is greater than a predefined range for a defined time (e.g., more than 0.5 seconds). If any of the above conditions are true for a predefined period [NCT1], first the confidence of the far-distance confidence region is set to "unreliable". If any of the above conditions remain true for a predefined period [NCT2], the confidence of the medium-distance confidence region is also set to "unreliable". Furthermore, if any of the above conditions remain true for a second predefined period [NCT3], the confidence of the near-distance confidence region is also set to "unreliable", provided that NCT1 < NCT2 < NCT3.
近距離信頼度、中距離信頼度、および遠距離信頼度は、以下の条件が全て真である場合、それらの以前のステータスに関係なく、「信頼できる」として設定される:[rc1]推定処理のステータス/結果が所定の期間(例えば、5秒以上)成功している場合、[rc2]特定の期間にわたる各推定パラメータの変動(例えば、過去の10回の推定の移動平均)が、定義された時間(RCT1)(例えば、1秒以上)の間に事前定義された範囲内にあった場合。これは、回復処理と見なすこともできる。 Near, medium, and far confidence are set as "trusted" regardless of their previous status if all of the following conditions are true: [rc1] the status/result of the estimation process is successful for a given period of time (e.g., more than 5 seconds), [rc2] the variation of each estimation parameter over a certain period of time (e.g., a moving average of the past 10 estimations) is within a predefined range for a defined time (RCT1) (e.g., more than 1 second). This can also be considered as the recovery process.
(障害物検出部151)
障害物検出部(立体物検出部)151は、画像取得部121によって取得された画像を用いて、立体物を検出し、その位置を算出する機能を有する。障害物検出部151は、差分画像を用いて、点(画素)間の距離を考慮した既知のクラスタリング方法(例えば、K-meansアルゴリズム)を使用することにより、互いに近く、道路の上の対象障害物を表す可能性がある差分画素のクラスターを作成する方法を含むがこれに限定されない方法を使用する。なお、本明細書において、「障害物検出」とは、少なくとも次のタスクが実行される処理を指す:対象物体検出(画像空間内の位置)、対象物体測距(3次元空間内の位置)、対象物体識別(例えば、自動車/車両、二輪車、自転車、歩行者、ポールなど)、対象物体追跡(例えば、以前に検出された物体を探し、見つかった場合はそれを追跡する)、対象物体速度計算(例えば、物体追跡の結果を使用する)。対象物体測距処理は、画像の単眼視領域(視差情報が算出できない領域)に物体が位置する場合にカメラ姿勢パラメータを使用する幾何学的計算に依存する単眼ベースの方法と、視差情報が得られて視差情報が上記の対象物体にリンクできる画像領域に対象物体が位置する場合に、画像取得部121で算出された視差情報を使用する方法との組み合わせを使用して、3次元空間内の自車両から対象物体までの測距値を取得することを意味する。
(Obstacle detection unit 151)
The obstacle detection unit (three-dimensional object detection unit) 151 has a function of detecting a three-dimensional object using an image acquired by the
(対象物選択部161)
対象物選択部161は、障害物検出部151によって検出された障害物を選択して優先順位を付けて、適切な制御ルーチン/アプリケーションが自車両で実行できるようにする機能を有する。自車両の経路に対する障害物の位置およびそれらの投影された(移動)経路は、自車両の移動経路(現在および推定)への計算された近接性に基づいてターゲットを選択して優先順位を付けるために使用される。つまり、障害物が自車両との衝突(または衝突に近い)をもたらす移動経路上にあると見なされる場合、それはターゲットとして選択され、他に選択されたターゲットがある場合は優先順位が付けられる。ターゲットの優先順位は、ターゲットごとに計算された衝突までの距離(近接性)および時間に基づいて割り当てられ、結果として、時間および距離の両方で自車両との衝突の可能性が高いまたは衝突に近い障害物に対して高い優先順位が付けられる。上記の処理では、次のパラメータおよび条件(ただし、これらに限定されない)が考慮される:カメラ姿勢パラメータの信頼度、障害物の識別、障害物が追跡および識別された期間、検出された障害物と自車両との距離、障害物が移動している速度、障害物が移動している軌跡、自車両の推定経路など。
(Object Selection Unit 161)
The
候補となる対象物が現在検出/追跡されている(したがって、そのような障害物が移動している速度および方向が算出された)特定の領域(単眼視領域+近傍/中間/遠方)に対してカメラ姿勢パラメータが信頼できないと推定されている場合、そのような障害物の優先度は低くなるか、または、その障害物はターゲットとして選択されない(これは、自車両の制御アプリケーションの構成に依存する)。ただし、これは、カメラの信頼度が向上した場合に、障害物の追跡など、通常の操作で続行する他の処理に影響しない。すなわち、対象物選択部161は、カメラ姿勢信頼度(カメラ姿勢パラメータの信頼度)に基づき、障害物検出部151により検出した障害物(立体物)の確からしさを立体物信頼度として設定する(優先順位を付ける)。
If the camera pose parameters are estimated to be unreliable for a particular area (monocular vision area + near/middle/far) where a candidate object is currently detected/tracked (and therefore the speed and direction at which such an obstacle is moving has been calculated), such an obstacle will be given a low priority or will not be selected as a target (this depends on the configuration of the vehicle's control application). However, this does not affect other processes that would continue in normal operation, such as obstacle tracking, if the camera reliability is improved. That is, the
すなわち、本実施形態において、画像取得部121では、車載ステレオカメラ(カメラセンサ111a、111b)の左右の広角部の単眼視領域に基づき俯瞰画像を取得し、障害物検出部151は、その俯瞰画像の中から障害物を検出する。また、障害物検出部151は、その障害物の測距及び速度を算出する。対象物選択部161は、カメラ姿勢信頼度(カメラ姿勢パラメータの信頼度)と、障害物の測距及び速度に基づき、障害物(立体物)に対して立体物信頼度を設定する(優先順位を付ける)。
In other words, in this embodiment, the
(制御アプリケーション処理部171)
制御アプリケーション処理部171は、対象物選択部161から取得された結果に従って、当該外界認識装置が搭載された車両で実行される警報ルーチン(ドライバへの聴覚的または視覚的な警報メッセージ)または制御アプリケーションを決定する機能を有する。すなわち、制御アプリケーション処理部171は、対象物選択部161で設定された立体物信頼度(優先順位)に基づき、自車両で実行される警報、ブレーキ作動などの制御判定を行う制御判定部としての機能を有する。
(Control application processing unit 171)
The control
ここで、外界認識装置100を車両Vの周囲を監視するシステムとして適用した場合について、図4および図5を参照して説明する。以下に説明する図4の場合では、ピッチ角(θPitch)と呼ばれるカメラ姿勢パラメータのみが記載されているが、記載された処理の性質を変更することなく、他のカメラ姿勢パラメータを考慮することができる。
Here, a case where the external
図4は、外界認識装置100を車載した自車両Vが勾配変化(以下、R2とする)のある理想的な平坦な道路R1を横断している状況を示しており、光軸OAと平坦な地面DRの関係を記述しているカメラ姿勢パラメータは、平坦な地面DRの範囲内で得られる視差情報から観測される道路の傾斜に基づいて推定される。
Figure 4 shows a situation in which the vehicle V equipped with the external
図4(a)は、自車両Vが理想的な平坦な道路R1を横断している状況を示しており、カメラ姿勢パラメータ算出部131によって実行されたカメラ姿勢パラメータ推定は成功しており、算出されたパラメータ変動は自車両が道路を横断している間の期間の許容範囲内にあった。したがって、カメラ姿勢パラメータ信頼度判定部141が「信頼できる」ステータスを設定するために必要な条件を全て満たし(条件[rc1]:パラメータ推定が成功、および条件[rc2]:パラメータ変動が少ない)、近距離信頼度、中距離信頼度、および遠距離信頼度は「信頼できる」として設定されている。
Figure 4(a) shows a situation in which the host vehicle V is crossing an ideal flat road R1, and the camera attitude parameter estimation performed by the camera attitude
図4(b)は、道路R2に接続する勾配変化に到達する前に、自車両Vが理想的な平坦な道路R1を横断している状況を示しており、光軸OAと平坦な地面DRとの関係を記述するカメラ姿勢パラメータは、道路R1と道路R2の間の勾配変化を含む平坦な地面DRの範囲内で得られる観測情報に基づいて推定される。これにより、平坦な地面DRの範囲内で得られる情報が道路間の勾配変化を含む前に算出されたピッチ角値に対して、カメラ姿勢パラメータ算出部131で推定されるピッチ角パラメータに変動が生じる。したがって、カメラ姿勢パラメータ信頼度判定部141が全ての範囲において「信頼できる」ステータスを設定するために必要な条件を全て満たしていないため(条件[rc2]パラメータ変動が大きいために不満足)、かつ、上記のこのステータスが短いある期間の間続いたため、遠距離信頼度は「信頼できない」として設定され、近距離信頼度および中距離信頼度は「信頼できる」として設定されている。
FIG. 4(b) shows a situation where the vehicle V crosses an ideal flat road R1 before reaching a gradient change connecting to road R2, and the camera attitude parameters describing the relationship between the optical axis OA and the flat ground DR are estimated based on observation information obtained within the flat ground DR including the gradient change between roads R1 and R2. This causes fluctuations in the pitch angle parameters estimated by the camera attitude
図4(c)は、自車両Vが理想的な平坦な道路R1と理想的な平坦な道路R2の間の接続部を横断している状況を示しており、光軸OAと平坦な地面DRとの関係を記述するカメラ姿勢パラメータは、この時点では道路R2からの情報のみを含む、平坦な地面DRの範囲内で得られる観測情報に基づいて推定される。 Figure 4(c) shows a situation where the vehicle V is crossing the junction between ideal flat road R1 and ideal flat road R2, and the camera pose parameters describing the relationship between the optical axis OA and the flat ground surface DR are estimated based on observational information obtained within the flat ground surface DR, which at this point only includes information from road R2.
この場合、道路R1と道路R2の間の勾配変化を横断するときの自車両の動きは、自車両が坂道に到達する前に算出されたピッチ角値に対して、カメラ姿勢パラメータ算出部131で推定されたピッチ角パラメータに変動を生じる。したがって、カメラ姿勢パラメータ信頼度判定部141が全ての範囲において「信頼できる」ステータスを設定するために必要な条件を全て満たしていないため(条件[rc2]パラメータ変動が大きいために不満足)、かつ、ピッチ角変動が長い期間の間一定であったため(平坦な地面DRの範囲内で得られる情報が勾配変化を含む図4(b)で説明されたシナリオのため)、中距離信頼度および遠距離信頼度の両方が「信頼できない」として設定され、近距離信頼度は「信頼できる」として設定されている。
In this case, the movement of the host vehicle when crossing the gradient change between roads R1 and R2 causes a variation in the pitch angle parameter estimated by the camera attitude
図5は、外界認識装置100を車載した自車両Vが理想的な平坦な道路R1を横断している状況、および、道路R2に至る勾配変化が描かれており、光軸OAと平坦な地面DRとの関係を記述するカメラ姿勢パラメータが平坦な地面DRの範囲内で得られる視差情報から観測される道路の傾斜に基づいて推定される異なる状況を示している。
Figure 5 shows a situation in which the vehicle V equipped with the external
図5(a)は、自車両Vが理想的な平坦な道路R1を横断している状況を示しており、カメラ姿勢パラメータ算出部131によって実行されるカメラ姿勢パラメータ推定は成功し、近距離信頼度、中距離信頼度、および遠距離信頼度は「信頼できる」として設定されている(図4(a)参照)。したがって、歩行者P1(近距離内)および歩行者P2(遠距離内)を、特徴(検出時間、速度など)に基づいて、対象物選択部161によって対象物として選択する場合、対応する範囲のカメラ姿勢パラメータが「信頼できる」に設定されているため、それらは候補になり続ける。
Figure 5(a) shows a situation where the host vehicle V is crossing an ideal flat road R1, and the camera attitude parameter estimation performed by the camera attitude
図5(b)は、道路R2に接続する勾配変化に到達する前に、自車両Vが理想的な平坦な道路R1を横断している状況を示しており、光軸OAと平坦な地面DRとの関係を記述するカメラ姿勢パラメータは、道路R1と道路R2の間の勾配変化を含む平坦な地面DRの範囲内で得られる観測情報に基づいて推定され、カメラ姿勢パラメータ算出部131によって実行されるカメラ姿勢パラメータ推定は成功し、近距離信頼度、中距離信頼度は「信頼できる」として設定されているが、遠距離信頼度は「信頼できない」に設定されている(図4(b)参照)。したがって、歩行者P1(近距離内)および歩行者P2(遠距離内)を、特徴(検出時間、速度など)に基づいて、対象物選択部161によって対象物として選択する場合、近距離信頼度のカメラ姿勢パラメータは「信頼できる」に設定されているため、歩行者P1(近距離内)は候補となり続けるが、遠距離信頼度のカメラ姿勢パラメータは「信頼できない」に設定されているため、歩行者P2(遠距離内)の優先度は低くなるか、またはターゲットとして選択されなくなる(これは、自車両の制御アプリケーションの構成に依存する)。ただし、これは、カメラの信頼度が向上した場合に、障害物の追跡など、通常の操作で続行する他の処理に影響しない。
Figure 5(b) shows a situation in which the vehicle V is crossing an ideal flat road R1 before reaching a gradient change connecting to road R2, and the camera attitude parameters describing the relationship between the optical axis OA and the flat ground surface DR are estimated based on observation information obtained within the range of the flat ground surface DR including the gradient change between roads R1 and R2, and the camera attitude parameter estimation performed by the camera attitude
図6は、現在のカメラ姿勢パラメータの信頼度を判定し、適正範囲ごとに信頼度フラグを設定する、カメラ姿勢パラメータ信頼度判定部141によって実行される処理を示すフローチャートである。
FIG. 6 is a flowchart showing the process executed by the camera attitude parameter
まず、ステップS1において、さらなる解析(時系列データ解析)のためにカメラ姿勢パラメータ算出部131で得られた結果(成功および失敗)を保存するデータ保存処理を行う(カメラ姿勢推定履歴保存)。
First, in step S1, a data storage process is performed to store the results (success and failure) obtained by the camera posture
次に、ステップS2において、処理の開始(例えば、エンジンスタート時のシステム始動)以来、十分なデータが格納されていることを確認するチェックを実行する。十分なデータが格納されていない場合、ステップS3の処理が実行され、そうでない場合、さらなる解析のために十分なデータが格納されている場合、ステップS4が実行される。十分なデータの例は、格納された5秒以上のデータに相当する場合がある。 Next, in step S2, a check is performed to ensure that sufficient data has been stored since the start of processing (e.g. system startup at engine start). If not enough data has been stored, processing in step S3 is performed, otherwise step S4 is performed if sufficient data has been stored for further analysis. An example of sufficient data may correspond to 5 seconds or more of data stored.
ステップS2で行われたデータチェックの結果が、十分なデータが格納されていない場合、ステップS3において、近距離信頼度、中距離信頼度、および遠距離信頼度を「信頼できない」として設定する初期化処理を行う。この初期化処理は、さらなる解析のために十分なデータが格納されるまで毎回実行する必要があることに留意すべきである。 If the result of the data check performed in step S2 is that not enough data has been stored, an initialization process is performed in step S3 to set the short-distance reliability, medium-distance reliability, and long-distance reliability as "unreliable." It should be noted that this initialization process needs to be performed every time until enough data has been stored for further analysis.
ステップS2で行われたデータチェックの結果が、十分なデータが格納されている場合、ステップS4において、時系列データ解析を行い、現在のカメラ姿勢パラメータの信頼度を判定し、この判定の結果をさらなる判断のために格納する。この判定の例(ただし、これに限定されない)は次の通りである。 If the data check performed in step S2 shows that sufficient data has been stored, then in step S4, a time series data analysis is performed to determine the reliability of the current camera pose parameters, and the result of this determination is stored for further evaluation. Examples of this determination (but not limited to these) are as follows:
「信頼できない」ステータスを判定するために、次の条件のいずれかが真である必要がある:[nc1]推定処理のステータス/結果が所定の期間(例えば、3秒以上)失敗した場合、[nc2]特定の期間にわたる推定パラメータのいずれかの変動(例えば、過去の10回の推定の移動平均)が、定義された時間(例えば、0.5秒以上)の間に事前定義された範囲を超えた場合、[nc3]推定パラメータのいずれかの値が、定義された時間(例えば、0.5秒以上)の間に事前定義された範囲より大きいデフォルト値に対する差を示している場合。 To determine the "unreliable" status, any of the following conditions must be true: [nc1] The status/result of the estimation process fails for a given period of time (e.g., more than 3 seconds); [nc2] The variation of any of the estimated parameters over a certain period of time (e.g., a moving average of the last 10 estimations) exceeds a predefined range for a defined time (e.g., more than 0.5 seconds); [nc3] The value of any of the estimated parameters shows a difference against the default value that is greater than a predefined range for a defined time (e.g., more than 0.5 seconds).
「信頼できる」ステータスを判定するために、次の全ての条件が真である必要がある:[rc1]推定処理のステータス/結果が所定の期間(例えば、5秒以上)成功している場合、[rc2]特定の期間にわたる各推定パラメータの変動(例えば、過去の10回の推定の移動平均)が、定義された時間(例えば、1秒以上)の間に事前定義された範囲内にあった場合。 To determine a "trusted" status, all of the following conditions must be true: [rc1] The status/result of the estimation process is successful for a given period of time (e.g., more than 5 seconds); [rc2] The variation of each estimation parameter over a certain period of time (e.g., a moving average of the past 10 estimations) is within a predefined range for a defined time (e.g., more than 1 second).
次に、ステップS5において、ステップS4の現在および過去の結果(例えば、現在時刻の10秒前まで)を取得して、各範囲に対して設定されるべき信頼度フラグを判定する。近距離信頼度、中距離信頼度、および遠距離信頼度は、現在のカメラ姿勢パラメータの信頼度(ステップS4から)が「信頼できる」であり、同じ結果(信頼できる)が定義された時間[RCT1](例えば、1秒以上)一定である場合、それらの以前のステータスに関係なく、「信頼できる」として設定される。現在のカメラ姿勢パラメータの信頼度(ステップS4から)が「信頼できない」であり、同じ結果(信頼できない)が定義された時間[NCT1]の間に存在する(必ずしも一定ではない)場合、最初に、遠距離信頼度領域の信頼度が「信頼できない」に設定される。上記の条件(「信頼できない」結果と連続しない「信頼できる」結果)が所定の期間[NCT2]継続した場合、遠距離信頼度および中距離信頼度領域の信頼度が「信頼できない」に設定される。また、上記の条件(「信頼できない」結果と連続しない「信頼できる」結果)が所定の期間[NCT3]継続した場合、遠距離信頼度および中距離信頼領域と近距離信頼度領域の信頼度が「信頼できない」に設定される。 Next, in step S5, the current and past results of step S4 (e.g., up to 10 seconds before the current time) are obtained to determine the confidence flag to be set for each range. The close, mid, and far confidences are set as "trusted" regardless of their previous status if the confidence of the current camera pose parameters (from step S4) is "trusted" and the same result (trusted) is constant for a defined time [RCT1] (e.g., more than 1 second). If the confidence of the current camera pose parameters (from step S4) is "untrusted" and the same result (untrusted) exists (not necessarily constant) for a defined time [NCT1], first the confidence of the far confidence area is set to "untrusted". If the above condition (untrusted and non-consecutive "trusted" results) continues for a predefined period [NCT2], the confidence of the far and mid confidence areas is set to "untrusted". In addition, if the above condition (a "trusted" result not followed by an "untrusted" result) continues for a specified period [NCT3], the long-distance trust level, the medium-distance trust region, and the short-distance trust region are set to "untrusted."
図6について上述した処理を採用することにより、カメラ姿勢パラメータの信頼度は、外界認識装置100によってカバーされる範囲ごとに決定することができる。この処理の結果は、対象物選択部161に渡され、障害物検出部151によって検出された障害物から対象物を選択する処理が行われる。
By employing the process described above with reference to FIG. 6, the reliability of the camera pose parameters can be determined for each range covered by the external
以上で説明したように、本実施形態に係る図1に示される外界認識装置100は、
当該装置が取り付けられているデバイスの前のシーンの画像を取り込むことができる2つのセンシングユニット(カメラセンサ111a、111b)からなるセンシング部111と、
センシング部111によって取得された画像を処理してその特性(これには、画像サイズ、画像解像度、および画像関心領域が含まれるが、これらに限定されない)を調整する画像取得部121であって、両方のセンシングユニットから取得した画像を照合して、各ピクセルの視差を計算する3次元データ生成を行うことができる画像取得部121と、
センサ情報取得部132によって取得された情報を用いて、カメラピッチ角(水平軸回転)、カメラロール角(縦軸回転)、カメラヨー角(垂直軸回転)、およびカメラ高さ(車両が立っている平面に対するY軸上の位置)で定義されるカメラ姿勢パラメータのいずれかまたは全ての計算を行う(およびカメラ姿勢パラメータ算出部131によって算出したカメラ姿勢パラメータに基づいて幾何学的画像変換パラメータの更新を行う)カメラ姿勢パラメータ算出部131と、
カメラ姿勢パラメータ算出部131によってカメラ姿勢パラメータを算出するために使用される情報を収集するためのセンサ情報取得部132と(ここで、前述の情報は、1つまたは複数のセンサから収集される)、
算出されたカメラ姿勢パラメータに対して時系列データ解析処理を行い、所定の時刻におけるカメラ姿勢推定の信頼度を判定するためのカメラ姿勢パラメータ信頼度判定部141と、
画像取得部121によって取得された画像を用いて物体検出および位置特定を行う障害物検出部151と、
カメラ姿勢パラメータ信頼度判定部141および障害物検出部151の結果を考慮して、障害物検出部151で検出された障害物のうち、制御アプリケーション処理部171への入力とすべき障害物の選択を行う対象物選択部161と、
車載環境認識装置が搭載されたデバイスによって実行される制御アプリケーションを決定する制御アプリケーション処理部171と、を備える。
As described above, the external
a
an
a camera attitude
a sensor
a camera attitude parameter reliability determination unit for performing a time series data analysis process on the calculated camera attitude parameters and determining the reliability of the camera attitude estimation at a predetermined time;
an
an
and a control
換言すると、本実施形態に係る外界認識装置100は、
外界を撮影するカメラセンサの画像を取得する画像取得部121と、
前記カメラセンサの現在の姿勢に関連する情報を検出するセンサから収集されるセンサ情報を取得するセンサ情報取得部132と、
前記画像の中から立体物(障害物)を検出する立体物検出部(障害物検出部151)と、
(前記センサ情報により)前記カメラセンサの(現在の)姿勢を推定するカメラ姿勢推定部(カメラ姿勢パラメータ算出部131)と、
(前記カメラ姿勢推定部によって)前記センサ情報により推定した前記カメラセンサの(現在の)姿勢の確からしさをカメラ姿勢信頼度として算出するカメラ姿勢信頼度算出部(カメラ姿勢パラメータ信頼度判定部141)と、
前記カメラ姿勢信頼度に基づき、前記立体物検出部により検出した前記立体物(障害物)の確からしさを立体物信頼度として設定する対象物選択部161と、
前記立体物信頼度に基づき、(自車両で実行される)警報またはブレーキ作動の少なくとも一つの制御判定を行う制御判定部(制御アプリケーション処理部171)と、を有する。
In other words, the external
an
a sensor
A three-dimensional object detection unit (obstacle detection unit 151) that detects a three-dimensional object (obstacle) from within the image;
a camera attitude estimation unit (camera attitude parameter calculation unit 131) that estimates the (current) attitude of the camera sensor (based on the sensor information);
a camera posture reliability calculation unit (camera posture parameter reliability determination unit 141) that calculates the likelihood of the (current) posture of the camera sensor estimated from the sensor information (by the camera posture estimation unit) as a camera posture reliability;
an
and a control determination unit (control application processing unit 171) that performs at least one control determination of an alarm or a brake operation (to be executed in the vehicle) based on the three-dimensional object reliability.
このような構成を採用することにより、カメラ姿勢パラメータ算出部131によって現在の環境に合わせてカメラ姿勢パラメータが更新されるため、障害物検出部151によって行われる物体検出および位置特定の精度を高めることができるとともに、カメラ姿勢パラメータ信頼度判定部141を用いて、算出されたカメラ姿勢パラメータの信頼度を監視および判断することができ、したがって、検出された障害物の位置および/または速度を誤って計算することになるカメラ姿勢の変動によって引き起こされる誤制御を回避することができる。したがって、装置が移動している環境条件が変化しても、信頼性が高く正確な物体検出および距離計算を同時に行うことができる。
By adopting such a configuration, the camera attitude
以上、本実施形態に係る外界認識装置100の構成及び動作について説明した。本実施形態に係る外界認識装置100によれば、カメラ姿勢パラメータを計算することによって現在の環境に対する装置カメラまたは複数の装置カメラ間の関係を調整することにより、物体検出および距離計算の精度を同時に高めることによって、障害物認識の信頼性を高めることができ、計算されたカメラ姿勢パラメータの信頼性を監視および判断することによって、誤制御結果を回避することができ、装置が移動する環境条件が変化した場合でも、走行安全性を高めることができる。
The above describes the configuration and operation of the external
以上、現時点で考えられる本発明の好適な実施形態について説明したが、本実施形態に種々の変更を加えることができ、本発明の真の精神および範囲内の全ての変更は、添付の請求の範囲内にあることが意図されている。 The above describes the currently contemplated preferred embodiment of the present invention, but various modifications can be made to the present embodiment, and all modifications within the true spirit and scope of the present invention are intended to be within the scope of the appended claims.
また、本発明は上記した実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。 Furthermore, the present invention is not limited to the above-described embodiment, but includes various modified forms. For example, the above-described embodiment has been described in detail to clearly explain the present invention, and is not necessarily limited to having all of the configurations described.
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Furthermore, each of the above configurations, functions, processing units, processing means, etc. may be realized in hardware, in part or in whole, for example by designing them as integrated circuits. Furthermore, each of the above configurations, functions, etc. may be realized in software by a processor interpreting and executing a program that realizes each function. Information such as the programs, tables, files, etc. that realize each function can be stored in a memory, a storage device such as a hard disk or SSD (Solid State Drive), or a recording medium such as an IC card, SD card, or DVD.
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Furthermore, the control lines and information lines shown are those considered necessary for the explanation, and do not necessarily show all control lines and information lines on the product. In reality, it can be assumed that almost all components are interconnected.
100 外界認識装置
111 センシング部
121 画像取得部
131 カメラ姿勢パラメータ算出部(カメラ姿勢推定部)
132 センサ情報取得部
141 カメラ姿勢パラメータ信頼度判定部(カメラ姿勢信頼度算出部)
151 障害物検出部(立体物検出部)
161 対象物選択部
171 制御アプリケーション処理部(制御判定部)
OA センサ光軸
DR 平坦な地面の基準軸
V 車両(自車両)
100 External
132 Sensor
151 Obstacle detection unit (three-dimensional object detection unit)
161
OA: Sensor optical axis DR: Reference axis of flat ground V: Vehicle (own vehicle)
Claims (8)
前記カメラセンサの現在の姿勢に関連する情報を検出するセンサから収集されるセンサ情報を取得するセンサ情報取得部と、
前記画像の中から立体物を検出する立体物検出部と、
前記カメラセンサの姿勢を推定するカメラ姿勢推定部と、
前記センサ情報により推定した前記カメラセンサの姿勢の確からしさをカメラ姿勢信頼度として算出するカメラ姿勢信頼度算出部と、
前記カメラ姿勢信頼度に基づき、前記立体物検出部により検出した前記立体物の確からしさを立体物信頼度として設定する対象物選択部と、
前記立体物信頼度に基づき、警報またはブレーキ作動の少なくとも一つの制御判定を行う制御判定部と、を有する外界認識装置。 an image acquisition unit that acquires an image of a camera sensor that captures an external environment;
a sensor information acquisition unit that acquires sensor information collected from a sensor that detects information related to a current attitude of the camera sensor;
a three-dimensional object detection unit that detects a three-dimensional object from within the image;
a camera attitude estimation unit that estimates an attitude of the camera sensor;
a camera pose reliability calculation unit that calculates the likelihood of the pose of the camera sensor estimated based on the sensor information as a camera pose reliability;
an object selection unit that sets a likelihood of the three-dimensional object detected by the three-dimensional object detection unit as a three-dimensional object reliability based on the camera pose reliability;
and a control determination unit that performs at least one control determination of an alarm or a brake activation based on the three-dimensional object reliability.
前記センサ情報取得部で取得された前記センサ情報に基づいて、予め決められた基準に対して前記カメラセンサの現在の姿勢を補正する、カメラピッチ角、カメラロール角、カメラヨー角で定義されるカメラ姿勢パラメータの少なくとも一つを算出するカメラ姿勢パラメータ算出部を備える外界認識装置。 The external environment recognition device according to claim 1,
The external environment recognition device includes a camera attitude parameter calculation unit that calculates at least one of camera attitude parameters defined by a camera pitch angle, a camera roll angle, and a camera yaw angle to correct the current attitude of the camera sensor with respect to a predetermined reference based on the sensor information acquired by the sensor information acquisition unit.
前記カメラ姿勢パラメータ算出部で算出された前記カメラ姿勢パラメータに基づいて、前記画像取得部で取得された前記画像に対して幾何学的画像変換を行う外界認識装置。 The external environment recognition device according to claim 2,
An external environment recognition device that performs geometric image transformation on the image acquired by the image acquisition unit based on the camera attitude parameters calculated by the camera attitude parameter calculation unit.
前記カメラセンサは、ステレオカメラであり、
前記画像取得部では、前記ステレオカメラの左右の広角部の単眼視領域に基づき俯瞰画像を取得し、前記立体物検出部は、前記俯瞰画像の中から前記立体物を検出する外界認識装置。 The external environment recognition device according to claim 1,
the camera sensor is a stereo camera;
The image acquisition unit acquires an overhead image based on the monocular vision areas of the left and right wide-angle sections of the stereo camera, and the three-dimensional object detection unit detects the three-dimensional object from the overhead image.
前記立体物の測距及び速度を算出する外界認識装置。 The external environment recognition device according to claim 4,
An external environment recognition device that calculates the distance and speed of the three-dimensional object.
前記対象物選択部は、前記カメラ姿勢信頼度と、前記立体物の測距及び速度に基づき、前記立体物信頼度を設定する外界認識装置。 The external environment recognition device according to claim 5,
The object selection unit is an external environment recognition device that sets the three-dimensional object reliability based on the camera pose reliability and the distance and speed of the three-dimensional object.
前記カメラ姿勢信頼度算出部は、前記カメラセンサからの距離に基づき、前記カメラ姿勢信頼度を設定する外界認識装置。 The external environment recognition device according to claim 1,
The camera pose reliability calculation unit is an external environment recognition device that sets the camera pose reliability based on a distance from the camera sensor.
前記対象物選択部は、前記立体物ごとに計算した衝突までの時間及び距離に基づき、前記立体物信頼度を設定する外界認識装置。 The external environment recognition device according to claim 1,
The object selection unit is an external environment recognition device that sets the three-dimensional object reliability based on the time and distance until collision calculated for each three-dimensional object.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/005818 WO2024171459A1 (en) | 2023-02-17 | 2023-02-17 | Outside-world recognition device |
| JP2025500607A JPWO2024171459A1 (en) | 2023-02-17 | 2023-02-17 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/005818 WO2024171459A1 (en) | 2023-02-17 | 2023-02-17 | Outside-world recognition device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2024171459A1 true WO2024171459A1 (en) | 2024-08-22 |
Family
ID=92420999
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/005818 Ceased WO2024171459A1 (en) | 2023-02-17 | 2023-02-17 | Outside-world recognition device |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JPWO2024171459A1 (en) |
| WO (1) | WO2024171459A1 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0777431A (en) * | 1993-09-08 | 1995-03-20 | Sumitomo Electric Ind Ltd | Camera attitude parameter calculating method |
| JP2017045356A (en) * | 2015-08-28 | 2017-03-02 | 株式会社デンソー | VEHICLE CONTROL DEVICE AND TRAVEL ESTIMATION METHOD |
| JP2017068688A (en) * | 2015-09-30 | 2017-04-06 | 株式会社東芝 | Inter-vehicle distance detection device, inter-vehicle distance detection method, and program |
| JP2019152894A (en) * | 2018-02-28 | 2019-09-12 | 株式会社デンソーテン | Periphery monitoring device, periphery monitoring system, and periphery monitoring method |
-
2023
- 2023-02-17 WO PCT/JP2023/005818 patent/WO2024171459A1/en not_active Ceased
- 2023-02-17 JP JP2025500607A patent/JPWO2024171459A1/ja active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0777431A (en) * | 1993-09-08 | 1995-03-20 | Sumitomo Electric Ind Ltd | Camera attitude parameter calculating method |
| JP2017045356A (en) * | 2015-08-28 | 2017-03-02 | 株式会社デンソー | VEHICLE CONTROL DEVICE AND TRAVEL ESTIMATION METHOD |
| JP2017068688A (en) * | 2015-09-30 | 2017-04-06 | 株式会社東芝 | Inter-vehicle distance detection device, inter-vehicle distance detection method, and program |
| JP2019152894A (en) * | 2018-02-28 | 2019-09-12 | 株式会社デンソーテン | Periphery monitoring device, periphery monitoring system, and periphery monitoring method |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2024171459A1 (en) | 2024-08-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10922561B2 (en) | Object recognition device and vehicle travel control system | |
| JP4420011B2 (en) | Object detection device | |
| CN107845104B (en) | Method for detecting overtaking vehicle, related processing system, overtaking vehicle detection system and vehicle | |
| EP2933790B1 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
| JP7485612B2 (en) | Multispectral systems for providing pre-crash alerts | |
| JP5089545B2 (en) | Road boundary detection and judgment device | |
| US10657670B2 (en) | Information processing apparatus | |
| US8461976B2 (en) | On-vehicle device and recognition support system | |
| KR20200131832A (en) | Information processing devices, mobile devices and methods, and programs | |
| US12071150B2 (en) | Vehicular driving assist system using forward viewing camera | |
| CN114063295B (en) | Dynamic Adjustment of Augmented Reality Images | |
| US20170220875A1 (en) | System and method for determining a visibility state | |
| US20240383479A1 (en) | Vehicular sensing system with lateral threat assessment | |
| CN111052174A (en) | Image processing apparatus, image processing method, and program | |
| JP6677474B2 (en) | Perimeter recognition device | |
| WO2019021591A1 (en) | Image processing device, image processing method, program, and image processing system | |
| WO2019068699A1 (en) | Method for classifying an object point as static or dynamic, driver assistance system, and motor vehicle | |
| KR102003387B1 (en) | Method for detecting and locating traffic participants using bird's-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program | |
| JP7236849B2 (en) | External recognition device | |
| JP7727502B2 (en) | Image processing device | |
| JP7225079B2 (en) | Obstacle recognition device | |
| JP4376147B2 (en) | Obstacle recognition method and obstacle recognition device | |
| WO2024171459A1 (en) | Outside-world recognition device | |
| JP7708132B2 (en) | Visibility assessment device | |
| JP7436331B2 (en) | Image processing device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23922793 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2025500607 Country of ref document: JP Kind code of ref document: A |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2025500607 Country of ref document: JP |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |