WO2023037575A1 - Image processing device and image processing method - Google Patents
Image processing device and image processing method Download PDFInfo
- Publication number
- WO2023037575A1 WO2023037575A1 PCT/JP2022/004612 JP2022004612W WO2023037575A1 WO 2023037575 A1 WO2023037575 A1 WO 2023037575A1 JP 2022004612 W JP2022004612 W JP 2022004612W WO 2023037575 A1 WO2023037575 A1 WO 2023037575A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- parallax
- reduced
- image processing
- generation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Definitions
- the present invention relates to an image processing device and an image processing method for recognizing obstacles outside the vehicle using a plurality of cameras.
- an on-vehicle forward monitoring sensor detects obstacles in front of the vehicle, and if there is a possibility of the vehicle colliding with the obstacle, the driver is warned and automatic braking is applied. There is a system to hang.
- Forward monitoring sensors used in such systems include millimeter-wave radar, laser radar, and cameras.
- Camera types include a monocular camera and a stereo camera using multiple cameras. The stereo camera can measure the distance to the photographed object by using the parallax of the overlapping area photographed by two cameras spaced at a predetermined distance. Therefore, it is possible to accurately grasp the degree of risk of collision with an object in front.
- the stereo camera obtains the parallax of the images shot by the two cameras and converts the parallax into distance. There is a feature that the parallax becomes smaller as the measurement distance becomes farther.
- a parallax calculation method a method of checking correspondence between left and right images by block matching is known.
- the parallax calculation method of the block matching method has the problem that the effective parallax decreases in images with little texture and the accuracy of the parallax decreases.
- Methods for computing parallax have been developed.
- the image generation device 110 uses the left and right captured images captured by the stereo camera 122 as a reference image and a comparison image to generate a distance image representing the distance to an object present in the reference image;
- a contrast image generation unit 112 that uses a neural network to generate a contrast image to be compared with the distance image, and a correction region in the distance image corresponding to an area in the reference image in which the image feature amount is equal to or less than a predetermined threshold.
- Patent Document 1 proposes a method of applying parallax calculation of a neural network method to a portion of an image (a portion having a small feature amount such as a road surface on which the vehicle is traveling).
- the neural network method of Patent Document 1 improves the problem of the block matching method and can calculate effective parallax with high accuracy even from images with little texture, but it has the problem of an enormous amount of calculation.
- the present invention calculates parallax by a neural network by reducing the amount of calculation, and based on the parallax, increases the effective parallax of the entire image by block matching, and creates a highly accurate parallax image.
- the purpose is to generate the entire input image.
- the present invention provides an image reduction unit that reduces two input images to generate two reduced images, and obtains parallax between the two reduced images by neural network processing to generate reduced parallax images.
- a first parallax image generating unit and a first parallax image generation unit that obtains a parallax between the two input images by obtaining a region matching a partial region of one of the input images from the other input image, thereby generating a parallax image.
- a two-parallax image generation unit is provided, and the second parallax image generation unit generates a parallax value of each pixel of the reduced parallax image for each region of the input image corresponding to each pixel of the reduced parallax image. and set the search range for finding the matching area.
- an effective parallax is calculated from a reduced image by a neural network, and a block matching method is used to calculate the parallax of an image before reduction at a position corresponding to the effective parallax so that it is equal to or approximates the effective parallax. Therefore, it is possible to increase the effective parallax of the image before reduction while reducing the computation amount of the neural network.
- Functional block diagram of the image processing apparatus of the first embodiment 4 is a flow chart of image processing of the image processing apparatus according to the first embodiment; Diagram explaining the parallax calculation method of the block matching method FIG. 4 is a diagram for explaining an example of a method for determining a search range for block matching in the first embodiment; FIG.
- FIG. 4 is a diagram for explaining another example of a method for determining a search range for block matching in the first embodiment;
- An example of an image with large feature values Functional block diagram of the image processing apparatus of the second embodiment Flowchart of road surface height estimation processing of the image processing apparatus of the second embodiment
- Functional block diagram of the image processing apparatus of the third embodiment Flowchart of first parallax image generation processing according to the fourth embodiment Flowchart of Second Parallax Image Generation Processing of Embodiment 5
- FIG. 1 is a functional block diagram of an image processing apparatus 100 according to Embodiment 1 of the present invention.
- the image processing device 100 includes a right camera 1R, a left camera 1L, an image reduction unit 2, a first parallax image generation unit 3, a search range determination unit 4, a second parallax image generation unit 5, and a recognition processing unit. 6.
- the right camera 1R and the left camera 1L are not necessarily the left and right cameras of a stereo camera, and a pair of monocular cameras arranged on the left and right may be used as the right camera 1R and the left camera 1L, respectively.
- the image reduction unit 2 to the recognition processing unit 6 are, for example, a computer having an arithmetic device such as a CPU, a storage device such as a semiconductor memory, and hardware such as a communication device.
- an arithmetic device such as a CPU
- a storage device such as a semiconductor memory
- hardware such as a communication device.
- images captured by the right camera 1R and the left camera 1L are transferred to the image reduction unit 2 as a right image PR and a left image PL , respectively.
- the image reduction unit 2 reduces the input left and right images to generate a right reduced image SR and a left reduced image SL .
- the reason for reducing the image is to reduce the amount of calculation in the first parallax image generator 3, and the reduction ratio is determined according to the processing time of the first parallax image generator 3 allowed by the system.
- the first parallax image generator 3 receives the reduced right image SR and the reduced left image SL and generates a first parallax image D1 (reduced parallax image) and a feature map M through neural network processing.
- the search range determination unit 4 uses the first parallax image D1 and the feature map M to determine the search range of the second parallax image generation unit 5 .
- the second parallax image generator 5 generates a second parallax image D2 from two images, the right image PR and the left image PL , by a block matching method. obey.
- the second parallax image D2 is a parallax image with a higher density than the first parallax image D1, since the parallax is generated from the image before being reduced.
- the recognition processing unit 6 uses the second parallax image D2 and the right image PR to perform recognition processing of forward vehicles, pedestrians, obstacles, and the like. Then, the recognition result of the recognition processing unit 6 is input to an ECU (not shown) that controls the driving system, braking system, steering system, etc. of the vehicle, so that the driver can be warned or automatically controlled as necessary. You can apply the brakes.
- FIG. 2 is a flowchart for explaining an outline of image processing of the image processing apparatus 100 of this embodiment.
- step S10 the image reduction unit 2 reduces the right image P R and the left image P L input from the left and right cameras to generate a right reduced image S R and a left reduced image SL .
- step S11 the first parallax image generator 3 receives the reduced right image SR and the reduced left image SL and generates a first parallax image D1 and a feature map M through neural network processing.
- step S12 the search range determination unit 4 uses the first parallax image D1 or the first parallax image D1 and the feature map M to determine the search range of the second parallax image generation unit 5. . Details of the method of using the first parallax image D1 will be described with reference to FIG. 4, and details of the method of using the first parallax image D1 and the feature map M will be described with reference to FIG.
- step S13 the second parallax image generator 5 generates a second parallax image D2 from the two images, the right image PR and the left image PL , by a block matching method based on the search range determined by the search range determiner 4. do. Details of the block matching method will be described with reference to FIG.
- step S14 the recognition processing section 6 uses the second parallax image D2 and the right image PR to perform recognition processing of forward vehicles, pedestrians, obstacles, and the like.
- FIG. 3 illustrates parallax calculation processing by a general block matching method.
- the right image PR captured by the right camera 1R is used as a reference image, and a reference block image PB such as 16 pixels ⁇ 16 pixels (the size is not limited to this example) is defined.
- a predetermined search width r for example, 272 pixels
- Y coordinate vertical position
- X coordinate horizontal position
- SAD difference calculation
- I is an image block (eg, 16 ⁇ 16 pixels) in the reference image P ref
- T is an image block in the reference block image PB
- i and j are coordinates within the image block.
- the reference position of the reference image P ref is shifted from the left end by one pixel and compared with all images of the search width r. If the width r is 272 pixels, the block image comparison operation is performed 256 times to search for the position where the SAD value is the smallest.
- the parallax obtained in this manner is obtained for the entire image.
- the distance to the image processing apparatus 100 can be measured according to the principle of triangulation.
- the distance Z is calculated from the parallax d by the following equation 2.
- Equation 2 f is the focal length of the left and right cameras, and B is the distance (baseline length) between the right camera 1R and the left camera 1L.
- FIG. 4 shows an example of detailed operations of the search range determination unit 4 and the second parallax image generation unit 5.
- step S12 in FIG. corresponds to the flow that determines
- the right image P R and the left image P L are given X coordinates from left to right in the horizontal direction and Y coordinates from top to bottom in the vertical direction.
- the right image PR and the left image PL are reduced by the image reducing unit 2 to become a right reduced image SR and a left reduced image SL .
- the reduction ratio is set to 1/4.
- the first parallax image generator 3 receives the reduced right image SR and the reduced left image SL and generates a first parallax image D1 through neural network processing.
- the start position s of the search range is obtained by subtracting a fixed value from the parallax value A by the subtractor 41, and the end position e of the search range is obtained by adding the fixed value to the parallax value A by the adder .
- the fixed value be 10 for example.
- the four pixels (A1, A2, A3, A4) of the second parallax image D2 corresponding to the position of the parallax value A are the effective parallax values because the block matching search range is limited to the vicinity of the effective parallax value.
- the parallax value is close to or the same as the parallax value A, and there is a high possibility that it will be an effective parallax value.
- the number of block matching operations for calculating the parallax of one pixel is only 20. In a general block matching method (FIG. 3), the search range is fixed and, for example, 256 SAD calculations are required.
- FIG. 5 shows another example of detailed operations of the search range determination unit 4 and the second parallax image generation unit 5.
- step S12 of FIG. This corresponds to the flow for determining the search range for block matching. Differences from FIG. 4 will be described below.
- the first parallax image generation unit 3 calculates parallax by neural network calculation.
- the neural network performs convolution operation processing, and a feature map M is generated as a result.
- a feature amount tends to be large in a portion of an image in which the change in pixel value is large.
- the image area R1 is an image of only the road surface, so the feature amount is small, and the distance in this area is almost the same, so the parallax value is also an approximate value.
- the image region R2 includes the road surface, a portion of the preceding vehicle V, and a traffic sign, and a plurality of objects overlap, resulting in a large feature amount. Since the forward vehicle V, the road surface, and the traffic sign in the image area R2 have different distances and different parallaxes, it is necessary to prevent the parallax in the image area R2 from being an approximate value.
- the four pixels (pixel values A1, A2, A3, A4) of the second parallax image D2 corresponding to the pixel value A of the first parallax image D1 are all approximate values of the parallax value A. Therefore, if there is a boundary between a distant object and a near object among these four pixels, there is a possibility that the parallax value A is not an approximation.
- a subtractor 43 and an adder 44 for the feature map M which have the same functions as those of the subtractor 41 and the adder 42 for the first parallax image D1, are provided so that the feature map M shows In areas where the feature amount is small, the search range is widened so that the correct parallax can be calculated.
- the second parallax image generation unit 5 is processing the portion corresponding to the pixel of A in the first parallax image D1
- the value of the i pixel of the feature map M is set to the starting position s of the search range. and add to the end position e.
- the pixel v of the feature map M is used. By doing so, it is possible to expand the search range for portions where the feature amount is small, and it becomes possible to calculate correct parallax.
- the effective parallax is calculated from the reduced image by the neural network, and the parallax of the image before reduction at the position corresponding to the effective parallax is the same value as the effective parallax or an approximate value. Since calculation is performed by the block matching method so that , the effective parallax of the image before reduction can be increased while reducing the amount of calculation of the neural network.
- Example 2 Next, the image processing apparatus of Example 2 will be described with reference to FIGS. 7 and 8. FIG. It should be noted that redundant description of the points in common with the first embodiment will be omitted.
- FIG. 7 is a functional block diagram of the image processing apparatus 100 according to the second embodiment, which differs from the first embodiment in that the first parallax image D1 is used when the recognition processing unit 6 recognizes the road surface.
- the recognition processing unit 6 detects a forward vehicle V or an obstacle, it is necessary to determine whether they exist on the road surface.
- the recognition processing of the road surface (software processing) is the generation processing of the second parallax image D2 (hardware processing). processing) can be performed in parallel, and the processing speed of the entire system can be increased.
- FIG. 8 shows a flowchart when the recognition processing unit 6 uses the first parallax image D1 when recognizing the height of the road surface.
- the recognition processing unit 6 performs recognition processing of the height of the road surface using the first parallax image D1 (step S21), and concurrently generates the second parallax image.
- a second parallax image D2 is generated in the unit 5 (step S22).
- the recognition processing unit 6 uses the second parallax image D2 to detect the forward vehicle V and obstacles on the road (step S23). In this case, compared to the case where the recognition processing unit 6 performs all processing using the second parallax image D2, the processing speed of the entire system can be increased.
- Example 3 Next, the image processing apparatus of Example 3 will be described using FIG. It should be noted that redundant description of the points in common with the above embodiment will be omitted.
- FIG. 9 is a functional block diagram of an image processing apparatus 100 according to the third embodiment, which is different from the first embodiment in that a parallax accuracy reduction area detection unit 7 is added.
- the parallax accuracy reduction area detection unit 7 discriminates an image area in which the first parallax image generation unit 3 may not generate a correct parallax. D1 and part of the feature map M are invalidated. For example, when the wiper is reflected in part of the right image PR and the left image PL during rainy weather, an accurate parallax cannot be calculated from the image of the wiper portion.
- the first parallax image generator 3 is notified to output invalid parallax for such a portion.
- Example 4 Next, the image processing apparatus of Example 4 will be described using FIG. It should be noted that redundant description of the points in common with the above embodiment will be omitted.
- FIG. 10 shows a flowchart of a method for changing the reduction magnification of the image reduction unit 2 according to the processing position of the image.
- the lower part of the road surface image is closer to the camera than the upper part of the road surface image, so the road width is wider and the object is larger. be filmed. Therefore, it is conceivable that the parallax can be calculated without any problem even if the magnification of the reduction is small on the lower side of the image.
- the photographed image is vertically divided into two parts, and the image is reduced by changing the reduction ratio according to the Y-coordinate value of the two parts, and the processing of the first parallax image generation unit 3 is performed. Specifically, the Y coordinates of the left and right images are checked (step S40). Set (step S41). On the other hand, if the Y coordinate is smaller than the predetermined value (on the upper side of the image where there is a high possibility that the image is taken far away), the reduction ratio is set to 1/4 (step S42).
- the image reduction unit 2 generates reduced images at the reduction ratios set in steps S41 and S42 (step S43), and the first parallax image generation unit 3 uses the left and right reduced images with different reduction ratios for the upper and lower sides.
- a one-parallax image D1 and a feature map M are generated. By doing so, the amount of calculation can be reduced by the amount of reduction in the reduction ratio of the image.
- Example 5 Next, the image processing apparatus of Example 5 will be described using FIG. It should be noted that redundant description of the points in common with the above embodiment will be omitted.
- FIG. 11 is a flowchart for changing the fixed value that determines the search range according to the processing position of the image.
- the lower side of the road surface image is photographed in the near area
- the upper side of the road surface image is photographed in the distant area.
- Equation 2 since parallax is inversely proportional to distance, the difference of 1 in the parallax value is about several tens of centimeters of distance at the short distance, but the difference of 1 in the far distance is the number of distances. The difference is m. Therefore, in order to bring the accuracy of the second parallax image D2 close to that of the first parallax image D1, it is desirable to change the search range according to the distance.
- the fixed value is changed to 5 to determine the search range, and the second parallax image generation unit 5 generates the second parallax image D2.
- the fixed value is set to 10.
- the fixed value is set to 5 (step S52).
- the search range determination unit 4 determines the search range using the fixed values set in steps S51 and S52 (step S53), and the second parallax image generation unit 5 uses search regions having different widths in the upper and lower directions to obtain the second parallax image. Generate image D2. By doing so, the amount of calculation can be reduced by the amount of the reduced width of the search range.
- the present invention is not limited to the above-described embodiments, and includes various modifications.
- the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations.
- it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.
- 100 image processing device, 1L: left camera, 1R: right camera, 2: image reduction unit, 3: first parallax image generation unit, 4: search range determination unit, 41, 43: subtractor, 42, 44: addition device, 5: second parallax image generator, 51: SAD calculator, 6: recognition processor, 7: parallax accuracy reduced area detector, PL : left image, PR : right image, PB : reference reference block Image, P B ': reference block image, S R : right reduced image, S L : left reduced image, D1: first parallax image, D2: second parallax image, M: feature map
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、複数のカメラを用いて車外の障害物を認識する画像処理装置、および、画像処理方法に関する。 The present invention relates to an image processing device and an image processing method for recognizing obstacles outside the vehicle using a plurality of cameras.
車両の走行安全性を向上させるために、車載の前方監視センサで車両前方の障害物を検知し、車両がその障害物に衝突する可能性がある場合は、ドライバへ警報したり、自動ブレーキをかけたりするシステムがある。 In order to improve the driving safety of the vehicle, an on-vehicle forward monitoring sensor detects obstacles in front of the vehicle, and if there is a possibility of the vehicle colliding with the obstacle, the driver is warned and automatic braking is applied. There is a system to hang.
そのようなシステムで使用される前方監視センサとしては、ミリ波レーダーやレーザレーダの他、カメラがある。カメラの種類としては、単眼カメラと、複数のカメラを使用したステレオカメラがある。ステレオカメラは、所定の間隔の2つのカメラで撮影された重複領域の視差を利用して、撮影された物体までの距離を計測することができる。このため、前方の物体との衝突危険度を的確に把握することができる。 Forward monitoring sensors used in such systems include millimeter-wave radar, laser radar, and cameras. Camera types include a monocular camera and a stereo camera using multiple cameras. The stereo camera can measure the distance to the photographed object by using the parallax of the overlapping area photographed by two cameras spaced at a predetermined distance. Therefore, it is possible to accurately grasp the degree of risk of collision with an object in front.
ステレオカメラは、2つのカメラで撮影された画像の視差を求めて、その視差を距離に変換する。計測距離が遠方になるにつれ、視差が小さくなるという特徴がある。そして、視差の演算方式としてブロックマッチングによって左右画像の対応付けをチェックする方式が知られている。 The stereo camera obtains the parallax of the images shot by the two cameras and converts the parallax into distance. There is a feature that the parallax becomes smaller as the measurement distance becomes farther. As a parallax calculation method, a method of checking correspondence between left and right images by block matching is known.
しかし、ブロックマッチング方式の視差演算方式には、テクスチャが少ない画像では有効な視差が減少し視差の精度が低下するという課題があるため、最近では、ブロックマッチング方式を代替する方式として、ニューラルネットワークによって視差を演算する方式が開発されている。 However, the parallax calculation method of the block matching method has the problem that the effective parallax decreases in images with little texture and the accuracy of the parallax decreases. Methods for computing parallax have been developed.
例えば、特許文献1の要約書では、課題として「距離画像中の誤マッチング領域における視差値を補正可能な技術を提供する。」と記載されており、解決手段として「車両10に搭載される距離画像生成装置110は、ステレオカメラ122で撮影された左右の撮像画像を基準画像及び対比画像として用いて、基準画像に存在する物体までの距離を表す距離画像を生成する距離画像生成部111と、ニューラルネットワークを用いて、距離画像と比較するための対照画像を生成する対照画像生成部112と、基準画像において画像の特徴量が予め定められた閾値以下となる領域に対応する距離画像における補正領域を検出する補正領域検出部113と、補正領域の各画素の持つ距離情報を、対照画像における補正領域の対応部分の情報に応じて補正する補正部114と、を備える。」と記載されている。すなわち、特許文献1では、画像の一部(走行路面など特徴量が少ない部分)にニューラルネットワーク方式の視差演算を適用する方法が提案されている。
For example, in the abstract of
特許文献1のニューラルネットワーク方式は、ブロックマッチング方式の課題を改善し、テクスチャの少ない画像からも高精度の有効視差を演算できる反面、演算量が膨大になるという課題がある。
The neural network method of
本発明は、複数のカメラを使用した画像処理装置において、ニューラルネットワークによる視差を演算量を減らして演算し、その視差をベースにしてブロックマッチングによって画像全体の有効視差を増やし高精度な視差画像を入力画像全域で生成することを目的とする。 In an image processing apparatus using a plurality of cameras, the present invention calculates parallax by a neural network by reducing the amount of calculation, and based on the parallax, increases the effective parallax of the entire image by block matching, and creates a highly accurate parallax image. The purpose is to generate the entire input image.
上記課題を解決するため本発明は、2つの入力画像を縮小して2つの縮小画像を生成する画像縮小部と、ニューラルネットワーク処理によって前記2つの縮小画像の視差を求め、縮小視差画像を生成する第1視差画像生成部と、一方の前記入力画像の一部の領域がマッチングする領域を他方の前記入力画像の中から求めることで、前記2つの入力画像の視差を求め視差画像を生成する第2視差画像生成部を有し、前記第2視差画像生成部は、前記縮小視差画像の各画素が対応する前記入力画像の各領域に対して、当該縮小視差画像の各画素の視差値をもとに、前記マッチングする領域を求めるときの探索範囲を設定する。 In order to solve the above-mentioned problems, the present invention provides an image reduction unit that reduces two input images to generate two reduced images, and obtains parallax between the two reduced images by neural network processing to generate reduced parallax images. A first parallax image generating unit and a first parallax image generation unit that obtains a parallax between the two input images by obtaining a region matching a partial region of one of the input images from the other input image, thereby generating a parallax image. A two-parallax image generation unit is provided, and the second parallax image generation unit generates a parallax value of each pixel of the reduced parallax image for each region of the input image corresponding to each pixel of the reduced parallax image. and set the search range for finding the matching area.
本発明によれば、縮小画像からニューラルネットワークによって有効視差を演算し、前記有効視差と対応する位置の縮小前の画像の視差をその有効視差と同値または近似値となるようにブロックマッチング方式で演算するため、ニューラルネットワークの演算量を削減しつつ、縮小前の画像の有効な視差を増やすことができる。 According to the present invention, an effective parallax is calculated from a reduced image by a neural network, and a block matching method is used to calculate the parallax of an image before reduction at a position corresponding to the effective parallax so that it is equal to or approximates the effective parallax. Therefore, it is possible to increase the effective parallax of the image before reduction while reducing the computation amount of the neural network.
以下、図面等を用いて、本発明の実施形態について説明する。なお、以下の説明は本発明の内容の具体例を示すものであり、本発明がこれらの説明に限定されるものではなく、本明細書に開示される技術的思想の範囲内において当業者による様々な変更および修正が可能である。また、本発明を説明するための全図において、同一の機能を有するものは、同一の符号を付け、その繰り返しの説明は省略する場合がある。 Hereinafter, embodiments of the present invention will be described using drawings and the like. The following description shows specific examples of the contents of the present invention, and the present invention is not limited to these descriptions. Various changes and modifications are possible. In addition, in all the drawings for explaining the present invention, parts having the same functions are denoted by the same reference numerals, and repeated explanations thereof may be omitted.
図1は、本発明の実施例1に係る画像処理装置100の機能ブロック図である。ここに示すように、画像処理装置100は、右カメラ1R、左カメラ1L、画像縮小部2、第1視差画像生成部3、探索範囲決定部4、第2視差画像生成部5、認識処理部6を備えている。なお、右カメラ1Rと左カメラ1Lは、必ずしもステレオカメラの左右カメラである必要は無く、左右に配置した一対の単眼カメラの夫々を右カメラ1Rや左カメラ1Lとして利用しても良い。また、画像縮小部2から認識処理部6は、例えば、CPU等の演算装置、半導体メモリ等の記憶装置、および、通信装置などのハードウェアを備えたコンピュータにおいて、演算装置が記憶装置内の所定プログラムを実行して実現した機能部であるが、以下では、このようなコンピュータ分野の周知技術を適宜省略しながら、各部の詳細を説明する。
FIG. 1 is a functional block diagram of an image processing apparatus 100 according to
図1に示すように、右カメラ1Rと左カメラ1Lで撮影された画像はそれぞれ右画像PR、左画像PLとして画像縮小部2に転送される。画像縮小部2は入力された左右画像を縮小し、右縮小画像SRと左縮小画像SLを生成する。画像を縮小する理由は第1視差画像生成部3での演算量を削減するためであり、システムで許容される第1視差画像生成部3の処理時間に応じて縮小率は決定される。第1視差画像生成部3は、右縮小画像SRと左縮小画像SLを入力としてニューラルネットワーク処理により第1視差画像D1(縮小視差画像)と、特徴マップMを生成する。
As shown in FIG. 1, images captured by the
探索範囲決定部4は、第1視差画像D1と特徴マップMを使用して、第2視差画像生成部5の探索範囲を決定する。第2視差画像生成部5は、ブロックマッチング方式によって右画像PRと左画像PLの2つの画像から第2視差画像D2を生成するものであり、ブロックマッチングの探索範囲は探索範囲決定部4に従う。第2視差画像D2は、縮小される前の画像から視差が生成されるため、第1視差画像D1よりも高密度な視差画像である。認識処理部6は、第2視差画像D2と右画像PRを使用して前方車両、歩行者、障害物などを認識処理する。そして、認識処理部6の認識結果が、車両の駆動系、制動系、操舵系等を制御するECU(図示せず)に入力されることで、必要に応じて、ドライバへ警報したり、自動ブレーキをかけたりすることができる。
The search
図2は、本実施例の画像処理装置100の画像処理の概要を説明するフローチャートである。 FIG. 2 is a flowchart for explaining an outline of image processing of the image processing apparatus 100 of this embodiment.
まず、ステップS10では、画像縮小部2は、左右カメラから入力された右画像PR、左画像PLを縮小し、右縮小画像SRと左縮小画像SLを生成する。
First, in step S10, the
次に、ステップS11では、第1視差画像生成部3が、右縮小画像SRと左縮小画像SLを入力としてニューラルネットワーク処理により第1視差画像D1と、特徴マップMを生成する。
Next, in step S11, the first
ステップS12では、探索範囲決定部4が、第1視差画像D1を使用して、または、第1視差画像D1と特徴マップMを使用して、第2視差画像生成部5の探索範囲を決定する。なお、第1視差画像D1を使用する方法の詳細については図4で説明し、第1視差画像D1と特徴マップMを使用する方法の詳細については図5で説明する。
In step S12, the search
ステップS13では、第2視差画像生成部5が、探索範囲決定部4が決定した探索範囲によるブロックマッチング方式によって、右画像PRと左画像PLの2つの画像から第2視差画像D2を生成する。なお、ブロックマッチング方式の詳細については図3で説明する。
In step S13, the second
ステップS14では、認識処理部6が、第2視差画像D2と右画像PRを使用して前方車両、歩行者、障害物などを認識処理する。 In step S14, the recognition processing section 6 uses the second parallax image D2 and the right image PR to perform recognition processing of forward vehicles, pedestrians, obstacles, and the like.
図3は、一般的なブロックマッチング方式による視差演算処理を例示したものである。この例では、右カメラ1Rが撮影した右画像PRを基準画像とし、例えば16画素×16画素(サイズはこの例に限るものではない)のような基準ブロック画像PBを定義する。そして、左カメラ1Lが撮影した左画像PLの中で、基準ブロック画像PBと同じ縦位置(Y座標)と横位置(X座標)を基準として、所定の探索幅r(例えば272画素)の参照画像Prefを選択する。その後、基準ブロック画像PBと参照画像Prefの差分を計算する。この差分計算はSADと呼ばれ、次の式1により計算を行う。
FIG. 3 illustrates parallax calculation processing by a general block matching method. In this example, the right image PR captured by the
なお、式1において、Iは参照画像Pref中の画像ブロック(例:16×16画素)、Tは基準ブロック画像PB中の画像ブロックであり、i、jは画像ブロック内の座標である。1つの視差を演算するために、参照画像Prefの参照位置を左端から1画素ずつずらしながら探索幅rの全ての画像と比較するため、基準ブロック画像PBの幅が16画素であり、探索幅rが272画素であれば、256回のブロック画像の比較演算を行い、最もSAD値が小さくなる位置を探索する。
In
図3の、車両の前方窓から見た実際の風景には、路面を走行する前方車両Vがある。右カメラ1Rで撮影した右画像PRと、左カメラ1Lで撮影した左画像PLがある時、前方車両Vの一部V1は、右画像PRでは基準ブロック画像PBの位置に撮影され、左画像PLでは参照ブロック画像PB’の位置に撮影される。この結果、基準ブロック画像PBと参照ブロック画像PB’のSAD値は視差dの位置で最小になる。この視差dは、前方車両Vが画像処理装置100に近い場合は大きい値となり、遠いものは小さい値となる。このように求めた視差を、画像全体で求める。この視差dを用いて、三角測量の原理で画像処理装置100までの距離を測定することが出来る。視差dから距離Zは次の式2で求められる。
In the actual scenery seen from the front window of the vehicle in FIG. 3, there is a forward vehicle V running on the road surface. When there are a right image PR captured by the right camera 1R and a left image PL captured by the
但し、式2において、fは左右カメラの焦点距離、Bは右カメラ1Rと左カメラ1Lの距離(基線長)である。
However, in
<探索範囲決定部4と第2視差画像生成部5の詳細動作の一例>
図4は、探索範囲決定部4と第2視差画像生成部5の詳細動作の一例を示したものであり、図2のステップS12にて、第1視差画像D1に基づいてブロックマッチングの探索範囲を決定するフローに相当する。
<Example of Detailed Operations of Search
FIG. 4 shows an example of detailed operations of the search
図4に示すように、右画像PRと左画像PLには、横方向の左から右に向けてX,縦方向の上から下に向けてYとして座標が付けられている。右画像PRと左画像PLは画像縮小部2により縮小され右縮小画像SRと左縮小画像SLとなる。ここでは例として縮小の倍率を1/4としている。次に第1視差画像生成部3が、右縮小画像SRと左縮小画像SLを入力としてニューラルネットワーク処理により第1視差画像D1を生成する。この例では画像の縮小の倍率が1/4であるため、第1視差画像D1の視差値Aの画素は右画像PRのX座標=0とY座標=0、X座標=0とY座標=1、X座標=1とY座標=0、X座標=1とY座標=1の4画素の位置に対応する画素である。
As shown in FIG. 4, the right image P R and the left image P L are given X coordinates from left to right in the horizontal direction and Y coordinates from top to bottom in the vertical direction. The right image PR and the left image PL are reduced by the
探索範囲決定部4は、第2視差画像生成部5のブロックマッチングの範囲を第1視差画像D1によって決定する。例えば、第2視差画像生成部5が右画像PRのX座標=0とY座標=0、X座標=0とY座標=1、X座標=1とY座標=0、X座標=1とY座標=1の4画素の視差を生成するときは、それらに対応する第1視差画像D1のX座標=0とY座標=0の視差値であるAを基準にして探索範囲を決定する。具体的には探索範囲の開始位置sは視差値Aから減算器41で固定値を減算した値、探索範囲の終了位置eは視差値Aに加算器42で固定値を加算した値とする。固定値は例えば10とする。これにより視差値Aの位置に対応する第2視差画像D2の4画素(A1,A2,A3,A4)は、ブロックマッチングの探索範囲が有効視差値付近に限定されるため、有効視差値である視差値Aと近似または同値の視差値となり、有効視差値となる可能性が高い。また、1画素の視差を演算するブロックマッチングの回数は20回で済む。一般的なブロックマッチング方式(図3)では探索範囲が固定であり例えば256回のSAD演算となるが、本方式ではブロックマッチングの演算量が1/8以下となる。
The search
<探索範囲決定部4と第2視差画像生成部5の詳細動作の他例>
図5は、探索範囲決定部4と第2視差画像生成部5の詳細動作の他例を示したものであり、図2のステップS12にて、第1視差画像D1と特徴マップMに基づいてブロックマッチングの探索範囲を決定するフローに相当する。以下、図4との相違点を説明する。
<Other Examples of Detailed Operations of Search
FIG. 5 shows another example of detailed operations of the search
第1視差画像生成部3は、ニューラルネットワーク方式の演算により視差を演算する。ニューラルネットワークでは畳み込み演算の処理が行われ、その結果として特徴マップMが生成される。画像の中で画素値の変化が大きい部分は特徴量も大きくなる傾向にある。例えば、図6に示すように、画像領域R1は路面だけの画像のため特徴量が少なく、この領域の距離はほぼ同じであるため視差値も近似値となる。一方、画像領域R2は路面と前方車両Vの一部と交通標識が含まれており、複数の物体が重なっており特徴量が大きくなる。この画像領域R2の前方車両V、路面、交通標識はそれぞれ距離が異なるため視差も異なるため、この画像領域R2内の視差を近似値にならないようにする必要がある。
The first parallax
図4では第1視差画像D1の画素値Aに対応する第2視差画像D2の4画素(画素値A1、A2、A3、A4)は、いずれも視差値Aの近似値である。このため、この4画素の中で遠方と近傍の物体の境界がある場合は、視差値Aとは近似ではない視差である可能性がある。 In FIG. 4, the four pixels (pixel values A1, A2, A3, A4) of the second parallax image D2 corresponding to the pixel value A of the first parallax image D1 are all approximate values of the parallax value A. Therefore, if there is a boundary between a distant object and a near object among these four pixels, there is a possibility that the parallax value A is not an approximation.
これに対し、図5では、第1視差画像D1に対する減算器41、加算器42と同様の機能を担う、特徴マップM用の減算器43、加算器44を設けることで、特徴マップMが示す特徴量が小さい部分においては探索範囲をより広くして、正しい視差を演算できるようにした。具体的には、第2視差画像生成部5が第1視差画像D1のAの画素に対応する部分の処理を行っている場合は、特徴マップMのi画素の値を探索範囲の開始位置sから減算し、終了位置eに加算する。第1視差画像D1のBの画素に対応する部分を処理する場合は、特徴マップMの画素vを使用する。このようにすることで、特徴量が小さい部分は探索範囲を拡大することが可能となり、正しい視差が演算可能となる。
On the other hand, in FIG. 5, a
以上で説明した本実施例の画像処理装置によれば、縮小画像からニューラルネットワークによって有効視差を演算し、前記有効視差と対応する位置の縮小前の画像の視差をその有効視差と同値または近似値となるようにブロックマッチング方式で演算するため、ニューラルネットワークの演算量を削減しつつ、縮小前の画像の有効な視差を増やすことができる。 According to the image processing apparatus of the present embodiment described above, the effective parallax is calculated from the reduced image by the neural network, and the parallax of the image before reduction at the position corresponding to the effective parallax is the same value as the effective parallax or an approximate value. Since calculation is performed by the block matching method so that , the effective parallax of the image before reduction can be increased while reducing the amount of calculation of the neural network.
次に、図7と図8を用いて、実施例2の画像処理装置を説明する。なお、実施例1との共通点については重複説明を省略する。 Next, the image processing apparatus of Example 2 will be described with reference to FIGS. 7 and 8. FIG. It should be noted that redundant description of the points in common with the first embodiment will be omitted.
図7は、実施例2に係る画像処理装置100の機能ブロック図であり、実施例1との相違は、認識処理部6での路面認識時に、第1視差画像D1を使用する点である。認識処理部6では、前方車両Vや障害物を検知する場合、それらが路面上に存在するのかを判定する必要がある。例えば、第1視差画像生成と第2視差画像生成をハードウェアで処理し、認識処理をソフトウエアで処理する場合、路面の認識処理(ソフトウェア処理)を第2視差画像D2の生成処理(ハードウェア処理)と並列に処理が可能となり、システム全体の処理の高速化を図ることができる。 FIG. 7 is a functional block diagram of the image processing apparatus 100 according to the second embodiment, which differs from the first embodiment in that the first parallax image D1 is used when the recognition processing unit 6 recognizes the road surface. When the recognition processing unit 6 detects a forward vehicle V or an obstacle, it is necessary to determine whether they exist on the road surface. For example, when the first parallax image generation and the second parallax image generation are processed by hardware, and the recognition processing is processed by software, the recognition processing of the road surface (software processing) is the generation processing of the second parallax image D2 (hardware processing). processing) can be performed in parallel, and the processing speed of the entire system can be increased.
図8は、認識処理部6で路面の高さの認識時に第1視差画像D1を使用するときのフローチャートを示したものである。まず、第1視差画像D1を生成したあと(ステップS20)、認識処理部6は第1視差画像D1で路面の高さの認識処理を行い(ステップS21)、それと並行して第2視差画像生成部5で第2視差画像D2を生成する(ステップS22)。その後、認識処理部6で第2視差画像D2を用いて路上の前方車両Vや障害物の検知を行う(ステップS23)。この場合、認識処理部6がすべての処理を第2視差画像D2で処理する場合に比べて、システム全体の処理の高速化を図ることができる。 FIG. 8 shows a flowchart when the recognition processing unit 6 uses the first parallax image D1 when recognizing the height of the road surface. First, after generating the first parallax image D1 (step S20), the recognition processing unit 6 performs recognition processing of the height of the road surface using the first parallax image D1 (step S21), and concurrently generates the second parallax image. A second parallax image D2 is generated in the unit 5 (step S22). Thereafter, the recognition processing unit 6 uses the second parallax image D2 to detect the forward vehicle V and obstacles on the road (step S23). In this case, compared to the case where the recognition processing unit 6 performs all processing using the second parallax image D2, the processing speed of the entire system can be increased.
次に、図9を用いて、実施例3の画像処理装置を説明する。なお、上記実施例との共通点については重複説明を省略する。 Next, the image processing apparatus of Example 3 will be described using FIG. It should be noted that redundant description of the points in common with the above embodiment will be omitted.
図9は、実施例3に係る画像処理装置100の機能ブロック図であり、実施例1との相違は、視差精度低下エリア検知部7を追加した点である。この視差精度低下エリア検知部7は、第1視差画像生成部3で正しい視差が生成されない恐れがある画像エリアを判別し、第1視差画像生成部3はそのエリアに相当する、第1視差画像D1と特徴マップMの一部を無効設定する。例えば雨天時に右画像PRと左画像PLの一部にワイパーが映り込んでいる場合などは、ワイパー部分の画像からは正確な視差が演算できない。このような部分は無効視差を出力するように第1視差画像生成部3に通知する。視差精度低下エリア検知部7の検知方法としては、画像の一部の輝度値が他の部分に比べて極端に暗くなっている状態を判定するなどの方式がある。
FIG. 9 is a functional block diagram of an image processing apparatus 100 according to the third embodiment, which is different from the first embodiment in that a parallax accuracy reduction area detection unit 7 is added. The parallax accuracy reduction area detection unit 7 discriminates an image area in which the first parallax
次に、図10を用いて、実施例4の画像処理装置を説明する。なお、上記実施例との共通点については重複説明を省略する。 Next, the image processing apparatus of Example 4 will be described using FIG. It should be noted that redundant description of the points in common with the above embodiment will be omitted.
図10は、画像の処理位置に応じて画像縮小部2の縮小の倍率を変更する方式のフローチャートを示したものである。例えば図3のような実際の風景が撮影された画像とした場合、路面の画像の下側部分は路面の画像の上側部分に比べてカメラから近距離になるので道路幅は広くなり物体は大きく撮影される。従って、画像の下側では縮小の倍率を小さくしても問題なく視差を演算できると考えられる。
FIG. 10 shows a flowchart of a method for changing the reduction magnification of the
図10のフローチャートでは、撮影画像を上下に2分割して、その2分割したY座標の値に応じて縮小率を変えて画像を縮小し、第1視差画像生成部3の処理を行う。具体的には、左右画像のY座標を確認し(ステップS40)、Y座標が所定値以上であれば(近傍を撮影している可能性の高い画像下側では)縮小率を1/8に設定する(ステップS41)。一方、Y座標が所定値より小さければ(遠方を撮影している可能性の高い画像上側では)縮小率を1/4に設定する(ステップS42)。そして、画像縮小部2は、ステップS41,42で設定した縮小率で縮小画像を生成し(ステップS43)、第1視差画像生成部3は上下で縮小率の異なる左右の縮小画像を用いて第1視差画像D1や特徴マップMを生成する。このようにすることにより、画像の縮小の倍率を小さくした分だけ、演算量を削減できる。
In the flowchart of FIG. 10, the photographed image is vertically divided into two parts, and the image is reduced by changing the reduction ratio according to the Y-coordinate value of the two parts, and the processing of the first parallax
次に、図11を用いて、実施例5の画像処理装置を説明する。なお、上記実施例との共通点については重複説明を省略する。 Next, the image processing apparatus of Example 5 will be described using FIG. It should be noted that redundant description of the points in common with the above embodiment will be omitted.
図11は、画像の処理位置に応じて探索範囲を決定する固定値を変更するフローチャートである。上述したように、路面画像の下側は近傍が撮影され、路面画像の上側は遠方部が撮影される。式2に示すように視差は距離に応じて反比例するため、近距離部では視差値の1の差は距離の数十cmの差程度であるが遠方では視差値の1の差は距離の数mの差となる。従って、第2視差画像D2の精度を第1視差画像D1に近づけるためには、探索範囲も距離に応じて変更する方が望ましい。そこで路面の画像を処理するときは、Y座標が所定のY座標よりも小さいときは固定値を5に変更して探索範囲を決定し、第2視差画像生成部5で第2視差画像D2を生成する。具体的には、左右画像のY座標を確認し(ステップS50)、Y座標が所定値以上であれば(近傍を撮影している可能性の高い画像下側では)固定値を10に設定する(ステップS51)。一方、Y座標が所定値より小さければ(遠方を撮影している可能性の高い画像上側では)固定値を5に設定する(ステップS52)。そして、探索範囲決定部4は、ステップS51,52で設定した固定値で探索範囲を決定し(ステップS53)、第2視差画像生成部5は上下で幅の異なる探索領域を用いて第2視差画像D2を生成する。このようにすることにより、探索範囲の幅を小さくした分だけ、演算量を削減できる。
FIG. 11 is a flowchart for changing the fixed value that determines the search range according to the processing position of the image. As described above, the lower side of the road surface image is photographed in the near area, and the upper side of the road surface image is photographed in the distant area. As shown in
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 It should be noted that the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. In addition, it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Moreover, it is possible to add, delete, or replace a part of the configuration of each embodiment with another configuration.
100:画像処理装置、1L:左カメラ、1R:右カメラ、2:画像縮小部、3:第1視差画像生成部、4:探索範囲決定部、41、43:減算器、42、44:加算器、5:第2視差画像生成部、51:SAD演算器、6:認識処理部、7:視差精度低下エリア検知部、PL:左画像、PR:右画像、PB:基準参照ブロック画像、PB’:参照ブロック画像、SR:右縮小画像、SL:左縮小画像、D1:第1視差画像、D2:第2視差画像、M:特徴マップ 100: image processing device, 1L: left camera, 1R: right camera, 2: image reduction unit, 3: first parallax image generation unit, 4: search range determination unit, 41, 43: subtractor, 42, 44: addition device, 5: second parallax image generator, 51: SAD calculator, 6: recognition processor, 7: parallax accuracy reduced area detector, PL : left image, PR : right image, PB : reference reference block Image, P B ': reference block image, S R : right reduced image, S L : left reduced image, D1: first parallax image, D2: second parallax image, M: feature map
Claims (9)
ニューラルネットワーク処理によって前記2つの縮小画像の視差を求め、縮小視差画像を生成する第1視差画像生成部と、
一方の前記入力画像の一部の領域がマッチングする領域を他方の前記入力画像の中から求めることで、前記2つの入力画像の視差を求め視差画像を生成する第2視差画像生成部を有し、
前記第2視差画像生成部は、前記縮小視差画像の各画素が対応する前記入力画像の各領域に対して、当該縮小視差画像の各画素の視差値をもとに、前記マッチングする領域を求めるときの探索範囲を設定することを特徴とする画像処理装置。 an image reduction unit that reduces two input images to generate two reduced images;
a first parallax image generation unit that obtains parallax between the two reduced images by neural network processing and generates a reduced parallax image;
a second parallax image generation unit that generates a parallax image by obtaining a parallax between the two input images by obtaining a region matching a partial region of one of the input images from the other input image; ,
The second parallax image generation unit obtains the matching region based on the parallax value of each pixel of the reduced parallax image for each region of the input image corresponding to each pixel of the reduced parallax image. An image processing apparatus characterized by setting a search range for each time.
前記第2視差画像生成部は、対応する位置の前記縮小視差画像と同値または近似値の視差を生成することを特徴とする画像処理装置。 The image processing device according to claim 1,
The image processing device, wherein the second parallax image generation unit generates a parallax equal to or approximate to the reduced parallax image at the corresponding position.
前記第2視差画像生成部は、前記探索範囲内でマッチング処理することを特徴とする画像処理装置。 The image processing device according to claim 1,
The image processing apparatus, wherein the second parallax image generation unit performs matching processing within the search range.
前記第1視差画像生成部が出力する特徴マップの特徴量が多い画素は前記探索範囲を広くすることを特徴とする画像処理装置。 The image processing device according to claim 1,
The image processing apparatus according to claim 1, wherein the search range is widened for pixels having a large feature amount in the feature map output by the first parallax image generation unit.
前記縮小視差画像で路面の高さの認識処理を行い、前記第2視差画像生成部の結果によって前記路面上の物体を認識することを特徴とする画像処理装置。 The image processing device according to claim 1,
An image processing apparatus, wherein recognition processing of the height of a road surface is performed using the reduced parallax image, and an object on the road surface is recognized based on the result of the second parallax image generation unit.
前記第1視差画像生成部が演算する視差の一部に演算できないエリアがあることを前記縮小画像から判定する視差精度低下エリア検知部を持ち、前記視差精度低下エリア検知部が検知した画像領域の視差を無効とすることを示すことを特徴とする画像処理装置。 The image processing device according to claim 1,
A parallax accuracy reduction area detection unit that determines from the reduced image that there is an area that cannot be calculated in a part of the parallax calculated by the first parallax image generation unit, and the image area detected by the parallax accuracy reduction area detection unit. An image processing apparatus characterized by indicating that parallax is invalidated.
前記入力画像の路面の部分で上下に分割して処理するときに、上側の画像の縮小率と下側の画像の縮小率が異なることを特徴とする画像処理装置。 The image processing device according to claim 1,
1. An image processing apparatus, wherein when the input image is divided into upper and lower parts by the road surface portion and processed, the reduction ratio of the upper image is different from the reduction ratio of the lower image.
前記入力画像の路面の部分で上下に分割して処理するときに、前記第2視差画像生成部の探索範囲は、上側の探索範囲より下側の探索範囲が大きいことを特徴とする画像処理装置。 The image processing device according to claim 1,
The image processing device, wherein the search range of the second parallax image generation unit is larger in the lower search range than in the upper search range when the input image is divided into upper and lower parts by the road surface portion for processing. .
ニューラルネットワーク処理によって前記2つの縮小画像の視差を求め、縮小視差画像を生成する第2ステップと、
一方の前記入力画像の一部の領域がマッチングする領域を他方の前記入力画像の中から求めることで、前記2つの入力画像の視差を求め視差画像を生成する第3ステップを有し、
前記第3ステップでは、前記縮小視差画像の各画素が対応する前記入力画像の各領域に対して、当該縮小視差画像の各画素の視差値をもとに、前記マッチングする領域を求めるときの探索範囲を設定することを特徴とする画像処理方法。 a first step of reducing two input images to generate two reduced images;
a second step of obtaining a parallax between the two reduced images by neural network processing and generating a reduced parallax image;
A third step of obtaining a parallax between the two input images by obtaining a region matching a partial region of one of the input images from the other input image, and generating a parallax image;
In the third step, for each region of the input image corresponding to each pixel of the reduced parallax image, a search is performed for obtaining the matching region based on the parallax value of each pixel of the reduced parallax image. An image processing method characterized by setting a range.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE112022003490.4T DE112022003490T5 (en) | 2021-09-13 | 2022-02-07 | IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021-148558 | 2021-09-13 | ||
| JP2021148558A JP7616973B2 (en) | 2021-09-13 | 2021-09-13 | Image processing device and image processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2023037575A1 true WO2023037575A1 (en) | 2023-03-16 |
Family
ID=85507348
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2022/004612 Ceased WO2023037575A1 (en) | 2021-09-13 | 2022-02-07 | Image processing device and image processing method |
Country Status (3)
| Country | Link |
|---|---|
| JP (1) | JP7616973B2 (en) |
| DE (1) | DE112022003490T5 (en) |
| WO (1) | WO2023037575A1 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006038578A (en) * | 2004-07-26 | 2006-02-09 | Toyota Motor Corp | Object detection device |
| JP2012133408A (en) * | 2010-12-17 | 2012-07-12 | Sharp Corp | Image processing device and program |
| WO2018037479A1 (en) * | 2016-08-23 | 2018-03-01 | 株式会社日立製作所 | Image processing device, stereo camera device, and image processing method |
| US20210142095A1 (en) * | 2018-07-25 | 2021-05-13 | Beijing Sensetime Technology Development Co., Ltd. | Image disparity estimation |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7204536B2 (en) | 2019-03-05 | 2023-01-16 | 株式会社Soken | Range image generator |
-
2021
- 2021-09-13 JP JP2021148558A patent/JP7616973B2/en active Active
-
2022
- 2022-02-07 WO PCT/JP2022/004612 patent/WO2023037575A1/en not_active Ceased
- 2022-02-07 DE DE112022003490.4T patent/DE112022003490T5/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006038578A (en) * | 2004-07-26 | 2006-02-09 | Toyota Motor Corp | Object detection device |
| JP2012133408A (en) * | 2010-12-17 | 2012-07-12 | Sharp Corp | Image processing device and program |
| WO2018037479A1 (en) * | 2016-08-23 | 2018-03-01 | 株式会社日立製作所 | Image processing device, stereo camera device, and image processing method |
| US20210142095A1 (en) * | 2018-07-25 | 2021-05-13 | Beijing Sensetime Technology Development Co., Ltd. | Image disparity estimation |
Also Published As
| Publication number | Publication date |
|---|---|
| DE112022003490T5 (en) | 2024-05-16 |
| JP2023041286A (en) | 2023-03-24 |
| JP7616973B2 (en) | 2025-01-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11288833B2 (en) | Distance estimation apparatus and operating method thereof | |
| US11302020B2 (en) | Stereo camera device | |
| US8102427B2 (en) | Camera egomotion estimation from an infra-red image sequence for night vision | |
| US20190276007A1 (en) | Road plane output with lateral slope | |
| US11062153B2 (en) | Apparatus and method for converting image | |
| US10007998B2 (en) | Image processor, apparatus, and control system for correction of stereo images | |
| JP2013190421A (en) | Method for improving detection of traffic-object position in vehicle | |
| US11769267B2 (en) | Object distance measurement apparatus and method | |
| KR20210090384A (en) | Method and Apparatus for Detecting 3D Object Using Camera and Lidar Sensor | |
| JP7371269B2 (en) | Method and device for calibrating camera pitch of a car, and method for continuously learning a vanishing point estimation model for the purpose | |
| US10953885B2 (en) | Road surface detecting apparatus | |
| KR102565603B1 (en) | Performance evaluation apparatus and method for autonomous emergency braking system | |
| CN111052201B (en) | Collision prediction device, collision prediction method, and storage medium | |
| CN110341621B (en) | An obstacle detection method and device | |
| JP6035774B2 (en) | Image processing apparatus, image processing method, and vehicle | |
| EP3540643A1 (en) | Image processing apparatus and image processing method | |
| JP2018036225A (en) | State estimation device | |
| WO2023037575A1 (en) | Image processing device and image processing method | |
| US10783350B2 (en) | Method and device for controlling a driver assistance system by using a stereo camera system including a first and a second camera | |
| US10643077B2 (en) | Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program | |
| JP7064400B2 (en) | Object detection device | |
| Iwata et al. | Forward obstacle detection in a lane by stereo vision | |
| JP7134780B2 (en) | stereo camera device | |
| US20250368480A1 (en) | Step position detection apparatus | |
| KR102681321B1 (en) | Performance evaluation apparatus for highway driving assist system that calculates distance using dual cameras and method thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22866910 Country of ref document: EP Kind code of ref document: A1 |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 22866910 Country of ref document: EP Kind code of ref document: A1 |