JP2003067752A - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring deviceInfo
- Publication number
- JP2003067752A JP2003067752A JP2001258578A JP2001258578A JP2003067752A JP 2003067752 A JP2003067752 A JP 2003067752A JP 2001258578 A JP2001258578 A JP 2001258578A JP 2001258578 A JP2001258578 A JP 2001258578A JP 2003067752 A JP2003067752 A JP 2003067752A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- optical flow
- line
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 画像全体のオプティカルフローを即時、且つ
容易に算出し、これに基づいて、車両周囲の状況を監視
することのできる車両周辺監視装置を提供することが課
題である。
【解決手段】 車両の周辺映像を撮影する連続画像取得
部2と、撮影された画像に基づいて、自車両の走行車線
を認識する走行車線認識部3と、走行車線認識部3より
得られる走行車線データ、及び車両の速度データに基づ
いて、自車両周辺に存在する移動物体のオプティカルフ
ローを算出し、該オプティカルフローに基づいて、移動
物体を抽出するオプティカルフロー算出部5と、を具備
する。そして、オプティカルフロー算出部5は、今回の
フレーム撮影時の画像における所望点の輝度値と、次回
のフレーム撮影時の画像における所望点に対応する点で
の輝度値に基づき、且つ、移動物体の速度変化が滑らか
であることを条件にして作成されるエネルギー汎関数を
用いてオプティカルフローを算出することを特徴とす
る。
(57) [Problem] To provide a vehicle periphery monitoring device capable of immediately and easily calculating an optical flow of an entire image and monitoring a situation around the vehicle based on the calculated flow. . SOLUTION: A continuous image acquiring unit 2 for photographing a surrounding image of a vehicle, a traveling lane recognizing unit 3 for recognizing a traveling lane of an own vehicle based on the photographed image, and traveling obtained by the traveling lane recognizing unit 3. An optical flow calculator that calculates an optical flow of a moving object existing around the own vehicle based on the lane data and the speed data of the vehicle, and extracts the moving object based on the optical flow. Then, the optical flow calculation unit 5 determines the luminance value of the desired point in the image at the time of the current frame shooting and the luminance value at a point corresponding to the desired point in the image of the next frame shooting, and The optical flow is calculated using an energy functional created on condition that the speed change is smooth.
Description
【0001】[0001]
【発明の属する技術分野】本発明は、車両周辺の映像を
撮影し、撮影した情報を運転者に知らせる車両用監視装
置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicular surveillance device for photographing a video image around a vehicle and notifying a driver of the photographed information.
【0002】[0002]
【従来の技術】近年、車両走行時における前方車両、或
いは、車両前方の道路を認識する目的で、車両周辺監視
装置が提案され、実用に供されている。このような車両
周辺監視装置を用いれば、道路左右の仕切線、センター
ライン等の走行車線(白線、或いは黄線)を認識するこ
とができるので、自車と走行車線との位置関係を認識す
ることができ、かつ、前方車両との車間距離を認識する
ことができるので、車両走行時の安全性を向上させるこ
とができる。2. Description of the Related Art In recent years, a vehicle periphery monitoring device has been proposed and put into practical use for the purpose of recognizing a vehicle ahead or a road ahead of the vehicle when the vehicle is traveling. By using such a vehicle periphery monitoring device, it is possible to recognize the driving lanes (white lines or yellow lines) such as the partition lines on the left and right sides of the road, the center line, and the like, and thus to recognize the positional relationship between the vehicle and the driving lane. In addition, since it is possible to recognize the inter-vehicle distance to the vehicle ahead, it is possible to improve the safety when the vehicle is traveling.
【0003】このような車両周辺監視装置では、車両前
方の映像をカメラにて撮影し、画像処理技術を用いて、
撮影された映像に含まれる走行車線を抽出し、仕切線、
或いはセンターラインを認識している。更に、前方車両
の画像を抽出している。In such a vehicle periphery monitoring device, an image of the front of the vehicle is captured by a camera, and image processing technology is used.
The driving lane included in the captured image is extracted, the partition line,
Or it recognizes the center line. Furthermore, the image of the vehicle ahead is extracted.
【0004】動画像処理の一つとして、オプティカルフ
ローによる解析手法が知られている。オプティカルフロ
ーとは、対象物体の動きをベクトルで表現するものであ
り、最も代表的な表現としては、ある1点の動きの方向
とその速度の大きさを矢印の長さで同時に表示するもの
である。An optical flow analysis method is known as one of moving image processing. The optical flow expresses the movement of the target object by a vector, and the most typical expression is to display the movement direction of a certain point and its velocity at the same time with the length of the arrow. is there.
【0005】オプティカルフローの検出方法として、従
来より、相関法、濃度勾配法、フーリエ変換法、時空間
フィルタを用いる手法、及び時空間相関法等の手法が知
られている。ここで、上記の5通りのオプティカルフロ
ー検出方法のうち、実用化に近い段階に達している、相
関法、及び濃度勾配法について説明する。As a method for detecting an optical flow, conventionally known methods include a correlation method, a concentration gradient method, a Fourier transform method, a method using a spatiotemporal filter, and a spatiotemporal correlation method. Here, among the above five optical flow detection methods, the correlation method and the concentration gradient method, which have reached the stage of practical application, will be described.
【0006】<相関法>一つの画像を小領域に分割し、
他の画像でこれとよく似た明るさの分布を見つける相関
法は、動画像において用いられている。具体的には、画
像をある大きさの窓に区切り、連続する時刻における2
つの画像gi-1(x,y),gi(x,y)について、g
i(x,y)をずらしていき、以下に示す(1)式、或
いは(2)式にて最小値を求めることにより、動き量
(ξ,η)を決定する。<Correlation method> One image is divided into small areas,
A correlation method that finds a similar distribution of brightness in other images is used in moving images. Specifically, the image is divided into windows of a certain size, and 2 at consecutive times.
For two images gi-1 (x, y) and gi (x, y), g
The movement amount (ξ, η) is determined by shifting i (x, y) and obtaining the minimum value by the following equation (1) or equation (2).
【0007】
minΣΣ{gi(x−ξ,y−η)−gi-1(x,y)}2 ・・・(1)
minΣΣ|gi(x−ξ,y−η)−gi-1(x,y)| ・・・(2)
相関法は、形状や明るさの分布の変化に弱いという欠点
があるので、画面間でこれらが大きく変化するような変
化速度の速い対象には適用しにくい。しかし、ごく短時
間の2つの画像を入力すると、多くの場合、隣接した画
像間での変化はあまり大きくなく、また、相関はハード
ウェア的な処理も容易であるので、実用的にはよく用い
られている。MinΣΣ {gi (x−ξ, y−η) −gi−1 (x, y)} 2 (1) minΣΣ | gi (x−ξ, y−η) −gi−1 (x , Y) | (2) The correlation method has a drawback in that it is weak against changes in the shape and brightness distribution, so it is difficult to apply it to objects with a rapid change rate such that these change greatly between screens. . However, when two images are input for a very short time, the change between adjacent images is not so large in many cases, and the correlation is easily processed by hardware, so it is often used practically. Has been.
【0008】また、2つの画像から、それぞれの画面で
特徴点を見い出して、照合法により対応をとるという特
徴照合法も用いられている。特徴点としては、エッジ
や、物体の角等を用いることが多い。特徴点が求められ
ると、次に、対応付けを行う。この際、多眼視の場合の
ように強い拘束条件がない。A feature matching method is also used in which feature points are found on each screen from two images and correspondence is made by the matching method. Edges, corners of objects, and the like are often used as the feature points. When the characteristic points are obtained, next, the association is performed. At this time, there is no strong constraint condition as in the case of multiview.
【0009】しかしながら、物体が剛体であると仮定す
ると、ある点の近傍の点では似たような動きをすると考
えられるので、近傍の点における対応関係から、注目す
る点の対応付けを拘束することができる。例えば、複数
の特徴点が同様な動きをすると考えられるので、いくつ
かの対応点の候補から、よく似た動きをしている点を対
応点の候補として選ぶことができる。However, assuming that the object is a rigid body, it is considered that similar movements occur at points in the vicinity of a certain point. Therefore, the correspondence of the points of interest should be restricted from the correspondence of the points in the vicinity. You can For example, since it is considered that a plurality of feature points move in the same manner, it is possible to select a point having a similar movement from several candidates of corresponding points as a candidate of corresponding points.
【0010】このような相関法においては、複数の特徴
点の動きの相関をとり、対応を探索する処理はその組み
合わせが膨大になるため、計算コストがかかるという問
題がある。In such a correlation method, there is a problem that the calculation cost is high because the number of combinations of the processing for obtaining the correlation of the movements of a plurality of characteristic points and searching for the correspondence becomes huge.
【0011】<濃度勾配法>前述の相関法を用いる方法
では、動画像に適用した場合、特徴的な点の対応しかと
れない。そこで、より一層密な点の対応を求める手法と
して時空間微分法が知られている。これは動画像の特徴
を生かした方法で、動画像では「空間的な明るさの勾配
と時間的な明るさの変化は互いに関係がある」という事
実を利用する。<Density Gradient Method> In the method using the correlation method described above, when applied to a moving image, only characteristic points can be dealt with. Therefore, the space-time differential method is known as a method for obtaining a more dense correspondence between points. This is a method that makes the best use of the characteristics of moving images. In moving images, the fact that "the gradient of spatial brightness and the temporal change of brightness are related to each other" is used.
【0012】即ち、ある点(x,y)における2画面間
での移動ベクトルのx,y成分を(u,v)、空間的な
明るさの勾配を(Ex,Ey)、2画面間での明るさの
変化分をEtとすると、以下の(3)式が成立する。That is, the x and y components of the movement vector between the two screens at a certain point (x, y) are (u, v), the spatial brightness gradient is (Ex, Ey), and the two screens are Letting Et be the change in the brightness of, the following expression (3) is established.
【0013】
Ex・u+Ey・v+Et=0 ・・・(3)
ここで、Ex,Ey,Etは画像から計算することがで
き、u,vが求めたい数値である。この式は、テレビ画
像の帯域圧縮の研究で発見されたものであり、理論的に
は、以下のように導くことができる。Ex · u + Ey · v + Et = 0 (3) Here, Ex, Ey, and Et can be calculated from the image, and u and v are numerical values desired to be obtained. This equation was discovered in a study of band compression of television images, and theoretically can be derived as follows.
【0014】いま、画像上の点(x,y)の時刻tにお
ける明るさをE(x,y,t)とし、微少時間Δt後
に、物体がΔx,Δyだけ移動したとする。ここで、物
体上の点の明るさが移動後も変わらないと仮定すると、
以下の(4)式が成り立つ。It is now assumed that the brightness of the point (x, y) on the image at time t is E (x, y, t) and the object has moved by Δx, Δy after a minute time Δt. Here, assuming that the brightness of the point on the object does not change after the movement,
The following expression (4) is established.
【0015】
E(x,y,t)=E(x+Δx,y+Δy,t+Δt) ・・・(4)
ここで、(4)式の右辺をテーラー展開すると、以下の
(5)式を得ることができる。E (x, y, t) = E (x + Δx, y + Δy, t + Δt) (4) Here, if the right side of the equation (4) is Taylor-expanded, the following equation (5) can be obtained. it can.
【0016】[0016]
【数2】
ここで、eはΔx,Δy,Δtの高次の項であるが、こ
れを無視して両辺をΔtで除し、且つΔtを0に近づけ
ると、以下の(6)式を得ることができる。[Equation 2] Here, e is a higher-order term of Δx, Δy, and Δt, but if this is ignored and both sides are divided by Δt, and Δt approaches 0, the following equation (6) can be obtained. .
【0017】[0017]
【数3】
そして、(6)式より、前述の(3)式を導くことがで
きる。[Equation 3] Then, the expression (3) can be derived from the expression (6).
【0018】(3)式は、(u,v)に関する一つの拘
束条件を与えるが、移動ベクトルu,vはこの式から直
ちには得ることはできず、更に他の拘束条件が必要とな
る。The equation (3) gives one constraint condition on (u, v), but the movement vectors u, v cannot be immediately obtained from this formula, and further constraint conditions are required.
【0019】この拘束条件としては、「オプティカルフ
ロー場は画面上で滑らかに変化する」という仮定を用い
て大域最適化法(Global Optimization)や、「局所的
小領域においてオプティカルフロー場は一様である」と
いう仮定を用いた局所最適化法(Local Optimization)
等が知られている。As the constraint condition, the global optimization method (Global Optimization) using the assumption that "the optical flow field changes smoothly on the screen" or "the optical flow field is uniform in a local small area" is used. Local optimization using the assumption "Are"
Etc. are known.
【0020】この手法では、計算コストが膨大となる対
応探索を行わず、比較的簡単な計算によって、画像全体
にわたって1画素以下の精度まで動きを測定することが
可能であるという利点がある。しかし、画像の輝度変化
が時間的、空間的に滑らかであるという仮定が成立する
ことが必要とされ、これが成立しない場合には検出誤差
が大きくなってしまうという欠点がある。This method has an advantage that it is possible to measure the motion to an accuracy of one pixel or less over the entire image by a relatively simple calculation without performing a correspondence search which requires a huge calculation cost. However, it is necessary to satisfy the assumption that the change in the luminance of the image is smooth temporally and spatially, and if this is not the case, the detection error becomes large.
【0021】[0021]
【発明が解決しようとする課題】ここで、安定した前方
車両の特徴を検出するために、画像全体でのオプティカ
ルフローを算出する場合について考える。注目点の周り
に相関窓を設け、フレーム間での相関窓内の輝度の相関
値を計算するという相関法を用いて画像全体の点でオプ
ティカルフローを計算すると、計算量が膨大となってし
まい、実用的ではない。Now, let us consider a case where the optical flow in the entire image is calculated in order to detect the stable characteristics of the forward vehicle. When the optical flow is calculated for all points of the image using the correlation method in which a correlation window is set around the point of interest and the correlation value of the luminance within the correlation window between frames is calculated, the amount of calculation becomes enormous. , Not practical.
【0022】また、濃度勾配法を用いると、比較的簡易
な演算により画像全体のオプティカルフローを算出する
ことが可能であるものの、車両前方画像のように画像の
輝度変化が時間的、空間的に滑らかであるという仮定条
件が適応し難く、且つ、画像内の物体が複雑な動きをす
るという条件下では、濃度勾配法の拘束条件を満たすこ
とが容易ではない。Further, when the density gradient method is used, the optical flow of the entire image can be calculated by a relatively simple calculation, but the brightness change of the image is temporally and spatially changed as in the front image of the vehicle. It is not easy to meet the constraint condition of the density gradient method under the condition that the assumption that it is smooth is difficult to apply and the object in the image makes a complicated motion.
【0023】そこで、画像を荒くスムージングしたり、
輝度変化の連続性が保たれにくい画像のエッジ点を検出
し、その付近に様々な拘束条件を付加する等の適切な処
理を加えなければ、良好なオプティカルフローを算出す
ることができないという問題が生じる。Therefore, the image is roughly smoothed,
There is a problem that a good optical flow cannot be calculated unless an appropriate processing such as detecting edge points of an image in which continuity of brightness change is difficult to be maintained and adding various constraint conditions in the vicinity thereof is added. Occurs.
【0024】この発明は、このような従来の課題を解決
するためになされたものであり、その目的とするところ
は、車両前方の映像を撮影した画像全体のオプティカル
フローを高速に算出し、これに基づいて、車両周辺の状
況を監視することのできる車両周辺監視装置を提供する
ことにある。The present invention has been made in order to solve such a conventional problem, and its object is to quickly calculate the optical flow of the entire image of a video image in front of the vehicle, Based on the above, it is to provide a vehicle periphery monitoring device capable of monitoring the situation around the vehicle.
【0025】[0025]
【課題を解決するための手段】上記目的を達成するた
め、本願請求項1に記載の発明は、車両走行時の周辺映
像を順次撮影し、撮影された画像に基づいて車両周辺の
状況を監視する車両周辺監視装置において、車両の周辺
映像を撮影する画像取得手段と、前記画像取得手段にて
撮影された画像から、走行車線を認識する走行車線認識
手段と、前記走行車線認識手段より得られる走行車線デ
ータと、更に車両の速度データ、及び前記画像取得手段
にて撮影された画像から前記移動物体を抽出するオプテ
ィカルフロー算出手段と、前記オプティカルフロー算出
手段にて抽出された移動物体の状況を、車両の乗員に通
知する通知手段と、を具備し、前記オプティカルフロー
算出手段は、今回のフレーム撮影時の画像における所望
点の輝度値と、次回のフレーム撮影時の画像における前
記所望点に対応する点での輝度値に基づき、且つ、前記
画像取得手段にて撮影される移動物体の速度変化が滑ら
かであることを条件にして作成されるエネルギー汎関数
を用いてオプティカルフローを算出することが特徴であ
る。In order to achieve the above object, the invention according to claim 1 of the present application sequentially captures peripheral images while the vehicle is traveling, and monitors the condition around the vehicle based on the captured images. In the vehicle periphery monitoring device, the image acquisition means for capturing an image around the vehicle, the traveling lane recognition means for recognizing the traveling lane from the image captured by the image acquisition means, and the traveling lane recognition means are obtained. The traveling lane data, the speed data of the vehicle, and the optical flow calculation means for extracting the moving object from the image captured by the image acquisition means, and the status of the moving object extracted by the optical flow calculation means And a notification means for notifying the occupant of the vehicle, wherein the optical flow calculation means is a brightness value at a desired point in the image at the time of the current frame shooting, and An energy pan created based on the brightness value at the point corresponding to the desired point in the image at the time of frame imaging and on the condition that the speed change of the moving object imaged by the image acquisition unit is smooth. The feature is that the optical flow is calculated using a function.
【0026】また、請求項2に記載の発明は、前記オプ
ティカルフロー算出手段は、(13)式に示すエネルギ
ー汎関数E(u,v)を最小とする(u,v)として算
出することを特徴とする。According to the second aspect of the present invention, the optical flow calculating means calculates the energy functional E (u, v) shown in the equation (13) as (u, v) which minimizes the energy functional E (u, v). Characterize.
【0027】請求項3に記載の発明は、前記オプティカ
ルフロー算出手段は、今回撮影時のフレームを含む複数
フレームの画素データの平均値より、第1の平均化フレ
ームを求め、次回撮影時のフレームを含む複数フレーム
の画素データの平均値より、第2の平均化フレームを求
め、前記第1の平均化フレームと、第2の平均化フレー
ムとに基づいて、オプティカルフローを算出することを
特徴とする。According to a third aspect of the present invention, the optical flow calculating means obtains a first averaged frame from an average value of pixel data of a plurality of frames including a frame at the time of current photographing, and a frame at the time of next photographing. A second averaging frame is obtained from an average value of pixel data of a plurality of frames including, and an optical flow is calculated based on the first averaging frame and the second averaging frame. To do.
【0028】請求項4に記載の発明は、前記オプティカ
ルフロー算出手段は、前記第1の平均化フレーム、及び
前記第2の平均化フレームについて、それぞれ、フレー
ムに含まれる複数画素を一画素と見なすことにより、画
像サイズを縮小し、該縮小された画像を1個、または異
なる縮小率で複数個生成し、縮小率が最も高い前記第1
の平均化フレームと、前記第2の平均化フレームとに基
づいてオプティカルフローを算出すると共に、該オプテ
ィカルフローの算出データに基づいて、順次原寸大に近
い縮小率の各平均化フレームのオプティカルフローを算
出する処理を繰り返し、原寸大のオプティカルフローを
算出することを特徴とする。According to a fourth aspect of the present invention, the optical flow calculating means regards a plurality of pixels included in each of the first averaged frame and the second averaged frame as one pixel. As a result, the image size is reduced, one reduced image is generated, or a plurality of reduced images are generated at different reduction ratios.
And the second averaged frame, the optical flow is calculated based on the calculated averaged frame and the second averaged frame. It is characterized in that the calculation process is repeated to calculate a full-scale optical flow.
【0029】請求項5に記載の発明は、前記走行車線認
識手段は、前記画像取得手段にて撮影された画像中の輝
度変化を求めることにより、路面と仕切線との境界とな
るエッジ点を複数個検出し、該複数個のエッジ点に基づ
いて、直線近似処理を行い、自車両の走行車線の右側仕
切線、及び左側仕切線を抽出することを特徴とする。According to a fifth aspect of the present invention, the traveling lane recognition means determines an edge point which is a boundary between the road surface and the partition line by obtaining a change in brightness in the image captured by the image acquisition means. It is characterized by detecting a plurality of lines and performing a linear approximation process based on the plurality of edge points to extract a right side partition line and a left side partition line of the traveling lane of the own vehicle.
【0030】請求項6に記載の発明は、前記走行車線認
識手段は、前記画像取得手段にて撮影された画像を、自
車両に近い第1の領域と、この第1の領域よりも遠方と
なる第2の領域に分割し、前記第1の領域については、
複数のエッジ点に基づいて、直線近似を行い、更に、下
記(1-1)〜(1-3)のうちの少なくとも1つの条件に
基づいて左右の仕切線を抽出し、
(1-1)1フレーム前の画像のFOE点とのずれが小さ
い
(1-2)1フレーム前の画像の仕切線の角度とのずれが
小さい
(1-3)計算から求められる理論的な角度に適合してい
る
前記第2の領域については、複数のエッジ点に基づい
て、直線近似を行い、更に、下記(2-1)、(2-2)の
うちの少なくとも1つの条件に基づいて左右の仕切線を
抽出することを特徴とする。According to a sixth aspect of the present invention, the traveling lane recognition means determines that the images captured by the image acquisition means are in a first area near the own vehicle and a distance from the first area. Divided into a second region consisting of
Linear approximation is performed based on a plurality of edge points, and further, left and right partition lines are extracted based on at least one of the following conditions (1-1) to (1-3), (1-1) The deviation from the FOE point of the image one frame before is small (1-2) The deviation from the angle of the partition line of the image one frame before is small (1-3) In conformity with the theoretical angle calculated For the second area, the linear approximation is performed based on a plurality of edge points, and the left and right partition lines are further based on at least one of the following conditions (2-1) and (2-2). Is extracted.
【0031】(2-1)FOE点のY座標と、第1の領域
で抽出された仕切線のFOE点のY座標とのずれが小さ
い
(2-2)近似された直線の下端が、第1の領域で抽出さ
れた仕切線付近に存在する
請求項7に記載の発明は、前記画像取得手段にて撮影さ
れた画像に含まれる破線の、線部、及び線間部を抽出
し、予め設定される、前記線部の長さ、及び前記線間部
の長さに基づいて、前記速度データを求める速度情報算
出部を具備したことを特徴とする。(2-1) The deviation between the Y coordinate of the FOE point and the Y coordinate of the FOE point of the partition line extracted in the first area is small. (2-2) The lower end of the approximated straight line is The invention according to claim 7 existing in the vicinity of the partition line extracted in the region 1 extracts the line portion and the line portion of the broken line included in the image captured by the image acquisition unit, It is characterized by further comprising a speed information calculation unit that obtains the speed data based on the length of the line portion and the length of the interline portion that are set.
【0032】請求項8に記載の発明は、前記通知手段
は、前記移動物体と自車両との間隔、或いは前記移動物
体が自車両に近づく際の速度に応じて自車両の危険度を
示すことを特徴とする。In the invention according to claim 8, the notifying means indicates the degree of danger of the host vehicle according to the distance between the moving object and the host vehicle or the speed at which the moving object approaches the host vehicle. Is characterized by.
【0033】請求項9に記載の発明は、前記画像取得手
段は、自車両の前方映像を撮影し、前記移動物体は、自
車両の前方を走行する車両であることを特徴とする。According to a ninth aspect of the present invention, the image acquisition means captures a front image of the host vehicle, and the moving object is a vehicle traveling in front of the host vehicle.
【0034】[0034]
【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。図1は、本発明の第1の実施形態に
係る車両周辺監視装置の構成を示すブロック図である。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of a vehicle periphery monitoring device according to the first embodiment of the present invention.
【0035】同図に示すように、該車両周辺監視装置1
は、車両前方視野の連続画像を取得する連続画像取得部
2と、走行車線認識部3と、速度情報算出部4と、オプ
ティカルフロー算出部5と、前方車両領域の分離処理部
6、及び危険度評価部7から構成されている。As shown in the figure, the vehicle periphery monitoring device 1
Is a continuous image acquisition unit 2 that acquires continuous images of the front view of the vehicle, a lane recognition unit 3, a speed information calculation unit 4, an optical flow calculation unit 5, a separation processing unit 6 of the front vehicle region, and a danger. The evaluation unit 7 is used.
【0036】そして、本実施形態では、連続画像取得部
2で、自車両の前方画像を撮影し、撮影された画像に基
づき、走行車線認識部3にて、自車両前方に存在する走
行車線を認識する。更に、撮影された画像に基づき、速
度情報算出部4にて、自車両の走行速度を求める。そし
て、オプティカルフロー算出部5にて、自車両の前方を
走行している車両の存在を検出し、前方車両領域の分離
処理部6にて、全体画像から前方車両の画像を分離する
処理を行う。In the present embodiment, the continuous image acquisition unit 2 captures a front image of the host vehicle, and the traveling lane recognition unit 3 determines the traveling lane ahead of the host vehicle based on the captured image. recognize. Further, the traveling speed of the host vehicle is calculated by the speed information calculation unit 4 based on the captured image. Then, the optical flow calculation unit 5 detects the presence of a vehicle traveling in front of the host vehicle, and the separation processing unit 6 for the front vehicle region performs a process of separating the image of the front vehicle from the entire image. .
【0037】更に、前方車両領域の分離処理部6で得ら
れた前方車両の画像に基づいて、自車両と前方車両との
車間距離、或いは自車両と前方車両との接近速度を求
め、危険度評価部7では、この車間距離、及び接近速度
から、危険度を評価し、これを自車両の運転者に通知す
る。以下、各構成要素について、詳細に説明する。Further, the inter-vehicle distance between the own vehicle and the front vehicle or the approaching speed between the own vehicle and the front vehicle is calculated based on the image of the front vehicle obtained by the front vehicle region separation processing section 6, and the degree of danger is calculated. The evaluation unit 7 evaluates the degree of danger from the inter-vehicle distance and the approaching speed, and notifies the driver of the own vehicle of the degree of danger. Hereinafter, each component will be described in detail.
【0038】<連続画像取得部2>連続画像取得部2で
は、車両前部に1台のカメラ(カラーデジタルビデオカ
メラ等)を設置し、車両走行時(この場合は、高速道路
走行時とする)において、該ディジタルビデオカメラで
の車両前方画像の撮影を行う。即ち、図2に示す車両前
方の領域「S1」の画像を撮影する。そして、撮影され
た一連の動画像を、一定間隔毎にフレームとして取り出
し、連続処理を行う。<Continuous image acquisition unit 2> In the continuous image acquisition unit 2, one camera (color digital video camera or the like) is installed at the front of the vehicle and the vehicle is traveling (in this case, traveling on a highway). ), The front image of the vehicle is captured by the digital video camera. That is, the image of the area "S1" in front of the vehicle shown in FIG. 2 is captured. Then, a series of captured moving images are taken out as frames at regular intervals and continuous processing is performed.
【0039】<走行車線認識部3>走行車線認識部3で
は、車両前方画像の、連続走行画像において、自車両が
走行している車線を認識する。<Driving Lane Recognizing Section 3> The traveling lane recognizing section 3 recognizes the lane in which the host vehicle is traveling in the continuous traveling image of the vehicle front image.
【0040】一般的な高速道路においては、以下の
(1)〜(3)が前提となる。In general highways, the following (1) to (3) are premised.
【0041】(1)白線は、他の路面部分と比べて十分
に輝度が高い。(1) The white line has a sufficiently high brightness as compared with other road surface portions.
【0042】(2)白線は、複数の直線群によって近似
することができる。(2) The white line can be approximated by a plurality of straight line groups.
【0043】(3)白線の検出位置は時間的に連続して
変化する。(3) The detection position of the white line changes continuously in time.
【0044】これらの前提を用いることにより、自車両
が走行している車線の左右白線を2段階の直線近似によ
って検出する。なお、本実施形態では、路面に描かれる
仕切線(側線やセンターライン)を白線として説明する
が、本発明は、これに限定されない。即ち、黄線やその
他の色の線でも良い。By using these assumptions, the left and right white lines of the lane in which the vehicle is traveling are detected by two-step linear approximation. In the present embodiment, the partition line (side line or center line) drawn on the road surface is described as a white line, but the present invention is not limited to this. That is, a yellow line or a line of another color may be used.
【0045】従来における車両前方の監視に関する研究
の多くは、高速道路の中でも直線道路や非常に緩やかな
カーブ路を想定しており、予め、監視領域を設定してい
るものや、自車両近傍の白線のみを直線近似し、その2
直線で囲まれる領域を監視領域としているものが多い。Most of the conventional researches on the monitoring of the front of the vehicle assume a straight road or a very gentle curved road among the expressways, and the monitoring area is set in advance or the vicinity of the own vehicle. Approximate the white line to a straight line, and part 2
In many cases, the area surrounded by a straight line is the monitoring area.
【0046】しかし、図3(a)に示すように直線道路
を走行しているときには上記の方法で問題はないが、同
図(b)に示すように、比較的急なカーブ路の場合に
は、検出すべき前方車両が監視領域に入らなかったり、
検出すべきではない道路の側壁や隣車線の車両が監視領
域に入ってしまうという問題が生じる。However, when traveling on a straight road as shown in FIG. 3 (a), there is no problem in the above method, but as shown in FIG. 3 (b), in the case of a relatively sharp curve road. The vehicle in front that should be detected does not enter the monitoring area,
There is a problem that a side wall of a road that should not be detected or a vehicle in an adjacent lane enters the monitoring area.
【0047】一方で、カーブ路を想定した研究として
は、高速道路におけるカーブ路を3次元空間上における
ある曲率をもった円弧の一部であるとし、カメラパラメ
ータを用いてその円弧を画像平面上に射影変換した曲線
を当てはめるという手法が提案されている。しかし、実
際の高速道路は、ある1種類の曲率を持つ円弧が長く続
いているわけではなく、異なる曲率をもつ複数の円弧の
組み合わせとして構成されている。そのため、1種類の
円弧を射影変換して得られる曲線を画像平面上に当ては
めたとしても、全ての画像に関してある曲線を厳密に当
てはめることは容易でないと考えられる。On the other hand, as a study assuming a curved road, a curved road on a highway is assumed to be a part of an arc having a certain curvature in a three-dimensional space, and the arc is used on the image plane by using a camera parameter. A method of fitting a curve that has been projectively transformed to is proposed. However, an actual highway does not have long arcs having a certain type of curvature, but is configured as a combination of a plurality of arcs having different curvatures. Therefore, even if a curve obtained by projective transformation of one type of arc is applied to the image plane, it is not easy to exactly apply a certain curve to all images.
【0048】そこで、本実施形態では、大まかな自車両
付近の走行車線を簡易に検出すると同時に、自車両から
離れたカーブの先端付近においても隣車線を誤認識しな
いように、走行車線を2段階の直線近似によって認識す
る。直線近似を2段階にすることにより、ある程度急な
カーブ路にも対応することが可能となる。監視範囲とし
て、1段階目は自車両から約25m付近まで、2段階目
には約70m付近までとした。Therefore, in the present embodiment, the traveling lane in the vicinity of the own vehicle is simply detected, and at the same time, the traveling lane is divided into two stages so as not to erroneously recognize the adjacent lane even near the tip of the curve away from the own vehicle. Recognize by linear approximation of. By making the linear approximation into two stages, it becomes possible to deal with a curve road that is steep to some extent. As the monitoring range, the first stage was set to about 25 m from the host vehicle, and the second stage was set to about 70 m.
【0049】以下に2段階での走行車線認識方法の詳細
を示す。The details of the lane recognition method in two stages will be described below.
【0050】(A-1)白線のエッジ抽出
まず、画像中に存在する白線(路上の側線、或いはセン
ターライン)と路面との境界、つまり白線のエッジ点の
抽出を行う。この手法では、図4に示すように1段階
目、及び2段階目のそれぞれに、白線エッジの探索範囲
を設定する。(A-1) Edge Extraction of White Line First, the boundary between the white line (side line on the road or center line) existing in the image and the road surface, that is, the edge point of the white line is extracted. In this method, as shown in FIG. 4, the white line edge search range is set in each of the first and second steps.
【0051】設定位置は、カメラ(連続画像取得部2が
有するデジタルビデオカメラ)のパラメータにより予め
決定する。そして、それぞれの探索範囲内で左右方向に
向け、輝度に対する微分処理を行うことによって、輝度
に大きな差のある白線とその他の路面部分の境界、即
ち、白線のエッジ点を抽出する。以下、1段階目の白線
抽出処理を例に具体的に説明する。なお、2段階目の白
線エッジ抽出は、1段階目の白線認識結果に基づいて行
う。The set position is determined in advance by the parameter of the camera (digital video camera included in the continuous image acquisition section 2). Then, by performing a differentiation process on the brightness in the left and right directions within each search range, the boundary between the white line and the other road surface portion having a large difference in brightness, that is, the edge point of the white line is extracted. Hereinafter, the white line extraction processing of the first stage will be specifically described as an example. The white line edge extraction in the second step is performed based on the white line recognition result in the first step.
【0052】まず、カメラで撮影された画像中の、探索
範囲に対して、1ライン(横方向のライン)ずつ1×6
のオペレータを走査することにより微分処理を行う(図
4中「X」に示すライン)。オペレータとして、画像の
中心より左側には、[1,1,1,-1,-1,-1]を、右側には
[-1,-1,-1,1,1,1]を用いる。これは、画像の中心から
左右方向に向けて画素の輝度を調べていき、輝度の低い
画素から輝度の高い画素に変化したときに正の値を得る
操作に対応する。First, 1 × 6 for each line (horizontal line) in the search range in the image captured by the camera.
Differentiating processing is performed by scanning the operator of (indicated by "X" in FIG. 4). As an operator, use [1,1,1, -1, -1, -1,] on the left side of the image center and [-1, -1, -1,1,1,1] on the right side. . This corresponds to an operation in which the brightness of a pixel is checked from the center of the image in the left-right direction and a positive value is obtained when the pixel has a low brightness and a pixel with a high brightness changes.
【0053】図5は、1ラインを走査したときの、微分
値を示す特性図であり、同図に示すように、輝度の低い
路面から輝度の高い白線に変化する点、即ち、左右白線
の内側のエッジ点において大きな正の微分値a1、a2
が算出される。また、左右白線の外側エッジ点にて、大
きな負の微分値a3、a4が算出される。そして、所定
の閾値を設定し、その閾値以上の点のみを抽出すること
によって白線のエッジ点の候補を求める。この場合に
は、図5に示すb1,b2,b3,b4が候補点とな
る。FIG. 5 is a characteristic diagram showing a differential value when one line is scanned. As shown in FIG. 5, a point at which a road surface with low brightness changes to a white line with high brightness, that is, the left and right white lines. Large positive differential values a1 and a2 at the inner edge points
Is calculated. Further, large negative differential values a3 and a4 are calculated at the outer edge points of the left and right white lines. Then, a predetermined threshold value is set, and only points equal to or higher than the threshold value are extracted to obtain candidates for the edge point of the white line. In this case, candidate points are b1, b2, b3, and b4 shown in FIG.
【0054】しかし、実際の道路画像では図4に示すよ
うに、白線以外の路面が一定の輝度を保っているわけで
はなく、ごみ、傷、建物、或いは並走している車両の影
等の影響により、白線以外の不要なエッジを抽出してし
まう可能性がある。そこで、以下の処理では、1段階
目、及び2段階目の、それぞれの白線の直線近似を行う
際には、これらの不要なエッジを白線のエッジと誤認識
しないための工夫を行っている。However, in the actual road image, as shown in FIG. 4, the road surface other than the white line does not maintain constant brightness, and dust, scratches, buildings, shadows of vehicles running in parallel, etc. Due to the influence, unnecessary edges other than the white line may be extracted. Therefore, in the following processing, when performing linear approximation of the white lines in the first step and the second step, a device is provided so that these unnecessary edges are not erroneously recognized as white line edges.
【0055】(A-2)1段階目の白線認識
1段階目の探索範囲内(図4の領域S2)の白線エッジ
抽出から得られた白線候補点をもとに、1段階目の白線
を直線近似する処理を行う。ここでは複数の点の集合か
らそれらの近似直線を作成する方法としてハフ変換(H
OUGH変換)を用いる。(A-2) First-step white line recognition Based on the white-line candidate points obtained from the white-line edge extraction within the first-step search range (area S2 in FIG. 4), the first-step white line is recognized. Performs linear approximation processing. Here, as a method of creating an approximate straight line from a set of a plurality of points, the Hough transform (H
OUGH conversion) is used.
【0056】また、前述したように、取得画像から得ら
れたエッジ点には路面のごみや影等も含まれており、そ
れらの影響を除去する必要がある。そこで、連続画像の
特性を利用したハフ変換を用いて直線近似を行う。Further, as described above, the edge points obtained from the acquired image also include dust and shadows on the road surface, and it is necessary to remove their influence. Therefore, linear approximation is performed by using Hough transform that utilizes the characteristics of continuous images.
【0057】まず、1フレーム目の画像では通常のハフ
変換を行い、左右1本ずつの直線を求める。続いて2フ
レーム目からは1フレーム前の1段階目のFOE点(Fo
cusof Expansion)点を用いたハフ変換を行う。ここ
で、FOE点とは直線近似した左右白線の交点のことで
あり、画像中におけるカメラと同じ高さの無限遠方の点
を表すものである。高速道路のような見通しの良い道路
では、白線は無限遠方まで伸びていると考えられるの
で、近似直線はFOE点を通ることになる。First, a normal Hough transform is performed on the image of the first frame to obtain straight lines for each of the left and right. Then, from the second frame, the FOE point (Fo
cusof Expansion) Hough transform using points. Here, the FOE point is the intersection of the left and right white lines that are linearly approximated, and represents a point in the image at the same height as the camera and located at infinity. On a road with good visibility such as an expressway, the white line is considered to extend to infinity, so the approximate straight line passes through the FOE point.
【0058】一般に、連続画像においてその無限遠方の
点は微少時間内には変化しないと考えられる。そこで、
ハフ変換において近似する直線に、その直線が1フレー
ム前のFOE点の付近を通過するという条件を付加す
る。In general, in a continuous image, the point at infinity is considered not to change within a minute time. Therefore,
A condition that the straight line passes near the FOE point one frame before is added to the straight line approximated by the Hough transform.
【0059】これによって、無限遠方とは異なる方向へ
連続的に並んでいるエッジ点を白線候補点と誤認識する
ことを避けることができる。また、一般のハフ変換によ
る直線近似では直線を1本のみ算出するが、道路画像で
はFOE点の方向へ連続する点が多く存在するので、本
実施形態ではハフ変換に用いる候補点が多く存在する左
右数本ずつの近似直線を白線の近似直線候補として抽出
する。As a result, it is possible to avoid erroneously recognizing edge points continuously arranged in a direction different from infinity as white line candidate points. In addition, although only one straight line is calculated in the straight line approximation by the general Hough transform, there are many points that are continuous in the direction of the FOE point in the road image, and thus there are many candidate points used for the Hough transform in this embodiment. Several right and left approximate straight lines are extracted as white line approximate straight line candidates.
【0060】ハフ変換によって求められた左右数本ずつ
の近似直線のうち、最適な組み合わせのものを選出し、
1段階目の白線モデルを決定する。選出する際の基準と
しては、(1)1フレーム前のFOE点とのずれ、
(2)1フレーム前の白線の角度とのずれ、(3)計算
から求まる理論的な角度の組み合わせ、の3つを考え
る。The optimum combination is selected from the approximate straight lines obtained by the Hough transform and the right and left lines are approximated.
The white line model of the first stage is determined. The criteria for selection are (1) the deviation from the FOE point one frame before,
Consider (3) a deviation from the angle of the white line one frame before, and (3) a theoretical combination of angles calculated.
【0061】上記(1)に関しては、前述の通り無限遠
方点であるFOE点は微少時間内にはほぼ一定の位置に
あるという仮定に基づく。また、(2)に関しても、1
フレームという微少時間内には白線の角度がそれほど変
化しないという理由による。The above (1) is based on the assumption that the FOE point, which is a point at infinity, is at a substantially constant position within a minute time as described above. Also, regarding (2), 1
This is because the angle of the white line does not change so much within the minute time frame.
【0062】(3)については、車線幅が一定であり、
平らな道路を走行している場合、左右の白線の角度には
一定の関係があることを用いている。For (3), the lane width is constant,
When traveling on a flat road, the angle between the left and right white lines has a certain relationship.
【0063】以下、具体的に説明すると、図6に示すよ
うに、1段階目のエッジ点p1が領域S2内で複数個抽
出された場合には、抽出された各エッジ点p1を基に、
ハフ変換により近似直線を求める。更に、1フレーム前
のFOE点p2の付近を通過するという条件を付加する
ことにより、路面のゴミなどによってできたエッジ点に
よる影響をさけ、図6中の破線L1,L2にて示す近似
直線を除外することができる。More specifically, as shown in FIG. 6, when a plurality of first-stage edge points p1 are extracted in the area S2, based on the extracted edge points p1 as shown in FIG.
Obtain an approximate straight line by Hough transform. Furthermore, by adding a condition that the area passes near the FOE point p2 one frame before, the influence of the edge points created by dust on the road surface is avoided, and the approximate straight lines indicated by the broken lines L1 and L2 in FIG. Can be excluded.
【0064】次いで、図7に示すように、1フレーム前
の1段目のFOE点付近を通過する直線候補を左右数本
ずつ(図では、2本ずつ)求める。そして、図8に示す
ように、1フレーム前の1段目のFOE点p2からのず
れの小さい白線の組み合わせを選択する。従って、例え
ば同図のL3に示す如くの、点p2から離れた位置を通
過する直線L3はが存在した場合には、この直線L3は
除外される。Then, as shown in FIG. 7, a few straight line candidates (two in the figure) passing through the vicinity of the first-stage FOE point one frame before are obtained. Then, as shown in FIG. 8, a combination of white lines having a small deviation from the FOE point p2 of the first stage one frame before is selected. Therefore, if there is a straight line L3 passing through a position distant from the point p2 as shown by L3 in the figure, this straight line L3 is excluded.
【0065】更に、図9に示すように、1フレーム前に
抽出された白線の角度とのずれの小さい白線を選択す
る。即ち、1フレーム前に抽出された白線が同図に示す
ラインL4である場合には、このラインL4の角度θ0
と近い角度を有するラインL6が白線として抽出され
る。つまり、角度θ1の方が角度θ2よりも、角度θ0に
近いので、ラインL5が除外され、ラインL6が選択さ
れる。Further, as shown in FIG. 9, a white line having a small deviation from the angle of the white line extracted one frame before is selected. That is, when the white line extracted one frame before is the line L4 shown in the figure, the angle θ0 of the line L4 is
A line L6 having an angle close to is extracted as a white line. That is, since the angle θ1 is closer to the angle θ0 than the angle θ2, the line L5 is excluded and the line L6 is selected.
【0066】そして、図10に示すように、平坦な直線
の道路を走行しているときの左右の白線(上記の手順で
抽出された白線)の角度をそれぞれθLO、θROとする
と、あるフレームでの左側白線の角度がθLであった場
合に、車線幅が常に一定であれば右側白線の角度θRは
以下に示す式(7)で示すことができる。Then, as shown in FIG. 10, when the angles of the left and right white lines (white lines extracted by the above procedure) when traveling on a flat straight road are θLO and θRO, respectively, a certain frame is obtained. When the angle of the left white line is θL and the lane width is always constant, the angle of the right white line θR can be expressed by the following equation (7).
【0067】[0067]
【数4】
従って、上記した(7)式の関係を満たす角度の組み合
わせの白線を候補とする。そして、選択された白線を1
段階目の白線モデルとして決定する。[Equation 4] Therefore, the white line of the combination of angles that satisfies the above-described expression (7) is set as a candidate. And the selected white line is 1
It is determined as the white line model of the stage.
【0068】(A-3)2段階目の白線認識
前述した、1段階目の白線認識結果に基づいて、2段階
目の白線認識を行う。図11に示すように、まず、1段
階目の直線近似された左右白線の中線Lcを境界に、2
段階目の白線エッジ探索範囲内(領域S3)において左
右方向に微分処理を行ってエッジ点を抽出する。次に、
抽出したエッジ点を用いてハフ変換を行い、左右数本ず
つの近似直線候補を求める。(A-3) Second-step white line recognition Based on the first-step white line recognition result, the second-step white line recognition is performed. As shown in FIG. 11, first, with the middle line Lc of the left and right white lines subjected to the linear approximation in the first step as a boundary,
In the white line edge search range at the stage (area S3), the differential processing is performed in the left-right direction to extract edge points. next,
Hough transformation is performed using the extracted edge points to obtain approximate straight line candidates for each of the left and right lines.
【0069】これらの中から、最適な組み合わせを選出
する基準としては、(1)1段階目の直線近似によるF
OE点のY座標(図中、縦方向の座標)と2段階目の直
線近似によるFOE点のY座標のずれ、(2)2段階目
における左右白線の下端の点が1段階目の左右白線付近
に存在する、の2つを考える。(1)に関しては平らな
道路平面を仮定すると、自車両付近の白線の直線近似に
よるFOE点も、自車両からある程度離れた場所の白線
の直線近似によるFOE点も、同一のY座標に存在する
という理由による。また(2)に関しては、白線は自車
両付近から無限遠方に向かって連続して続いており、1
段階目と2段階目の白線の境界部分でも連続していると
いうことを利用している。これらの処理により、1段階
目から連続する2段階目の近似直線を適切に決定し、あ
る程度急なカーブ路にも対応する。As a criterion for selecting the optimum combination from these, (1) F by the first-stage linear approximation is used.
Misalignment between the Y coordinate of the OE point (vertical coordinate in the figure) and the Y coordinate of the FOE point due to the second-stage linear approximation, Consider the two existing in the vicinity. As for (1), assuming a flat road plane, the FOE point obtained by the straight line approximation of the white line near the own vehicle and the FOE point obtained by the straight line approximation of the white line at a certain distance from the own vehicle are present at the same Y coordinate. For that reason. As for (2), the white line continues from near the vehicle toward infinity.
The fact that the boundary between the white line at the second stage and the second stage is continuous is used. By these processes, the approximate straight line of the second step that is continuous from the first step is appropriately determined, and a curve road that is steep to some extent can be handled.
【0070】以下、具体的に説明すると、図11に示す
ように、1段階目の白線認識処理にて直線近似された左
右白線の中線Lcを設定し、該中線Lcを境界として2段
階目の白線エッジ探索範囲内(領域S3)で左右方向に
微分処理を行う。More specifically, as shown in FIG. 11, the center line Lc of the left and right white lines linearly approximated by the white line recognition process in the first step is set, and the center line Lc is used as a boundary to set two levels. Differentiation is performed in the left-right direction within the white line edge search range of the eye (area S3).
【0071】そして、図6に示したときと同様に、エッ
ジ点を用いてハフ変換を行い、図12に示すように、左
右数本づつの近似直線候補を求める。この場合には、L
11〜L14の4本の直線候補が得られている。次い
で、図13に示すように、1段階目のFOE点p2のY
座標p2y付近に、2本の直線候補の交点のY座標が存
在するものを選択する。即ち、直線L14は除外され
る。更に、図14に示すように、2段階目の直線候補の
下端点が1段階目の処理における左右の白線(LL,L
R)付近に存在するものを選択する。これにより、直線
L11が除外され、2段階目の直線候補L12,L13
が求められる。Then, similarly to the case shown in FIG. 6, Hough transformation is performed using the edge points to obtain approximate straight line candidates for each of the left and right lines as shown in FIG. In this case, L
Four straight line candidates 11 to L14 are obtained. Next, as shown in FIG. 13, Y at the first-stage FOE point p2
A coordinate having the Y coordinate of the intersection of two straight line candidates near the coordinate p2y is selected. That is, the straight line L14 is excluded. Furthermore, as shown in FIG. 14, the lower end points of the second-stage straight line candidates are the left and right white lines (LL, L) in the first-stage processing.
R) Select one that exists near. As a result, the straight line L11 is excluded, and the second-stage straight line candidates L12 and L13 are excluded.
Is required.
【0072】また、図15に示すように、前方車両と自
車両との車間距離が短く、2段階目の白線が前方車両に
よって隠れてしまうような場合には、上記の条件を満た
す2段階目の近似直線が求められないため、1段階目の
近似直線が2段階目まで延長したものを2段階目の近似
直線とする。これは前方車両が自車両付近に存在すると
きには遠方の白線領域を考慮しなくても良いためであ
り、これによって2段階目の白線の誤認識を防ぐことが
できる。Further, as shown in FIG. 15, when the inter-vehicle distance between the front vehicle and the host vehicle is short and the white line in the second stage is hidden by the front vehicle, the second stage satisfying the above condition is satisfied. Since the approximate straight line of 1 is not obtained, the approximate straight line of the first step is extended to the second step and is used as the approximate straight line of the second step. This is because it is not necessary to consider the distant white line area when the preceding vehicle is present near the host vehicle, and thus it is possible to prevent erroneous recognition of the second-stage white line.
【0073】そして、上記の処理により、走行車線認識
部3における走行車線の認識処理が終了する。Then, the traveling lane recognition processing in the traveling lane recognition unit 3 is completed by the above processing.
【0074】<速度情報算出部4>次に、速度情報算出
部4における処理について説明する。一般に、高速道路
上に描かれる白線には、以下に示すような特徴がある。<Speed Information Calculation Unit 4> Next, the processing in the speed information calculation unit 4 will be described. Generally, the white line drawn on a highway has the following characteristics.
【0075】(1)左右の白線のうち片側は破線であ
る。(1) One of the left and right white lines is a broken line.
【0076】(2)破線は、線分部分の長さが8m,そ
れ以外の部分が12mである。(2) The broken line has a line segment length of 8 m and other portions of 12 m.
【0077】つまり、高速道路では、一定パターンの特
徴が繰り返し路面に現れるということができる。本発明
では、この繰り返しパターンを用いることによって自車
両の速度情報を算出する。In other words, it can be said that a certain pattern of features repeatedly appears on the road surface on an expressway. In the present invention, the speed information of the own vehicle is calculated by using this repeating pattern.
【0078】具体的には、まず1段階目の処理として、
左右白線のうち破線の方を認識する。破線の特徴とし
て、白線の線分部分(線部)と、路面の部分(線間部)
の2つに分けることができるということが挙げられる。
そこで、図16に示すように、左右の白線の近似直線の
外側に領域(以下これを、白線領域と称する)S4を作
成し、その左右の白線領域S4の輝度の分散を比較す
る。Specifically, as the first stage processing,
Recognize the broken line of the left and right white lines. The characteristics of the broken line are the white line segment (line part) and the road surface part (interline part).
It can be said that it can be divided into two.
Therefore, as shown in FIG. 16, a region (hereinafter, referred to as a white line region) S4 is created outside the approximate straight line of the left and right white lines, and the luminance distributions of the left and right white line regions S4 are compared.
【0079】破線である白線は、線分部分と路面部分が
交互に現れるので、輝度の分散が大きいのに対し、実線
ではすべて白色であるので輝度の分散が小さい。従っ
て、輝度の分散の大きい方が破線であると容易に判別す
ることが可能となる。The white line, which is a broken line, has a large luminance dispersion because line segments and road surface portions appear alternately. On the other hand, the solid line has a small luminance dispersion because it is all white. Therefore, it is possible to easily discriminate that the larger the variance of luminance is the broken line.
【0080】ここで、実線である白線は、白線領域S4
が全て白色であり輝度が高いことを利用して、単純に白
線領域S4の輝度の平均値を比較して破線を認識するこ
とも考えられる。しかし、実際の路面には影などがあ
り、実線の白線上に影が写っている場合などは破線の白
線領域の方が実線の白線領域よりも輝度の平均が高くな
るということも考えられるので、ここでは、左右の白線
領域における輝度の分散を比較するという方法を採って
いる。Here, the solid white line is the white line area S4.
It is conceivable that the broken line is recognized by simply comparing the average values of the brightness of the white line region S4 by utilizing that all are white and the brightness is high. However, there are shadows on the actual road surface, and when the shadow is reflected on the solid white line, it is possible that the average brightness of the broken white line area is higher than that of the solid white line area. Here, the method of comparing the variances of the luminance in the left and right white line regions is adopted.
【0081】次に、破線と判断された白線領域S4の中
で、線分部分と路面部分との切れ目の認識を行う。破線
のうち、線分部分は白色であるので路面部分に対して輝
度が十分高いと考えられる。そこで、図17に示すよう
に、破線と判断された白線領域内で、Y軸方向に輝度の
平均値を求め、その値が閾値を超えている部分を線分部
分と認識する。これによって、輝度の平均値の変化が閾
値をまたいだ位置を破線の切れ目の路面部分と判別する
ことが可能となる。Next, in the white line area S4 determined to be a broken line, a break between the line segment portion and the road surface portion is recognized. Since the line segment of the broken line is white, it is considered that the brightness is sufficiently higher than that of the road surface. Therefore, as shown in FIG. 17, the average value of the luminance in the Y-axis direction is calculated in the white line area determined to be the broken line, and the portion where the average value exceeds the threshold value is recognized as the line segment portion. This makes it possible to discriminate the position where the change in the average value of the brightness exceeds the threshold value from the road surface portion of the broken line.
【0082】次いで、上述の手順で求められた破線の切
れ目の移動量から、自車両の速度を算出する。カメラに
より撮像された画像により、カメラから対象物体までの
距離を求める方法は、カメラの光学的な配置から計算す
ることができる。Next, the speed of the host vehicle is calculated from the movement amount of the broken line obtained by the above procedure. The method of obtaining the distance from the camera to the target object from the image captured by the camera can be calculated from the optical arrangement of the camera.
【0083】図18は、撮像時におけるカメラの光学的
な配置構成を示している。破線である白線は、路面上に
描かれていることが分かっているので、取得画像の対象
物体の映っている位置とFOE点の位置に基づいて、図
中の角度φ、ρを求めることができ、これにより、対象
物体までの距離Dを計算することができる。カメラの路
面からの高さをH[m]とすると、距離D[m]は、次
の(8)式で表すことができる。FIG. 18 shows the optical arrangement of the cameras during image pickup. Since it is known that the white line, which is a broken line, is drawn on the road surface, it is possible to obtain the angles φ and ρ in the figure based on the position of the target object in the acquired image and the position of the FOE point. Therefore, the distance D to the target object can be calculated. If the height of the camera from the road surface is H [m], the distance D [m] can be expressed by the following equation (8).
【0084】
D=H/tan(φ+ρ) ・・・(8)
ここで、nフレーム目のカメラの位置と、(n+1)フ
レーム目のカメラ位置の光学的配置が、図19に示す如
くであるとすると、それぞれの破線の切れ目までの距離
DnとDn+1は、(φ+ρ)=θとした場合、次の(9)
式、及び(10)式で示すことができる。D = H / tan (φ + ρ) (8) Here, the optical arrangement of the camera position of the nth frame and the camera position of the (n + 1) th frame is as shown in FIG. Then, if (φ + ρ) = θ, the distances Dn and Dn + 1 to the breaks of the respective broken lines are given by the following (9)
It can be shown by the equation and the equation (10).
【0085】
Dn =H/tanθn ・・・(9)
Dn+1= H/tanθn+1 ・・・(10)
従って、nフレーム目から(n+1)フレーム目までの
自車両の移動距離はこれらの差で表され、画像取得間隔
がT[sec]であるとすると自車両の速度V[Km/
h]は、以下の(11)式で示すことができる。Dn = H / tan θn ・ ・ ・ (9) Dn + 1 = H / tan θn + 1 ・ ・ ・ (10) Therefore, the moving distance of the vehicle from the nth frame to the (n + 1) th frame is represented by these differences. , If the image acquisition interval is T [sec], the speed V [Km /
h] can be expressed by the following equation (11).
【0086】
V=H(1/tanθn−1/tanθn+1)×3.6/T ・・・(11)
ここで、画像取得間隔Tが大きすぎると、nフレーム目
で検出した破線の切れ目が(n+1)フレーム目では、
すでに画面の手前側に流れてしまい、画像に映っていな
いという場合が考えられる。このような場合には、破線
の間隔が一定であるということを利用して、流れていっ
てしまった線分部分の、次の線分部分における切れ目を
検出し、そこまで移動距離に20m(8m+12m)分
足したものを実際の移動距離と考えて速度を算出するこ
とによって、このような問題を解決することができる。V = H (1 / tan θ n −1 / tan θ n + 1 ) × 3.6 / T (11) Here, if the image acquisition interval T is too large, the broken line break detected at the n-th frame becomes ( In the (n + 1) th frame,
It is possible that the image has already flowed to the front side of the screen and is not reflected in the image. In such a case, the fact that the interval between the broken lines is constant is used to detect the break in the next line segment that has flowed, and the moving distance is 20 m ( This problem can be solved by calculating the speed by considering the sum of (8 m + 12 m) as the actual moving distance.
【0087】以上の手順により、速度情報算出部4によ
る自車両の速度算出が行われる。By the above procedure, the speed information calculation unit 4 calculates the speed of the host vehicle.
【0088】<オプティカルフロー算出部5>次に、オ
プティカルフロー算出部5における処理について説明す
る。オプティカルフローは、前述したように、撮影され
た画像中の、ある一点の動きを、方向、及び速度の大き
さに比例した矢印の長さで示して表示するものである。<Optical Flow Calculating Unit 5> Next, the processing in the optical flow calculating unit 5 will be described. As described above, the optical flow is for displaying the movement of a certain point in the captured image by indicating the direction and the length of the arrow proportional to the magnitude of the velocity.
【0089】そして、本実施形態では、連続画像におけ
る輝度値の対応を直接計算して対応点を探索する「相関
法」と、比較的簡単な演算で画像全体のオプティカルフ
ローを計算することが可能な「濃度勾配法」との両者を
利用した、新たなエネルギー汎関数を考え、その最小化
によって対応点探索を行うことにより、画像全体の点に
おけるオプティカルフローを高速に算出する。そして、
これと同時に、前方車両の特徴を精度良く検出し、自車
両と前方車両との位置関係を即時に演算する。以下、オ
プティカルフローの算出手順について、詳細に説明す
る。In this embodiment, it is possible to calculate the optical flow of the entire image by a "correlation method" in which the correspondence between the brightness values in the continuous images is directly calculated and the corresponding points are searched for, and by a relatively simple operation. By considering a new energy functional using both of the "concentration gradient method" and minimizing it, the corresponding points are searched to calculate the optical flow at points in the entire image at high speed. And
At the same time, the characteristics of the front vehicle are accurately detected, and the positional relationship between the own vehicle and the front vehicle is immediately calculated. Hereinafter, the procedure for calculating the optical flow will be described in detail.
【0090】(B-1)エネルギー汎関数の導出
前方車両画像においては画像内の物体が大局的に移動す
ることが考えられるため、濃度勾配法のGlobal Optimiz
ation法をもとにエネルギー汎関数を考える。(B-1) Derivation of energy functional In the forward vehicle image, it is conceivable that objects in the image will move globally, so the Global Optimiz of the concentration gradient method
Consider the energy functional based on the ation method.
【0091】前述の従来技術で示した(3)式に、更に
「速度場は滑らかに変化する」という拘束条件を付加す
ると、1段階目の白線認識によるFOEを原点とした点
(x,y)における画像のx方向の濃度勾配をEx、y方
向の濃度勾配をEy、時間的濃度勾配をEt、オプティカル
フローのx成分をu,y成分をv,uのx方向偏微分を
ux、uのy方向偏微分をuy、vのx方向偏微分をv
x,vのy方向偏微分をvyとして、以下の(12)式に
示すエネルギー汎関数を設定する。If the constraint condition "the velocity field changes smoothly" is further added to the equation (3) shown in the above-mentioned prior art, the point (x, y) with the FOE by the first-step white line recognition as the origin is added. ), The concentration gradient in the x direction of the image in Ex, the concentration gradient in the y direction is Ey, the temporal concentration gradient is Et, the x component of the optical flow is u, the y component is v, and the u direction partial derivative of u is ux, u Is a partial differential in the y direction of y, and a partial differential in the x direction of v is v
An energy functional shown in the following equation (12) is set, where y is a partial differential of y in the y direction.
【0092】[0092]
【数5】 但し、(12)式中のαは、重み付けの値である。[Equation 5] However, α in the equation (12) is a weighting value.
【0093】そして、(12)式の解が最小になる
(u,v)を求め、これをオプティカルフローとすれば
良い。Then, (u, v) that minimizes the solution of the equation (12) is obtained, and this may be used as the optical flow.
【0094】しかし、濃度勾配の連続性が適応できない
場合には、上記の(12)の左項
Ex・u+Ey・v+Et=0
が成り立たない。However, when the continuity of the concentration gradient cannot be applied, the above-mentioned left term Ex · u + Ey · v + Et = 0 of (12) does not hold.
【0095】そこで画像の濃度勾配値ではなく、相関法
のようにフレーム間での画像の空間的な輝度値の対応を
優先して考え、(12)式の左項と置きかえる。現フレ
ームでの点(x,y)の輝度値をG(x,y)、次フレ
ームでの対応する点の輝度値をF(x+u,y+v)と
して、以下の(13)式に示す新たなエネルギー汎関数
を設定する。Then, instead of the density gradient value of the image, the correspondence of the spatial brightness value of the image between frames is preferentially considered like the correlation method and replaced with the left term of the expression (12). The brightness value of the point (x, y) in the current frame is G (x, y), and the brightness value of the corresponding point in the next frame is F (x + u, y + v). Set the energy functional.
【0096】[0096]
【数6】
なお、αは、(12)式と同様に、重み付けの為の値で
ある。[Equation 6] It should be noted that α is a value for weighting, similar to the expression (12).
【0097】そして、(13)式において、最小解を求
めることにより、オプティカルフロー(u,v)を算出
する。Then, the optical flow (u, v) is calculated by obtaining the minimum solution in the equation (13).
【0098】ここで、オイラー・ラグランジュ方程式か
ら、以下の(14)式が成立する。Here, the following equation (14) is established from the Euler-Lagrange equation.
【0099】[0099]
【数7】
更に、反復計算を用いることにより、(15)式が成立
する。[Equation 7] Furthermore, the expression (15) is established by using the iterative calculation.
【0100】[0100]
【数8】 ここで、kは反復回数、[Equation 8] Where k is the number of iterations,
【数9】
は点(x,y)近傍のオプティカルフローの平均値であ
る。[Equation 9] Is the average value of the optical flow near the point (x, y).
【0101】(B-2)時間的連続性の考慮
前述の(B-1)で示したエネルギー汎関数では、画像の
空間的な輝度値の対応を優先して考えたため、時間的な
濃度勾配の情報が欠落してしまっている。そこで動画像
の時間的連続性を考慮するために、オプティカルフロー
を算出する画像に対して時間的平均化を行った画像を用
いる。(B-2) Consideration of temporal continuity In the energy functional shown in the above (B-1), since the correspondence of the spatial luminance value of the image is given priority, the temporal density gradient is considered. Information is missing. Therefore, in order to consider the temporal continuity of the moving image, an image obtained by performing temporal averaging on the image for which the optical flow is calculated is used.
【0102】図20(a)〜(c)のように連続する
(n−1)、n、(n+1)フレームの画像を平均化し
て同図(e)に示す、n’フレームの画像(第1の平均
化フレーム)とする。同様に、同図(b)〜(d)に示
すn、(n+1)、(n+2)フレームの画像を平均化
して、同図(f)に示す(n+1)’フレームの画像
(第2の平均化フレーム)とする。そして、n’フレー
ムと(n+1)’フレームの画像において、前述した
(15)式を用いてエネルギー汎関数を最小化する解を
求める。20 (a) to 20 (c), images of consecutive (n-1), n, (n + 1) frames are averaged and shown in FIG. 20 (e). 1 averaging frame). Similarly, the images of the n, (n + 1), and (n + 2) frames shown in (b) to (d) of the same figure are averaged, and the image of the (n + 1) 'frame shown in (f) of the figure (second average). Frame). Then, in the images of the n ′ frame and the (n + 1) ′ frame, the solution that minimizes the energy functional is obtained using the above-described equation (15).
【0103】この平均化を行うことにより、画像の時間
的な濃度勾配の情報を1枚の平均化画像に収めることが
できる。そして、画像内の動きのある物体に対して、物
体の動きの方向に滑らかな輝度の変化をつけることがで
き、より正確な対応を計算することが可能となる。By performing this averaging, information on the temporal density gradient of the image can be contained in one averaged image. Then, for a moving object in the image, it is possible to make a smooth change in luminance in the direction of the object's movement, and it is possible to calculate a more accurate correspondence.
【0104】(B-3) 多重解像度処理の利用
前述した(B-1)で求めたエネルギー汎関数を用いる
と、比較的簡易な演算によって画像全体の密なオプティ
カルフローを算出することができる。しかし、反復演算
を用いて最小解を求めているため、大きな動作のある画
像等では最小解を算出する前に、局所解に陥ってしまう
可能性がある。そこで、(B-2)で平均化した連続画像
に対して、多重解像度処理を加えながら対応点を計算す
ることにより、この問題を回避する。(B-3) Use of multi-resolution processing By using the energy functional obtained in (B-1) described above, a dense optical flow of the entire image can be calculated by a relatively simple calculation. However, since the minimum solution is obtained by using iterative calculation, there is a possibility that a local solution may be encountered before calculating the minimum solution in an image or the like having a large motion. Therefore, this problem is avoided by calculating the corresponding points while applying the multi-resolution processing to the continuous images averaged in (B-2).
【0105】まず、図21(a)に示すように、時間的
に平均化した連続画像を1/4サイズに縮小する。そし
て、縮小され画像に対して画像全体の点でのオプティカ
ルフローを算出する。次に、図21(b)に示すよう
に、連続画像を1/2サイズに縮小した画像を作成し、
この画像に対しても同様にオプティカルフローを算出す
る。この際、既に1/4サイズの画像を用いた時に求め
られたオプティカルフローを初期値として使用する。First, as shown in FIG. 21A, a temporally averaged continuous image is reduced to 1/4 size. Then, for the reduced image, the optical flow at points of the entire image is calculated. Next, as shown in FIG. 21B, an image in which the continuous image is reduced to 1/2 size is created,
The optical flow is similarly calculated for this image. At this time, the optical flow obtained when the 1/4 size image is already used is used as the initial value.
【0106】その後、図21(c)に示すように、原寸
大の大きさの画像でオプティカルフローを算出する。こ
のときは、既に1/2サイズの画像を用いた時に求めら
れたオプティカルフローを初期値として使用する。After that, as shown in FIG. 21C, the optical flow is calculated from the image of the size of the original size. At this time, the optical flow obtained when the 1/2 size image is already used is used as the initial value.
【0107】この処理によって、上記のような局所解の
問題を解決できると同時に、小さい画像サイズで、予め
荒い対応点を計算しておくことができるために、最小解
に収束する際に所要する反復回数が少なくてすみ、更な
る処理時間の短縮に貢献することができる。By this processing, the problem of the local solution as described above can be solved, and at the same time, rough corresponding points can be calculated in advance with a small image size. The number of iterations is small, which can contribute to further reduction in processing time.
【0108】(B-4)速度情報による理論フロー値の代
入
前述した(B-3)までの処理で述べた手法でオプティカ
ルフローを算出すると、理論的には、図22に示すよう
に、路面上の部分では自車両の速度に対応したオプティ
カルフロー(図中の矢印)が算出され、前方車両(移動
物体)のように自車両との相対速度が自車両の速度と等
しくない場合や、高さを持った物体が存在する場合に
は、自車両の速度に対応したオプティカルフローとは異
なった大きさのオプティカルフローが算出される。(B-4) Substitution of theoretical flow value based on velocity information When the optical flow is calculated by the method described in the processing up to (B-3) described above, theoretically, as shown in FIG. In the upper part, an optical flow (arrow in the figure) corresponding to the speed of the host vehicle is calculated, and when the relative speed to the host vehicle is not equal to the speed of the host vehicle such as a forward vehicle (moving object), or when the speed is high. When there is an object having a height, an optical flow having a size different from the optical flow corresponding to the speed of the host vehicle is calculated.
【0109】ここで、上記の手順で計算されたオプティ
カルフローから、自車両の速度に対応したオプティカル
フローの影響を除去することにより、前方車両のみのオ
プティカルフローを抽出することが可能であると考えら
れる。Here, it is considered possible to extract the optical flow of only the vehicle ahead by removing the influence of the optical flow corresponding to the speed of the own vehicle from the optical flow calculated by the above procedure. To be
【0110】ところが、この手法を用いて実際にオプテ
ィカルフローを算出すると、図23に示すように路面上
のテクスチャの無い部分では、正確なオプティカルフロ
ーを算出することができない。これは、路面上のテクス
チャの存在しない部分は輝度のパターンがあまりに単純
すぎるので、カメラで撮像する際に生じるランダムのノ
イズの影響等で微妙な対応を計算することができないた
めである。そのため、路面上のテクスチャのある部分の
みでしか自車両の速度に対応するオプティカルフローを
算出することができず、前方車両のみのオプティカルフ
ローを抽出することができない。However, when the optical flow is actually calculated using this method, an accurate optical flow cannot be calculated in a portion on the road surface where there is no texture, as shown in FIG. This is because the luminance pattern is too simple in a portion where there is no texture on the road surface, and thus it is not possible to calculate a delicate correspondence due to the influence of random noise that occurs when the image is captured by the camera. Therefore, the optical flow corresponding to the speed of the host vehicle can be calculated only in the textured portion on the road surface, and the optical flow only in the vehicle in front cannot be extracted.
【0111】そこで、前述した速度情報算出部4で求め
た速度情報をもとに、画像上の全ての点が道路平面上に
存在すると仮定した場合のオプティカルフロー(理論フ
ロー値)を1/4に縮小した画像全体の点にあらかじめ
初期値として与える。これにより、多重解像度処理の初
期値を与えることができ、路面上のテクスチャの無い輝
度パターンの単純な点にも、自車両の速度に対応したオ
プティカルフローを与えることができる。Therefore, based on the speed information obtained by the speed information calculating unit 4, the optical flow (theoretical flow value) when all the points on the image are assumed to exist on the road plane is ¼. It is given as an initial value in advance to the points of the entire image reduced to. As a result, the initial value of the multi-resolution processing can be given, and an optical flow corresponding to the speed of the host vehicle can be given to a simple point of the brightness pattern having no texture on the road surface.
【0112】これにより、前述したエネルギー汎関数の
最小解を計算したときに、路面上の全ての点で自車両の
速度情報に対応したオプティカルフローを算出すること
ができ、路面上のテクスチャ等の影響を受けることな
く、前方車両によるオプティカルフローのみを抽出する
ことが可能である。Thus, when the minimum solution of the above-mentioned energy functional is calculated, the optical flow corresponding to the speed information of the own vehicle can be calculated at all points on the road surface, and the texture etc. on the road surface can be calculated. It is possible to extract only the optical flow from the vehicle ahead without being affected.
【0113】以上のような考えに基づき、前方画像上の
全ての点が道路平面上に存在すると仮定して、自車両の
速度情報から理論フロー値を計算する。Based on the above idea, it is assumed that all the points on the front image exist on the road plane, and the theoretical flow value is calculated from the speed information of the own vehicle.
【0114】いま、図24に示す如くの光学配置を考え
ると、イメージ・プレーンIP上の点(x,y)は、実
空間座標(X,Y,Z)とカメラの焦点距離fを用い
て、以下の(16)式、及び(17)式で示すことがで
きる。Considering the optical arrangement as shown in FIG. 24, the point (x, y) on the image plane IP is calculated by using the real space coordinates (X, Y, Z) and the focal length f of the camera. Can be expressed by the following equations (16) and (17).
【0115】x=f(X/Y) ・・・(16)
y=f(Y/Z) ・・・(17)
そして、点(x,y)を時間で微分した値、即ち、点
(x,y)のオプティカルフロー(u,v)は、以下の
(18)、(19)式で示すことができる。X = f (X / Y) (16) y = f (Y / Z) (17) Then, the value obtained by differentiating the point (x, y) with time, that is, the point ( The optical flow (u, v) of (x, y) can be expressed by the following equations (18) and (19).
【0116】
u=(fX′−xZ′)/Z ・・・(18)
v=(fY′−yZ′)/Z ・・・(19)
ここで、路面上の静止物体においては、次の(20)と
なる。U = (fX′−xZ ′) / Z (18) v = (fY′−yZ ′) / Z (19) Here, for a stationary object on the road surface, (20).
【0117】
X’=Y’=0 ・・・(20)
また、Y=(カメラの高さ)=H、Z’=(自車両の速
度)=−V、とすることにより、点(x,y)での理論
フロー値は、以下の(21)式、(22)式で求めるこ
とができる。X ′ = Y ′ = 0 (20) Further, by setting Y = (camera height) = H and Z ′ = (speed of own vehicle) = − V, the point (x , Y) can be obtained by the following equations (21) and (22).
【0118】
u=Vx/Z=Vx2/fX=Vxy/fH ・・・(21)
v=Vy/Z=Vy2/fH ・・・(22)
<前方車両領域の分離処理部5>前方車両領域の分離処
理部6では、前述したオプティカルフロー算出部5にお
ける(B-2)の処理で作成した時間的平均画像に対し
て、(B-4)の処理で求められた速度情報による理論フ
ロー値を初期値とし、(B-3)で示した多重解像度処理
を用いて、(B-1)で導出したエネルギー汎関数の最小
解を求める。これにより、図25に示す如くの、画像全
体のオプティカルフローを算出する。U = Vx / Z = Vx 2 / fX = Vxy / fH (21) v = Vy / Z = Vy 2 / fH (22) <separation processing unit 5 in front vehicle area> forward In the vehicle region separation processing unit 6, the theory based on the speed information obtained in the process (B-4) is applied to the temporal average image created in the process (B-2) in the optical flow calculation unit 5 described above. Using the flow value as an initial value, the minimum solution of the energy functional derived in (B-1) is obtained by using the multiresolution processing shown in (B-3). As a result, the optical flow of the entire image as shown in FIG. 25 is calculated.
【0119】このオプティカルフローと、速度情報から
算出した理論フロー値を比較することにより、図26に
示す如くの、路面より高い位置にあり、且つ、自車両の
速度とは異なった速度を持つ領域を抽出することができ
る。更に、分離されたフローの中で、走行車線認識部3
の処理にて認識された2段階白線認識の結果に基づき、
自車両が走行している車線内のオプティカルフローのみ
を残すことにより、図27に示す如くの、自車線内に存
在する車両のオプティカルフローのみを分離する。By comparing this optical flow with the theoretical flow value calculated from the speed information, a region at a position higher than the road surface and having a speed different from the speed of the own vehicle as shown in FIG. Can be extracted. Further, in the separated flow, the traveling lane recognition unit 3
Based on the result of the two-step white line recognition recognized in the process of
By leaving only the optical flow in the lane in which the vehicle is traveling, only the optical flow of the vehicle in the vehicle as shown in FIG. 27 is separated.
【0120】このとき、路面上のテクスチャ等によるオ
プティカルフローは、自車両の速度に対応するオプティ
カルフローと等しくなるので消去することが可能であ
る。At this time, the optical flow due to the texture on the road surface is equal to the optical flow corresponding to the speed of the host vehicle, and therefore it can be eliminated.
【0121】こうして、前方車両のみのオプティカルフ
ローを効果的に抽出することができるのである。In this way, the optical flow of only the vehicle ahead can be effectively extracted.
【0122】<危険度評価部7>危険度評価部7では、
分離された前方車両のオプティカルフローに基づいて、
自車両が前方車両に追突する危険度を評価し、この危険
度に応じて運転者に警告する処理が行われる。<Danger Level Evaluation Unit 7> In the risk level evaluation unit 7,
Based on the optical flow of the separated forward vehicle,
A process of evaluating the risk of the own vehicle colliding with a vehicle ahead and warning the driver according to the risk is performed.
【0123】いま、高速道路を走行している場合で、一
般に危険であるという状況として、(1)自車両と前方
車両との車間距離が短い場合、(2)自車両が前方車両
に急激に接近している場合、の2点が挙げられる。Now, when driving on an expressway, it is generally regarded as dangerous. (1) When the inter-vehicle distance between the own vehicle and the preceding vehicle is short, (2) the own vehicle suddenly moves to the preceding vehicle. If they are close, there are two points.
【0124】ここで、オプティカルフローの大きさは、
元々、実空間上において対象物体がカメラに近ければ近
いほど大きく、相対速度が大きいほど大きくなるという
性質を持っている。Here, the magnitude of the optical flow is
Originally, it has the property that in the real space, the closer the target object is to the camera, the larger it becomes, and the larger the relative speed, the larger it becomes.
【0125】従って、監視領域内のオプティカルフロー
を単純に加算することにより、自車両の危険状況を評価
する方法が容易に思料される。即ち、個々のオプティカ
ルフローにおけるy成分の大きさをvi、オプティカル
フローの発生数をNとした場合、前方視界における危険
度Dを、以下の(23)式に示すように、表す方法が考
えられる。Therefore, a method for evaluating the dangerous situation of the own vehicle can be easily conceived by simply adding the optical flows in the monitoring area. That is, when the magnitude of the y component in each optical flow is vi and the number of optical flows generated is N, a method of expressing the risk D in the forward field of view as shown in the following equation (23) is conceivable. .
【0126】[0126]
【数10】
ところが、この方法を用いた場合、オプティカルフロー
の大きさを全て足しこんでいるために、危険度Dは、発
生するオプティカルフローの数Nに大きく依存してしま
う。つまり、画像全体の点において密なオプティカルフ
ローを算出しているため、前方車両の大きさが直接Nの
個数に影響を与えることとなる。よって、図28(a)
に示すように、自車両の前方に四輪車両が存在する場合
と、同図(b)に示すように、自車両の前方に二輪車が
存在する場合とでは、同一距離に存在する車両が自車両
に同一距離だけ接近しても、危険度が異なってしまう。
つまり、前方車両の横幅によって危険度が相違するとい
う問題が生じる。[Equation 10] However, when this method is used, the degree of risk D largely depends on the number N of generated optical flows because all the sizes of optical flows are added. That is, since the dense optical flow is calculated at the points of the entire image, the size of the vehicle in front directly affects the number of N. Therefore, FIG. 28 (a)
When a four-wheel vehicle is present in front of the host vehicle as shown in FIG. 2 and when a two-wheel vehicle is present in front of the host vehicle as shown in FIG. Even if they approach the vehicle by the same distance, the degree of danger will be different.
That is, there is a problem in that the degree of risk varies depending on the width of the vehicle ahead.
【0127】そこで、本実施形態では、図29に示すよ
うに、FOE点より下方となる各y座標におけるオプテ
ィカルフローのy成分の平均値を計算してその和を求め
る。即ち、以下に示す(24)式を考える。Therefore, in the present embodiment, as shown in FIG. 29, the average value of the y components of the optical flow at each y coordinate below the FOE point is calculated, and the sum is obtained. That is, consider the following equation (24).
【0128】[0128]
【数11】
これは、横方向にオプティカルフローの大きさを平均化
しているため、前方車両の横幅が危険度の指標に影響を
及ぼすことがない。また、このとき前方車両の下端のy
座標がy0で、y0におけるオプティカルフローのy成分
の平均値がv0であるとし、前方車両のオプティカルフ
ローが同一の奥行き平面上から発生すると仮定すると、
前方車両領域においては、y方向の大きさに比例するy
成分を持ったオプティカルフローが発生するので、前方
車両内におけるオプティカルフローのy成分の平均値
は、以下の(25)式で表すことができる。[Equation 11] Since the magnitudes of the optical flows are averaged in the lateral direction, the lateral width of the vehicle ahead does not affect the risk index. At this time, y at the lower end of the vehicle ahead
Assuming that the coordinate is y0, the average value of the y component of the optical flow at y0 is v0, and the optical flow of the preceding vehicle occurs on the same depth plane,
In the front vehicle area, y that is proportional to the size in the y direction
Since the optical flow having the component is generated, the average value of the y component of the optical flow in the vehicle ahead can be expressed by the following equation (25).
【0129】[0129]
【数12】
そして、前述の(24)式は、(25)式によって、以
下の(26)式となる。[Equation 12] Then, the above equation (24) becomes the following equation (26) by the equation (25).
【0130】[0130]
【数13】
これにより、この危険度Dは、y0が大きいほど、即
ち、前方車両の下端の点が自車両に近いほど大きくなる
と同時に、v0が大きいほど、即ち、前方車両の接近の
度合いが急激なるほど大きくなることが分かり、高速道
路を走行している場合で、一般に危険であるいう状況と
一致することが分かる。[Equation 13] As a result, the risk D increases as y0 increases, that is, as the point at the lower end of the front vehicle approaches the host vehicle, and at the same time, as v0 increases, that is, the degree of approach of the front vehicle increases. It can be seen that the situation is generally dangerous when traveling on a highway.
【0131】次に、実際の警告画面の表示方法について
説明する。図30に警告画面を示す。まず、警告画面の
中央に、取得した原画像を表示する。この画像中におい
て、2段階での白線認識結果を緑色で示し、前方車両の
オプティカルフローを赤色で示す。運転者への警告発生
として、警告画像の右側に危険度の評価値から判断した
危険度を10段階の数字とレベルバーで表示する。Next, a method of displaying an actual warning screen will be described. FIG. 30 shows a warning screen. First, the acquired original image is displayed in the center of the warning screen. In this image, the white line recognition result in two stages is shown in green, and the optical flow of the vehicle ahead is shown in red. When a warning is issued to the driver, the risk level judged from the evaluation value of the risk level is displayed on the right side of the warning image by 10-level numbers and a level bar.
【0132】また、危険度レベルバーの数字に合わせ
て、危険度が10〜8の場合は高い音で、7〜5の場合
は低い音で警告音を出力する。警告音については、現在
より前5フレームの危険度を考慮し、危険度が連続して
閾値を超えた時点で警告を発するものとする。Also, in accordance with the numbers on the risk level bar, a warning sound is output with a high sound when the risk level is 10 to 8 and a low sound when the risk level is 7 to 5. Regarding the warning sound, the degree of danger of the five frames before the present is taken into consideration, and a warning is issued when the degree of danger continuously exceeds the threshold value.
【0133】こうすることにより、前方車両と接近した
ことが検出された際には、確実に、運転者に通知するこ
とができ、安全性を向上させることができる。In this way, when it is detected that the vehicle ahead is approaching, the driver can be surely notified and safety can be improved.
【0134】このようにして、本実施形態に係る車両周
辺監視装置1では、自車両の前方を走行する車両のオプ
ティカルフローを、極めて高精度に抽出することがで
き、該オプティカルフローに基づいて、自車両と前方車
両との距離、及び自車両が前方車両に接近する速度を求
めることができるので、自車両と前方車両との衝突の危
険度を即時、且つ高精度に得ることができる。その結
果、自車両走行時の安全性を著しく向上させることがで
きる。In this way, in the vehicle periphery monitoring device 1 according to this embodiment, the optical flow of the vehicle traveling in front of the host vehicle can be extracted with extremely high accuracy, and based on the optical flow, Since the distance between the host vehicle and the preceding vehicle and the speed at which the host vehicle approaches the preceding vehicle can be obtained, the risk of collision between the host vehicle and the preceding vehicle can be obtained immediately and with high accuracy. As a result, it is possible to significantly improve the safety when the vehicle is running.
【0135】以上、本発明の車両周囲監視装置を図示の
実施形態に基づいて説明したが、本発明はこれに限定さ
れるものではなく、各部の構成は、同様の機能を有する
任意の構成のものに置き換えることができる。Although the vehicle surroundings monitoring device of the present invention has been described above based on the illustrated embodiment, the present invention is not limited to this, and the configuration of each part may be any configuration having the same function. Can be replaced with one.
【0136】例えば、上記した実施形態では、速度情報
算出部4を用いて、自車両速度を測定する例について説
明したが、該速度情報算出部4を用いずに、自車両の走
行速度を車両に搭載される車速センサより入手するよう
に構成することも可能である。For example, in the above-described embodiment, an example in which the speed information calculation unit 4 is used to measure the speed of the host vehicle has been described. However, without using the speed information calculation unit 4, the traveling speed of the host vehicle is set to the vehicle speed. It is also possible to obtain it from the vehicle speed sensor mounted on the vehicle.
【0137】また、上記した実施形態では、オプティカ
ルフローの算出処理の際に、1/4画像、1/2画像、
及び原寸画像を用いる方式を採用したが、本発明はこれ
に限定されるものではなく、1/3画像などの、その他
のサイズの画像を用いることも可能である。Further, in the above-described embodiment, when calculating the optical flow, a 1/4 image, a 1/2 image,
However, the present invention is not limited to this, and it is also possible to use images of other sizes such as ⅓ image.
【0138】更に、本実施形態では、走行車線認識部3
では、2段階の処理で走行車線を抽出する例について説
明したが、本発明はこれに限定されるものではなく、3
段階以上の処理とすることも可能である。Furthermore, in the present embodiment, the traveling lane recognition unit 3
In the above, an example in which the driving lane is extracted by the two-stage processing has been described, but the present invention is not limited to this, and 3
It is also possible to carry out processing in more than one stage.
【0139】また、時間的な平均画像n’を得るため
に、3フレーム(n−1、n、n+1フレーム)の平均
を求める例について説明したが、本発明はこれに限定さ
れるものではなく、2フレーム、或いは4フレーム以上
の平均を求めても良い。Further, an example of obtaining the average of three frames (n-1, n, n + 1 frames) in order to obtain the temporal average image n'has been described, but the present invention is not limited to this. Alternatively, an average of 2 frames or 4 frames or more may be obtained.
【0140】更に、本実施形態では、自車両の前方の映
像を撮影し、自車両の走行車線を走行する前方車両の存
在を検出する例について説明したが、本発明は、これに
限定されるものではなく、自車両後方に存在する移動物
体との距離を求めるように構成することも可能である。Further, in the present embodiment, an example in which an image of the front of the own vehicle is taken and the presence of a forward vehicle traveling in the traveling lane of the own vehicle is detected has been described, but the present invention is not limited to this. Instead of the one, it is also possible to obtain the distance to the moving object existing behind the own vehicle.
【0141】[0141]
【発明の効果】以上説明したように、本発明に係る車両
周辺監視装置では、オプティカルフローを簡単に、且つ
精度良く求めることができるので、前方車両等の移動物
体の動きを確実に認識することができる。その結果、移
動物体と自車両との距離、及び移動物体と自車両との接
近速度を即時に認識することができ、車両運転時の安全
性を向上させることができる。As described above, in the vehicle periphery monitoring device according to the present invention, the optical flow can be obtained easily and accurately, so that the movement of a moving object such as a vehicle ahead can be surely recognized. You can As a result, it is possible to immediately recognize the distance between the moving object and the own vehicle and the approaching speed between the moving object and the own vehicle, and it is possible to improve the safety when driving the vehicle.
【図1】本発明の一実施形態に係る車両周辺監視装置の
構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a vehicle periphery monitoring device according to an embodiment of the present invention.
【図2】連続画像取得部により撮影する自車両の前方領
域を示す説明図である。FIG. 2 is an explanatory diagram showing a front area of a vehicle captured by a continuous image acquisition unit.
【図3】(a)は直線道路走行時における前方映像を示
し、(b)はカーブ路走行時における前方映像を示す。FIG. 3A shows a front image when traveling on a straight road, and FIG. 3B shows a front image when traveling on a curved road.
【図4】路上の白線を認識する際の処理を示す説明図で
ある。FIG. 4 is an explanatory diagram showing a process for recognizing a white line on a road.
【図5】白線のエッジ部分にて、輝度が変化する様子を
示す説明図である。FIG. 5 is an explanatory diagram showing how the luminance changes at the edge portion of the white line.
【図6】1段階目の白線認識処理において検出されたエ
ッジ点と、該エッジ点に基づく直線候補のラインを示す
説明図である。FIG. 6 is an explanatory diagram showing edge points detected in the first-stage white line recognition processing and lines of straight line candidates based on the edge points.
【図7】1フレーム前のFOE点を通る直線候補のライ
ンを示す説明図である。FIG. 7 is an explanatory diagram showing lines of straight line candidates that pass through an FOE point one frame before.
【図8】1フレーム前のFOE点から離れた位置を通過
する直線候補のラインを除外する際の説明図である。FIG. 8 is an explanatory diagram for excluding a line candidate of a straight line that passes a position away from an FOE point one frame before.
【図9】1フレーム前に抽出された白線の角度と大きく
離れた直線候補のラインを除外する際の説明図である。FIG. 9 is an explanatory diagram for excluding a line candidate line that is greatly separated from the angle of the white line extracted one frame before.
【図10】抽出された2本の白線のラインを示す説明図
である。FIG. 10 is an explanatory diagram showing two extracted white lines.
【図11】2段階目の白線認識処理における探索範囲を
示す説明図である。FIG. 11 is an explanatory diagram showing a search range in the second-stage white line recognition processing.
【図12】2段階目の白線処理において、カーブ路の白
線を認識する様子を示す説明図である。FIG. 12 is an explanatory diagram showing how a white line on a curved road is recognized in the second-stage white line processing.
【図13】2段階目の白線処理において、1段階目のF
OE点のY座標と異なる点を通過する直線候補のライン
を除外する際の説明図である。FIG. 13 is a schematic diagram illustrating the second-stage white line processing in which the first-stage F
It is explanatory drawing at the time of excluding the line of a straight line candidate which passes the point different from the Y coordinate of OE point.
【図14】2段階目の白線処理において、1段階目の白
線処理で得られた白線に近い点を通過しない直線候補の
ラインを除外する際の説明図である。FIG. 14 is an explanatory diagram when a line candidate line that does not pass through a point close to the white line obtained in the first step white line processing is excluded in the second step white line processing.
【図15】前方車両の存在により、2段階目の白線処理
が行えないときの処理の説明図である。FIG. 15 is an explanatory diagram of a process when the white line process in the second stage cannot be performed due to the presence of a vehicle ahead.
【図16】抽出された白線のデータに白線領域を設定す
る様子を示す説明図である。FIG. 16 is an explanatory diagram showing how a white line area is set in the extracted white line data.
【図17】破線の、白線部分と線間部分による輝度変化
を示す説明図である。FIG. 17 is an explanatory diagram showing a change in luminance of a broken line between a white line portion and a line portion.
【図18】カメラと、撮影対象物との位置関係を示す説
明図である。FIG. 18 is an explanatory diagram showing a positional relationship between a camera and an object to be photographed.
【図19】カメラが移動したときの、該カメラと撮影対
象物との位置関係を示す説明図である。FIG. 19 is an explanatory diagram showing a positional relationship between the camera and an object to be photographed when the camera moves.
【図20】3つのフレーム画像を用いて1つの平均化画
像を作成する様子を示す説明図である。FIG. 20 is an explanatory diagram showing a state in which one averaged image is created using three frame images.
【図21】縮小した画像から順次オプティカルフローを
求め、原寸大の画像のオプティカルフローを求める手順
を示す説明図である。FIG. 21 is an explanatory diagram showing a procedure of sequentially obtaining an optical flow from a reduced image and obtaining an optical flow of a full-scale image.
【図22】画面上の全ての点でオプティカルフローが求
められたときの説明図である。FIG. 22 is an explanatory diagram when optical flows are obtained at all points on the screen.
【図23】路面上のテクスチャが存在しない部分に、オ
プティカルフローが存在しないときの様子を示す説明図
である。FIG. 23 is an explanatory diagram showing a state where an optical flow does not exist in a portion on the road surface where a texture does not exist.
【図24】理論フローを求める際の、光学配置図であ
る。FIG. 24 is an optical layout diagram for obtaining a theoretical flow.
【図25】算出されたオプティカルフローを示す説明図
である。FIG. 25 is an explanatory diagram showing a calculated optical flow.
【図26】図25に示したオプティカルフローから、理
論フローを減じて得られたオプティカルフローを示す説
明図である。26 is an explanatory diagram showing an optical flow obtained by subtracting the theoretical flow from the optical flow shown in FIG.
【図27】図26に示したオプティカルフローから、自
車両の車線内に存在するオプティカルフローを残したと
きの様子を示す説明図である。FIG. 27 is an explanatory diagram showing a state where an optical flow existing in the lane of the own vehicle is left from the optical flow shown in FIG. 26.
【図28】(a)は、前方の四輪車両が存在するときの
オプティカルフロー、(b)は、前方に二輪車両が存在
するときのオプティカルフローを示す。FIG. 28 (a) shows an optical flow when a front four-wheel vehicle exists, and (b) shows an optical flow when a two-wheel vehicle exists in the front.
【図29】前方車両のオプティカルフローを求める際の
説明図である。FIG. 29 is an explanatory diagram for obtaining an optical flow of a vehicle ahead.
【図30】危険度表示の様子を示す説明図である。FIG. 30 is an explanatory diagram showing a state of risk display.
1 車両周辺監視装置
2 連続画像取得部(画像取得手段)
3 走行車線認識部(走行車線認識手段)
4 速度情報算出部
5 オプティカルフロー算出部(オプティカルフロー算
出手段)
6 前方車両領域の分離処理部
7 危険度評価部(通知手段)1 Vehicle Surrounding Monitoring Device 2 Continuous Image Acquisition Unit (Image Acquisition Unit) 3 Driving Lane Recognition Unit (Driving Lane Recognition Unit) 4 Speed Information Calculation Unit 5 Optical Flow Calculation Unit (Optical Flow Calculation Means) 6 Separation Processing Unit for Front Vehicle Area 7 Risk Assessment Section (Notification Means)
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 320 G06T 1/00 320A 330 330A 3/00 500 3/00 500A 3/40 3/40 A 5/50 5/50 7/60 200 7/60 200J G08G 1/04 G08G 1/04 D 1/16 1/16 C H04N 7/18 H04N 7/18 J K (72)発明者 中島 真人 東京都調布市入間町3−14−18 (72)発明者 加藤 禎篤 神奈川県横須賀市若宮台21−13 Fターム(参考) 5B057 AA16 AA19 CA08 CA12 CA16 CB08 CB12 CB16 CD05 CE05 CF05 CH01 DA06 DB02 DC16 5C054 AA02 AA04 FC12 FC14 FE28 HA30 5H180 AA01 CC04 LL04 LL09 5L096 BA02 DA02 EA03 EA06 EA39 FA06 FA32 FA67 GA02 HA03─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 1/00 320 G06T 1/00 320A 330 330A 3/00 500 3/00 500A 3/40 3/40 A 5/50 5/50 7/60 200 7/60 200J G08G 1/04 G08G 1/04 D 1/16 1/16 C H04N 7/18 H04N 7/18 J K (72) Inventor Masato Nakajima Tokyo Chofu 3-14-18 Iruma-cho, Ichi (72) Satoshi Kato 21-13 F term, Wakamiyadai, Yokosuka City, Kanagawa Prefecture (reference) 5B057 AA16 AA19 CA08 CA12 CA16 CB08 CB12 CB16 CD05 CE05 CF05 CH01 DA06 DB02 DC16 5C054 AA02 AA04 FC12 FC14 FE28 HA30 5H180 AA01 CC04 LL04 LL09 5L096 BA02 DA02 EA03 EA06 EA39 FA06 FA32 FA67 GA02 HA03
Claims (9)
影された画像に基づいて車両周辺の状況を監視する車両
周辺監視装置において、 車両の周辺映像を撮影する画像取得手段と、 前記画像取得手段にて撮影された画像から、走行車線を
認識する走行車線認識手段と、 前記走行車線認識手段より得られる走行車線データと、
更に車両の速度データ、及び前記画像取得手段にて撮影
された画像から前記移動物体を抽出するオプティカルフ
ロー算出手段と、 前記オプティカルフロー算出手段にて抽出された移動物
体の状況を、車両の乗員に通知する通知手段と、を具備
し、 前記オプティカルフロー算出手段は、今回のフレーム撮
影時の画像における所望点の輝度値と、次回のフレーム
撮影時の画像における前記所望点に対応する点での輝度
値に基づき、且つ、前記画像取得手段にて撮影される移
動物体の速度変化が滑らかであることを条件にして作成
されるエネルギー汎関数を用いてオプティカルフローを
算出することを特徴とする車両周辺監視装置。1. A vehicle periphery monitoring device for sequentially capturing peripheral images of a vehicle while the vehicle is traveling, and monitoring the situation around the vehicle based on the captured images, an image acquisition unit for capturing peripheral images of the vehicle, and the image. Traveling lane recognition means for recognizing a traveling lane from an image captured by the acquisition means; traveling lane data obtained by the traveling lane recognition means;
Further, the speed data of the vehicle, and an optical flow calculation means for extracting the moving object from the image captured by the image acquisition means, and a situation of the moving object extracted by the optical flow calculation means to the occupant of the vehicle. Notifying means for notifying, the optical flow calculating means, the optical flow calculating means, the brightness value of the desired point in the image at the time of the current frame shooting, and the brightness at the point corresponding to the desired point in the image at the next frame shooting A vehicle periphery characterized by calculating an optical flow based on a value and using an energy functional created on the condition that the speed change of a moving object photographed by the image acquisition means is smooth Monitoring equipment.
下に示すエネルギー汎関数E(u,v)を最小とする
(u,v)として算出することを特徴とする請求項1に
記載の車両周辺監視装置。 【数1】 但し、G(x,y)は現フレームでの所望点(x,y)
における輝度値、F(x+u,y+v)は次フレームで
の所望点(x,y)に対応する点での輝度値、αは重み
付けの定数、uxはuのx軸方向の偏微分、uyはuのy
軸方向の偏微分、vxはvのx軸方向の偏微分、vyはv
のy軸方向の偏微分2. The vehicle periphery monitoring according to claim 1, wherein the optical flow calculation means calculates the energy functional E (u, v) shown below as (u, v) that minimizes it. apparatus. [Equation 1] However, G (x, y) is the desired point (x, y) in the current frame
, F (x + u, y + v) is a brightness value at a point corresponding to a desired point (x, y) in the next frame, α is a weighting constant, ux is a partial differential of u in the x-axis direction, and uy is u y
Partial differential in the axial direction, vx is the partial differential in the x-axis direction of v, and vy is v
Partial differential along the y-axis
回撮影時のフレームを含む複数フレームの画素データの
平均値より、第1の平均化フレームを求め、次回撮影時
のフレームを含む複数フレームの画素データの平均値よ
り、第2の平均化フレームを求め、 前記第1の平均化フレームと、第2の平均化フレームと
に基づいて、オプティカルフローを算出することを特徴
とする請求項1または請求項2のいずれかに記載の車両
周辺監視装置。3. The optical flow calculation means obtains a first averaged frame from an average value of pixel data of a plurality of frames including a frame at the current shooting, and pixel data of a plurality of frames including a frame at the next shooting. 2. The second averaged frame is obtained from the average value of, and the optical flow is calculated based on the first averaged frame and the second averaged frame. 2. The vehicle periphery monitoring device according to any one of 2.
記第1の平均化フレーム、及び前記第2の平均化フレー
ムについて、それぞれ、フレームに含まれる複数画素を
一画素と見なすことにより、画像サイズを縮小し、該縮
小された画像を1個、または異なる縮小率で複数個生成
し、 縮小率が最も高い前記第1の平均化フレームと、前記第
2の平均化フレームとに基づいてオプティカルフローを
算出すると共に、該オプティカルフローの算出データに
基づいて、順次原寸大に近い縮小率の各平均化フレーム
のオプティカルフローを算出する処理を繰り返し、原寸
大のオプティカルフローを算出することを特徴とする請
求項3に記載の車両周辺監視装置。4. The optical flow calculation unit reduces the image size by regarding a plurality of pixels included in each of the first averaged frame and the second averaged frame as one pixel. Then, one reduced image is generated or a plurality of reduced images are generated at different reduction rates, and an optical flow is calculated based on the first averaged frame and the second averaged frame having the highest reduction rate. At the same time, based on the calculated data of the optical flow, the process of calculating the optical flow of each averaging frame having a reduction ratio close to the actual size is repeated to calculate the optical flow of the actual size. 3. The vehicle periphery monitoring device according to 3.
手段にて撮影された画像中の輝度変化を求めることによ
り、路面と仕切線との境界となるエッジ点を複数個検出
し、該複数個のエッジ点に基づいて、直線近似処理を行
い、自車両の走行車線の右側仕切線、及び左側仕切線を
抽出することを特徴とする請求項1〜請求項4のいずれ
か1項に記載の車両周辺監視装置。5. The traveling lane recognition means detects a plurality of edge points that are boundaries between a road surface and a partition line by obtaining a change in brightness in an image captured by the image acquisition means, and the plurality of edge points are detected. 5. A straight line approximation process is performed based on each edge point to extract a right side partition line and a left side partition line of the own vehicle's travel lane, according to any one of claims 1 to 4. Vehicle surroundings monitoring device.
手段にて撮影された画像を、自車両に近い第1の領域
と、この第1の領域よりも遠方となる第2の領域に分割
し、 前記第1の領域については、複数のエッジ点に基づい
て、直線近似を行い、更に、下記(1-1)〜(1-3)の
うちの少なくとも1つの条件に基づいて左右の仕切線を
抽出し、 (1-1)1フレーム前の画像のFOE点とのずれが小さ
い (1-2)1フレーム前の画像の仕切線の角度とのずれが
小さい (1-3)計算から求められる理論的な角度に適合してい
る 前記第2の領域については、複数のエッジ点に基づい
て、直線近似を行い、更に、下記(2-1)、(2-2)の
うちの少なくとも1つの条件に基づいて左右の仕切線を
抽出することを特徴とする請求項5に記載の車両周辺監
視装置。 (2-1)FOE点のY座標と、第1の領域で抽出された
仕切線のFOE点のY座標とのずれが小さい (2-2)近似された直線の下端が、第1の領域で抽出さ
れた仕切線付近に存在する6. The driving lane recognition means divides the image captured by the image acquisition means into a first area near the own vehicle and a second area farther than the first area. Then, for the first region, linear approximation is performed based on a plurality of edge points, and further, the left and right partitions are based on at least one of the following conditions (1-1) to (1-3). The line is extracted, and (1-1) the deviation from the FOE point of the image one frame before is small (1-2) the deviation from the partition line angle of the image one frame before is small (1-3) from the calculation For the second region that matches the theoretical angle required, linear approximation is performed based on a plurality of edge points, and further, at least one of the following (2-1) and (2-2) The vehicle periphery monitoring device according to claim 5, wherein the left and right partition lines are extracted based on one condition. . (2-1) The deviation between the Y coordinate of the FOE point and the Y coordinate of the FOE point of the partition line extracted in the first area is small. (2-2) The lower end of the approximated straight line is the first area. Exists near the partition line extracted by
含まれる破線の、線部、及び線間部を抽出し、予め設定
される、前記線部の長さ、及び前記線間部の長さに基づ
いて、前記速度データを求める速度情報算出部を具備し
たことを特徴とする請求項1〜請求項6のいずれか1項
に記載の車両周辺監視装置。7. A line portion and a line portion of a broken line included in the image captured by the image acquisition unit are extracted, and preset lengths of the line portion and the line portion are set. The vehicle periphery monitoring device according to any one of claims 1 to 6, further comprising a speed information calculation unit that calculates the speed data based on a length.
との間隔、或いは前記移動物体が自車両に近づく際の速
度に応じて自車両の危険度を示すことを特徴とする請求
項1〜請求項7のいずれか1項に記載の車両周辺監視装
置。8. The notification means indicates the degree of danger of the own vehicle according to the distance between the moving object and the own vehicle or the speed at which the moving object approaches the own vehicle. ~ The vehicle periphery monitoring device according to claim 7.
を撮影し、前記移動物体は、自車両の前方を走行する車
両であることを特徴とする請求項1〜請求項8のいずれ
か1項に記載の車両周辺監視装置。9. The image acquisition means captures a front image of the host vehicle, and the moving object is a vehicle traveling in front of the host vehicle. The vehicle periphery monitoring device according to item 1.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001258578A JP2003067752A (en) | 2001-08-28 | 2001-08-28 | Vehicle periphery monitoring device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001258578A JP2003067752A (en) | 2001-08-28 | 2001-08-28 | Vehicle periphery monitoring device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2003067752A true JP2003067752A (en) | 2003-03-07 |
Family
ID=19086074
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001258578A Pending JP2003067752A (en) | 2001-08-28 | 2001-08-28 | Vehicle periphery monitoring device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2003067752A (en) |
Cited By (35)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005096524A (en) * | 2003-09-22 | 2005-04-14 | Nissan Motor Co Ltd | VEHICLE DRIVE OPERATION ASSISTANCE DEVICE AND VEHICLE WITH VEHICLE DRIVE OPERATION ASSISTANCE DEVICE |
| JP2005222425A (en) * | 2004-02-06 | 2005-08-18 | Sharp Corp | Vehicle periphery monitoring device, vehicle periphery monitoring method, control program, and readable recording medium |
| JP2006185406A (en) * | 2004-11-30 | 2006-07-13 | Nissan Motor Co Ltd | Object detection apparatus and method |
| JP2006318271A (en) * | 2005-05-13 | 2006-11-24 | Nissan Motor Co Ltd | In-vehicle image processing apparatus and image processing method |
| JP2007140763A (en) * | 2005-11-16 | 2007-06-07 | Nissan Motor Co Ltd | Image processing apparatus and image processing method |
| KR100738522B1 (en) | 2004-12-21 | 2007-07-11 | 삼성전자주식회사 | Camera / object movement classification and object extraction apparatus and method in video surveillance system |
| JP2007183912A (en) * | 2005-12-06 | 2007-07-19 | Nissan Motor Co Ltd | Runway boundary line detection apparatus and runway boundary line detection method |
| JP2007200191A (en) * | 2006-01-30 | 2007-08-09 | Clarion Co Ltd | Lane detection device and lane deviation warning device |
| JP2007323596A (en) * | 2006-06-05 | 2007-12-13 | Honda Motor Co Ltd | Collision avoidance system, program and method for moving object |
| JP2008165326A (en) * | 2006-12-27 | 2008-07-17 | Aisin Aw Co Ltd | Feature recognition device, own vehicle location recognizing device, navigation device and feature recognition method |
| WO2008084592A1 (en) * | 2007-01-12 | 2008-07-17 | Honda Motor Co., Ltd. | Lane recognition device, vehicle, lane recognition method, and lane recognition program |
| JP2008538025A (en) * | 2005-03-21 | 2008-10-02 | バレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | Lane recognition apparatus and method |
| US7437243B2 (en) | 2005-03-22 | 2008-10-14 | Nissan Motor Co., Ltd. | Detecting device and method to detect an object based on a road boundary |
| JP2009157943A (en) * | 2009-04-02 | 2009-07-16 | Toyota Motor Corp | In-vehicle image processing device |
| US7602946B2 (en) | 2004-09-24 | 2009-10-13 | Nissan Motor Co., Ltd. | Motion detection apparatus and motion detection method |
| JP2010021633A (en) * | 2008-07-08 | 2010-01-28 | Nissan Motor Co Ltd | Mobile object detector and detection method |
| JP2010128869A (en) * | 2008-11-28 | 2010-06-10 | Fujitsu Ltd | Approaching object detection device, approaching object detection program, and approaching object detection method |
| US7813530B2 (en) | 2006-03-22 | 2010-10-12 | Nissan Motor Co., Ltd. | Motion detecting method and apparatus |
| JP2010286963A (en) * | 2009-06-10 | 2010-12-24 | Nissan Motor Co Ltd | Moving object detection apparatus and moving object detection method |
| JP2012113358A (en) * | 2010-11-19 | 2012-06-14 | Toshiba Alpine Automotive Technology Corp | Image processing apparatus for vehicles and image processing method for vehicles |
| US8218024B2 (en) | 2006-10-12 | 2012-07-10 | Stanley Electric Co., Ltd. | Solid state camera and sensor system and method |
| US8526681B2 (en) | 2007-07-17 | 2013-09-03 | Toyota Jidosha Kabushiki Kaisha | On-vehicle image processing device for vehicular control |
| WO2014034187A1 (en) * | 2012-08-30 | 2014-03-06 | 本田技研工業株式会社 | Lane mark recognition device |
| JP2014075145A (en) * | 2013-12-02 | 2014-04-24 | Honda Motor Co Ltd | Vehicle traveling support device |
| CN105025271A (en) * | 2015-07-28 | 2015-11-04 | 深圳英飞拓科技股份有限公司 | Behavior monitoring method and device |
| JP2015210729A (en) * | 2014-04-28 | 2015-11-24 | 本田技研工業株式会社 | Traveling path recognition device |
| WO2016047498A1 (en) * | 2014-09-24 | 2016-03-31 | 株式会社デンソー | Object-detecting device |
| WO2017043067A1 (en) * | 2015-09-11 | 2017-03-16 | 富士フイルム株式会社 | Driving assistance device and driving assistance method using driving assistance device |
| JP2017068700A (en) * | 2015-09-30 | 2017-04-06 | 株式会社デンソーアイティーラボラトリ | Object detection apparatus, object detection method, and program |
| JP2018084997A (en) * | 2016-11-24 | 2018-05-31 | キヤノン株式会社 | Image processing device, and image processing method |
| JP2019518358A (en) * | 2016-04-06 | 2019-06-27 | フェイスブック,インク. | Efficient determination of optical flow between images |
| CN112419748A (en) * | 2019-08-20 | 2021-02-26 | 广州中广国科测控技术有限公司 | Image speed measuring method using road marking |
| JP2021077061A (en) * | 2019-11-08 | 2021-05-20 | 三菱電機株式会社 | Obstacle detection device and obstacle detection method |
| JPWO2021172037A1 (en) * | 2020-02-28 | 2021-09-02 | ||
| JP2021131801A (en) * | 2020-02-21 | 2021-09-09 | フォルシアクラリオン・エレクトロニクス株式会社 | Image processing device and image processing method |
-
2001
- 2001-08-28 JP JP2001258578A patent/JP2003067752A/en active Pending
Cited By (45)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005096524A (en) * | 2003-09-22 | 2005-04-14 | Nissan Motor Co Ltd | VEHICLE DRIVE OPERATION ASSISTANCE DEVICE AND VEHICLE WITH VEHICLE DRIVE OPERATION ASSISTANCE DEVICE |
| JP2005222425A (en) * | 2004-02-06 | 2005-08-18 | Sharp Corp | Vehicle periphery monitoring device, vehicle periphery monitoring method, control program, and readable recording medium |
| US7602946B2 (en) | 2004-09-24 | 2009-10-13 | Nissan Motor Co., Ltd. | Motion detection apparatus and motion detection method |
| JP2006185406A (en) * | 2004-11-30 | 2006-07-13 | Nissan Motor Co Ltd | Object detection apparatus and method |
| KR100738522B1 (en) | 2004-12-21 | 2007-07-11 | 삼성전자주식회사 | Camera / object movement classification and object extraction apparatus and method in video surveillance system |
| JP2008538025A (en) * | 2005-03-21 | 2008-10-02 | バレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー | Lane recognition apparatus and method |
| US7437243B2 (en) | 2005-03-22 | 2008-10-14 | Nissan Motor Co., Ltd. | Detecting device and method to detect an object based on a road boundary |
| JP2006318271A (en) * | 2005-05-13 | 2006-11-24 | Nissan Motor Co Ltd | In-vehicle image processing apparatus and image processing method |
| JP2007140763A (en) * | 2005-11-16 | 2007-06-07 | Nissan Motor Co Ltd | Image processing apparatus and image processing method |
| JP2007183912A (en) * | 2005-12-06 | 2007-07-19 | Nissan Motor Co Ltd | Runway boundary line detection apparatus and runway boundary line detection method |
| JP2007200191A (en) * | 2006-01-30 | 2007-08-09 | Clarion Co Ltd | Lane detection device and lane deviation warning device |
| US7813530B2 (en) | 2006-03-22 | 2010-10-12 | Nissan Motor Co., Ltd. | Motion detecting method and apparatus |
| JP2007323596A (en) * | 2006-06-05 | 2007-12-13 | Honda Motor Co Ltd | Collision avoidance system, program and method for moving object |
| US8218024B2 (en) | 2006-10-12 | 2012-07-10 | Stanley Electric Co., Ltd. | Solid state camera and sensor system and method |
| JP2008165326A (en) * | 2006-12-27 | 2008-07-17 | Aisin Aw Co Ltd | Feature recognition device, own vehicle location recognizing device, navigation device and feature recognition method |
| WO2008084592A1 (en) * | 2007-01-12 | 2008-07-17 | Honda Motor Co., Ltd. | Lane recognition device, vehicle, lane recognition method, and lane recognition program |
| US8526681B2 (en) | 2007-07-17 | 2013-09-03 | Toyota Jidosha Kabushiki Kaisha | On-vehicle image processing device for vehicular control |
| JP2010021633A (en) * | 2008-07-08 | 2010-01-28 | Nissan Motor Co Ltd | Mobile object detector and detection method |
| JP2010128869A (en) * | 2008-11-28 | 2010-06-10 | Fujitsu Ltd | Approaching object detection device, approaching object detection program, and approaching object detection method |
| JP2009157943A (en) * | 2009-04-02 | 2009-07-16 | Toyota Motor Corp | In-vehicle image processing device |
| JP2010286963A (en) * | 2009-06-10 | 2010-12-24 | Nissan Motor Co Ltd | Moving object detection apparatus and moving object detection method |
| JP2012113358A (en) * | 2010-11-19 | 2012-06-14 | Toshiba Alpine Automotive Technology Corp | Image processing apparatus for vehicles and image processing method for vehicles |
| WO2014034187A1 (en) * | 2012-08-30 | 2014-03-06 | 本田技研工業株式会社 | Lane mark recognition device |
| JP5855756B2 (en) * | 2012-08-30 | 2016-02-09 | 本田技研工業株式会社 | Lane mark recognition device |
| US9830518B2 (en) | 2012-08-30 | 2017-11-28 | Honda Motor Co., Ltd. | Lane mark recognition device |
| JP2014075145A (en) * | 2013-12-02 | 2014-04-24 | Honda Motor Co Ltd | Vehicle traveling support device |
| JP2015210729A (en) * | 2014-04-28 | 2015-11-24 | 本田技研工業株式会社 | Traveling path recognition device |
| WO2016047498A1 (en) * | 2014-09-24 | 2016-03-31 | 株式会社デンソー | Object-detecting device |
| JP2016065760A (en) * | 2014-09-24 | 2016-04-28 | 株式会社デンソー | Object detection device |
| CN105025271A (en) * | 2015-07-28 | 2015-11-04 | 深圳英飞拓科技股份有限公司 | Behavior monitoring method and device |
| US10671859B2 (en) | 2015-09-11 | 2020-06-02 | Fujifilm Corporation | Travel assistance device and travel assistance method using travel assistance device |
| WO2017043067A1 (en) * | 2015-09-11 | 2017-03-16 | 富士フイルム株式会社 | Driving assistance device and driving assistance method using driving assistance device |
| JPWO2017043067A1 (en) * | 2015-09-11 | 2018-05-24 | 富士フイルム株式会社 | Driving support device and driving support method using driving support device |
| JP2017068700A (en) * | 2015-09-30 | 2017-04-06 | 株式会社デンソーアイティーラボラトリ | Object detection apparatus, object detection method, and program |
| JP2019518358A (en) * | 2016-04-06 | 2019-06-27 | フェイスブック,インク. | Efficient determination of optical flow between images |
| JP2018084997A (en) * | 2016-11-24 | 2018-05-31 | キヤノン株式会社 | Image processing device, and image processing method |
| CN112419748A (en) * | 2019-08-20 | 2021-02-26 | 广州中广国科测控技术有限公司 | Image speed measuring method using road marking |
| JP2021077061A (en) * | 2019-11-08 | 2021-05-20 | 三菱電機株式会社 | Obstacle detection device and obstacle detection method |
| JP2021131801A (en) * | 2020-02-21 | 2021-09-09 | フォルシアクラリオン・エレクトロニクス株式会社 | Image processing device and image processing method |
| JP7446851B2 (en) | 2020-02-21 | 2024-03-11 | フォルシアクラリオン・エレクトロニクス株式会社 | Image processing device and image processing method |
| JPWO2021172037A1 (en) * | 2020-02-28 | 2021-09-02 | ||
| WO2021172037A1 (en) * | 2020-02-28 | 2021-09-02 | ソニーグループ株式会社 | Image processing device, image processing method, program, and image presentation system |
| EP4113988A4 (en) * | 2020-02-28 | 2023-06-21 | Sony Group Corporation | IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, PROGRAM, AND IMAGE PRESENTATION SYSTEM |
| US12249049B2 (en) | 2020-02-28 | 2025-03-11 | Sony Group Corporation | Image processing device, image processing method, and image presentation system |
| JP7711696B2 (en) | 2020-02-28 | 2025-07-23 | ソニーグループ株式会社 | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND IMAGE PRESENTATION SYSTEM |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2003067752A (en) | Vehicle periphery monitoring device | |
| US10452931B2 (en) | Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system | |
| US8406472B2 (en) | Method and system for processing image data | |
| EP2924653B1 (en) | Image processing apparatus and image processing method | |
| EP1796043B1 (en) | Object detection | |
| US9415723B2 (en) | Image integration unit and image integration method | |
| US7612800B2 (en) | Image processing apparatus and method | |
| JP5297078B2 (en) | Method for detecting moving object in blind spot of vehicle, and blind spot detection device | |
| JP3463858B2 (en) | Perimeter monitoring device and method | |
| JP5127182B2 (en) | Object detection device | |
| JP2003296736A (en) | Obstacle detection apparatus and method | |
| US20180114078A1 (en) | Vehicle detection device, vehicle detection system, and vehicle detection method | |
| JP2016148962A (en) | Object detection device | |
| JP2005329779A (en) | Method and device for recognizing obstacle | |
| JP2005217883A (en) | Method for detecting flat road area and obstacle by using stereo image | |
| Baris et al. | Classification and tracking of traffic scene objects with hybrid camera systems | |
| JP5164351B2 (en) | Object detection apparatus and object detection method | |
| JP2004280194A (en) | Forward monitoring apparatus and method | |
| JP2001082954A (en) | Image processing device and image processing distance- measuring method | |
| JP4106163B2 (en) | Obstacle detection apparatus and method | |
| JP4015036B2 (en) | Obstacle detection device and obstacle detection method | |
| JP6569416B2 (en) | Image processing apparatus, object recognition apparatus, device control system, image processing method, and image processing program | |
| JP4575315B2 (en) | Object detection apparatus and method | |
| CN109886120B (en) | Zebra crossing detection method and system | |
| JP3543912B2 (en) | Optical flow detection method |