JP2003063340A - 運転補助装置 - Google Patents
運転補助装置Info
- Publication number
- JP2003063340A JP2003063340A JP2001257104A JP2001257104A JP2003063340A JP 2003063340 A JP2003063340 A JP 2003063340A JP 2001257104 A JP2001257104 A JP 2001257104A JP 2001257104 A JP2001257104 A JP 2001257104A JP 2003063340 A JP2003063340 A JP 2003063340A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- predicted travel
- assistance device
- driving assistance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/027—Parking aids, e.g. instruction means
- B62D15/0275—Parking aids, e.g. instruction means by overlaying a vehicle path based on present steering angle over an image without processing that image
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/027—Parking aids, e.g. instruction means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Combustion & Propulsion (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
(57)【要約】
【課題】 オーバーハングのある物体の下部に走行予想
軌跡が潜り込んで表示された場合でも、オーバーハング
のある物体に自車両が接触するか否かを判断可能とする
こと。 【解決手段】 、自車両の移動中にCCDカメラで取得
された複数の画像と、ステアリングアングルセンサーで
検出されたステアリング舵角信号及びコンビネーション
メーターで検出された車速信号に基づいて算出された自
車両の移動量とから(S16)、各組の画像間における
ノードのマッチングを行うとともに(S17)、マッチ
ングされたノードの3次元位置データを算出し、3次元
マップに投影して記憶する(S18)。その後、3次元
マップを用いて、自車両の走行予想軌跡の内側に物体が
存在するか否かを判断する。
軌跡が潜り込んで表示された場合でも、オーバーハング
のある物体に自車両が接触するか否かを判断可能とする
こと。 【解決手段】 、自車両の移動中にCCDカメラで取得
された複数の画像と、ステアリングアングルセンサーで
検出されたステアリング舵角信号及びコンビネーション
メーターで検出された車速信号に基づいて算出された自
車両の移動量とから(S16)、各組の画像間における
ノードのマッチングを行うとともに(S17)、マッチ
ングされたノードの3次元位置データを算出し、3次元
マップに投影して記憶する(S18)。その後、3次元
マップを用いて、自車両の走行予想軌跡の内側に物体が
存在するか否かを判断する。
Description
【0001】
【発明の属する技術分野】本発明は、画面に表示された
映像を使用して運転操作の補助を行う運転補助装置に関
する。
映像を使用して運転操作の補助を行う運転補助装置に関
する。
【0002】
【従来の技術】従来、画面に表示された映像を使用して
運転操作の補助を行う運転補助装置には、例えば、図1
4に示すように、ディスプレイの画面上に表示された自
車両の後方の映像に各ガイド線を合成して表示するもの
がある。ここで、図14について、具体的に説明する
と、ディスプレイの画面上には、自車両の後方の映像と
して、自車両のバンパー後端104や、他車両105、
2本の白線106,107が表示されるとともに、ガイ
ド線として、走行予想軌跡101や、2本の距離目安線
102,103が表示されている。
運転操作の補助を行う運転補助装置には、例えば、図1
4に示すように、ディスプレイの画面上に表示された自
車両の後方の映像に各ガイド線を合成して表示するもの
がある。ここで、図14について、具体的に説明する
と、ディスプレイの画面上には、自車両の後方の映像と
して、自車両のバンパー後端104や、他車両105、
2本の白線106,107が表示されるとともに、ガイ
ド線として、走行予想軌跡101や、2本の距離目安線
102,103が表示されている。
【0003】この点、走行予想軌跡101は、自車両の
最大突出部の移動軌跡を路面上に投影したものであり、
ステアリング角度から算出される。また、2本の距離目
安線102,103も、路面上に投影したものであり、
ステアリングに連動するものである。従って、ステアリ
ングの操作の際に、走行予想軌跡101の内側に他車両
105などの障害物がないことを確認しつつ、2本の白
線106,107の間に走行予想軌跡101を合わせれ
ば、2本の白線106,107の間に自車両を容易に駐
車させることができる。
最大突出部の移動軌跡を路面上に投影したものであり、
ステアリング角度から算出される。また、2本の距離目
安線102,103も、路面上に投影したものであり、
ステアリングに連動するものである。従って、ステアリ
ングの操作の際に、走行予想軌跡101の内側に他車両
105などの障害物がないことを確認しつつ、2本の白
線106,107の間に走行予想軌跡101を合わせれ
ば、2本の白線106,107の間に自車両を容易に駐
車させることができる。
【0004】
【発明が解決しようとする課題】しかしながら、走行予
想軌跡101や距離目安線102,103などのガイド
線は路面上を基準にしているため、オーバーハングのあ
る物体の下部に走行予想軌跡101が潜り込んだ場合に
は、オーバーハングのある物体に自車両が接触すること
を予測できないときがあった。例えば、自車両100と
他車両108とが図16のような状況にある場合には、
図15に示すように、ディスプレイの画面上では、他車
両108の下部に走行予想軌跡101が潜り込み、自車
両100を後退させても、他車両108と接触しないよ
うに見えることがあるが、実際には、自車両100は他
車両108に接触してしまう。
想軌跡101や距離目安線102,103などのガイド
線は路面上を基準にしているため、オーバーハングのあ
る物体の下部に走行予想軌跡101が潜り込んだ場合に
は、オーバーハングのある物体に自車両が接触すること
を予測できないときがあった。例えば、自車両100と
他車両108とが図16のような状況にある場合には、
図15に示すように、ディスプレイの画面上では、他車
両108の下部に走行予想軌跡101が潜り込み、自車
両100を後退させても、他車両108と接触しないよ
うに見えることがあるが、実際には、自車両100は他
車両108に接触してしまう。
【0005】そこで、本発明は、上述した問題点を解決
するためになされたものであり、オーバーハングのある
物体の下部に走行予想軌跡が潜り込んで表示された場合
でも、オーバーハングのある物体に自車両が接触するか
否かを判断可能とすることを課題とする。
するためになされたものであり、オーバーハングのある
物体の下部に走行予想軌跡が潜り込んで表示された場合
でも、オーバーハングのある物体に自車両が接触するか
否かを判断可能とすることを課題とする。
【0006】
【課題を解決するための手段】この課題を解決するため
に成された請求項1に係る発明は、自車両の周辺環境が
映し出された画像を取得する撮影手段と、前記自車両の
ステアリング角度から前記自車両の走行予想軌跡を計算
する走行予想軌跡推定手段と、前記走行予想軌跡を前記
画像に重ねて表示する表示手段と、前記走行予想軌跡上
の移動を想定された自車両に対して接触する物体がある
か否かを判別する判定手段と、を有する運転補助装置に
おいて、前記自車両の移動量を検出する移動量検出手段
と、前記自車両の移動中に取得された複数の画像と前記
自車両の移動量とから前記自車両の周辺環境を3次元で
認識する3次元環境推定手段と、を備え、前記判定手段
は、前記3次元環境推定手段により3次元で認識された
前記自車両の周辺環境に基づいて判別すること、を特徴
としている。
に成された請求項1に係る発明は、自車両の周辺環境が
映し出された画像を取得する撮影手段と、前記自車両の
ステアリング角度から前記自車両の走行予想軌跡を計算
する走行予想軌跡推定手段と、前記走行予想軌跡を前記
画像に重ねて表示する表示手段と、前記走行予想軌跡上
の移動を想定された自車両に対して接触する物体がある
か否かを判別する判定手段と、を有する運転補助装置に
おいて、前記自車両の移動量を検出する移動量検出手段
と、前記自車両の移動中に取得された複数の画像と前記
自車両の移動量とから前記自車両の周辺環境を3次元で
認識する3次元環境推定手段と、を備え、前記判定手段
は、前記3次元環境推定手段により3次元で認識された
前記自車両の周辺環境に基づいて判別すること、を特徴
としている。
【0007】また、請求項2に係る発明は、請求項1に
記載する運転補助装置であって、前記表示手段は、前記
走行予想軌跡と前記物体とが接触する前記物体の部分
と、前記走行予想軌跡と前記物体とが非接触となる前記
物体の部分とを識別して表示すること、を特徴としてい
る。また、請求項3に係る発明は、請求項1に記載する
運転補助装置であって、前記表示手段は、前記走行予想
軌跡の内側に存在する前記物体の部分を前記走行予想軌
跡と識別して表示すること、を特徴としている。
記載する運転補助装置であって、前記表示手段は、前記
走行予想軌跡と前記物体とが接触する前記物体の部分
と、前記走行予想軌跡と前記物体とが非接触となる前記
物体の部分とを識別して表示すること、を特徴としてい
る。また、請求項3に係る発明は、請求項1に記載する
運転補助装置であって、前記表示手段は、前記走行予想
軌跡の内側に存在する前記物体の部分を前記走行予想軌
跡と識別して表示すること、を特徴としている。
【0008】また、請求項4に係る発明は、請求項1乃
至請求項3のいずれか一つに記載する運転補助装置であ
って、前記表示手段は、前記走行予想軌跡を立体的に表
示すること、を特徴としている。
至請求項3のいずれか一つに記載する運転補助装置であ
って、前記表示手段は、前記走行予想軌跡を立体的に表
示すること、を特徴としている。
【0009】すなわち、本発明の運転補助装置では、自
車両の移動中に撮影手段で取得された複数の画像と、移
動量検出手段で検出された自車両の移動量とから、3次
元環境推定手段が、自車両の周辺環境を3次元で認識
し、さらに、判定手段が、走行予想軌跡上の移動を想定
された自車両に対して接触する物体があるか否かを、3
次元環境推定手段により3次元で認識された自車両の周
辺環境に基づいて判別しているので、表示手段により、
オーバーハングのある物体の下部に走行予想軌跡が潜り
込んで表示された場合でも、判定手段により、オーバー
ハングのある物体に自車両が接触するか否かの判断をす
ることができる。
車両の移動中に撮影手段で取得された複数の画像と、移
動量検出手段で検出された自車両の移動量とから、3次
元環境推定手段が、自車両の周辺環境を3次元で認識
し、さらに、判定手段が、走行予想軌跡上の移動を想定
された自車両に対して接触する物体があるか否かを、3
次元環境推定手段により3次元で認識された自車両の周
辺環境に基づいて判別しているので、表示手段により、
オーバーハングのある物体の下部に走行予想軌跡が潜り
込んで表示された場合でも、判定手段により、オーバー
ハングのある物体に自車両が接触するか否かの判断をす
ることができる。
【0010】また、本発明の運転補助装置において、表
示手段が、走行予想軌跡と物体とが接触する物体の部分
と、走行予想軌跡と物体とが非接触となる物体の部分と
を識別して表示したり、又は、走行予想軌跡の内側に存
在する物体の部分を走行予想軌跡と識別して表示した
り、又は、走行予想軌跡を立体的に表示したりすれば、
判定手段の判定結果を画像で確認することができるの
で、運転操作の補助をより発揮することができる。
示手段が、走行予想軌跡と物体とが接触する物体の部分
と、走行予想軌跡と物体とが非接触となる物体の部分と
を識別して表示したり、又は、走行予想軌跡の内側に存
在する物体の部分を走行予想軌跡と識別して表示した
り、又は、走行予想軌跡を立体的に表示したりすれば、
判定手段の判定結果を画像で確認することができるの
で、運転操作の補助をより発揮することができる。
【0011】尚、本発明の運転補助装置は、車庫入れ
(並列駐車)・縦列駐車などの後退操作に限るものでな
く、前進操作であっても使用することができる。
(並列駐車)・縦列駐車などの後退操作に限るものでな
く、前進操作であっても使用することができる。
【0012】
【発明の実施の形態】以下、本発明の実施の形態を図面
を参照にして説明する。図4に、本実施の形態の運転補
助装置を装備した自動車の斜視図を示す。また、図5
に、本実施の形態の運転補助装置のブロック図を示す。
本実施の形態の運転補助装置は、図5や図6に示すよう
に、マイクロコンピューター2と、CCDカメラ3、ス
テアリングアングルセンサー4、ディスプレイ5、図示
しないコンビネーションメーターなどで構成されてい
る。
を参照にして説明する。図4に、本実施の形態の運転補
助装置を装備した自動車の斜視図を示す。また、図5
に、本実施の形態の運転補助装置のブロック図を示す。
本実施の形態の運転補助装置は、図5や図6に示すよう
に、マイクロコンピューター2と、CCDカメラ3、ス
テアリングアングルセンサー4、ディスプレイ5、図示
しないコンビネーションメーターなどで構成されてい
る。
【0013】そして、マイクロコンピューター2は、C
CDカメラ3のON・OFFを行うとともに、後述する
ように、CCDカメラ3からの映像信号をディスプレイ
5に出力するものである。さらに、後述する図1〜図3
のフローチャートを実行するものでもあり、「走行予想
軌跡推定手段」と、「判定手段」、「3次元環境推定手
段」に相当するものである。
CDカメラ3のON・OFFを行うとともに、後述する
ように、CCDカメラ3からの映像信号をディスプレイ
5に出力するものである。さらに、後述する図1〜図3
のフローチャートを実行するものでもあり、「走行予想
軌跡推定手段」と、「判定手段」、「3次元環境推定手
段」に相当するものである。
【0014】また、CCDカメラ3は、自動車の後部に
取り付けられており、超広角レンズで撮像した画像を映
像信号に変換してマイクロコンピューター2に出力する
ものであり、「撮影手段」に相当するものである。尚、
マイクロコンピューター2に出力される映像は、ルーム
ミラーで後方を見た場合と同じになるようにディスプレ
イ5で表示するため、反転させている。
取り付けられており、超広角レンズで撮像した画像を映
像信号に変換してマイクロコンピューター2に出力する
ものであり、「撮影手段」に相当するものである。尚、
マイクロコンピューター2に出力される映像は、ルーム
ミラーで後方を見た場合と同じになるようにディスプレ
イ5で表示するため、反転させている。
【0015】また、ステアリングアングルセンサー4
は、ステアリングの内部に取り付けられており、ステア
リング舵角を検出するものであり、「移動量検出手段」
の一つでもある。そして、検出されたステアリング舵角
は、ステアリング舵角信号として、マイクロコンピュー
ター2に出力される。また、図示しないコンビネーショ
ンメーターは、車速を検出するものであり、「移動量検
出手段」の一つでもある。そして、検出された車速は、
車速信号として、マイクロコンピューター2に出力され
る。これらにより、マイクロコンピューター2は、「自
車両の移動量」を算出することが可能となる。
は、ステアリングの内部に取り付けられており、ステア
リング舵角を検出するものであり、「移動量検出手段」
の一つでもある。そして、検出されたステアリング舵角
は、ステアリング舵角信号として、マイクロコンピュー
ター2に出力される。また、図示しないコンビネーショ
ンメーターは、車速を検出するものであり、「移動量検
出手段」の一つでもある。そして、検出された車速は、
車速信号として、マイクロコンピューター2に出力され
る。これらにより、マイクロコンピューター2は、「自
車両の移動量」を算出することが可能となる。
【0016】また、ディスプレイ5は、「表示手段」に
相当するものであり、マイクロコンピューター2を介し
て、CCDカメラ3で撮影された映像などを表示するも
のである。すなわち、図5に示すように、CCDカメラ
3からの映像信号のうち、輝度信号については、ビデオ
入力バッファ14、同期分離15、A/D変換18を経
て、一方、同期信号については、ビデオ入力バッファ1
4、同期分離15、クロック生成16、A/D変換1
8、アドレスカウンタ17を経て、フレームメモリ19
に記憶される。このとき、マイコン(CPU)13は、
ステアリングアングルセンサー4(図4参照)や図示し
ないコンビネーションメーターからの車両信号を入力I
/F回路12を介して取り込み、かかる車両信号に基づ
いて、自車両が所定距離を走行する毎にCCDカメラ3
で撮影された映像のみをフレームメモリ19に記憶する
とともに、そのときの車両信号も記憶しておく。
相当するものであり、マイクロコンピューター2を介し
て、CCDカメラ3で撮影された映像などを表示するも
のである。すなわち、図5に示すように、CCDカメラ
3からの映像信号のうち、輝度信号については、ビデオ
入力バッファ14、同期分離15、A/D変換18を経
て、一方、同期信号については、ビデオ入力バッファ1
4、同期分離15、クロック生成16、A/D変換1
8、アドレスカウンタ17を経て、フレームメモリ19
に記憶される。このとき、マイコン(CPU)13は、
ステアリングアングルセンサー4(図4参照)や図示し
ないコンビネーションメーターからの車両信号を入力I
/F回路12を介して取り込み、かかる車両信号に基づ
いて、自車両が所定距離を走行する毎にCCDカメラ3
で撮影された映像のみをフレームメモリ19に記憶する
とともに、そのときの車両信号も記憶しておく。
【0017】また、マイコン(CPU)13は、同期信
号生成20、クロック生成21を経た同期信号に基づ
き、アドレスカウンタ17を介して、フレームメモリ1
9から読み取った輝度信号を、D/A変換22、映像信
号生成23、ビデオ出力バッファ14を経て、ディスプ
レイ5に表示する。尚、図5の符号11は、マイクロコ
ンピューター2の電源回路11である。
号生成20、クロック生成21を経た同期信号に基づ
き、アドレスカウンタ17を介して、フレームメモリ1
9から読み取った輝度信号を、D/A変換22、映像信
号生成23、ビデオ出力バッファ14を経て、ディスプ
レイ5に表示する。尚、図5の符号11は、マイクロコ
ンピューター2の電源回路11である。
【0018】次に、本実施の形態の運転補助装置の作用
について、図1〜図3のフローチャートに基づいて説明
する。ここでは、図6に示すように、一方駐車車両35
と他方駐車車両36の間のスペースに自車両1を後退操
作で駐車する並列駐車のケースを説明する。先ず、本実
施の形態の運転補助装置においては、自車両1の車速が
10km/h以下になったときから、自車両1が20c
mを走行する毎に、CCDカメラ3で取得した画像Gt
−3,Gt−2,Gt−1をフレームメモリ19に記憶
させる一方、自車両1の車速が0km/hになったとき
に、CCDカメラ3で取得した画像Gtをフレームメモ
リ19に記憶するとともに、フレームメモリ19への記
憶を停止する(図5参照)。
について、図1〜図3のフローチャートに基づいて説明
する。ここでは、図6に示すように、一方駐車車両35
と他方駐車車両36の間のスペースに自車両1を後退操
作で駐車する並列駐車のケースを説明する。先ず、本実
施の形態の運転補助装置においては、自車両1の車速が
10km/h以下になったときから、自車両1が20c
mを走行する毎に、CCDカメラ3で取得した画像Gt
−3,Gt−2,Gt−1をフレームメモリ19に記憶
させる一方、自車両1の車速が0km/hになったとき
に、CCDカメラ3で取得した画像Gtをフレームメモ
リ19に記憶するとともに、フレームメモリ19への記
憶を停止する(図5参照)。
【0019】そして、図1に示すように、先ず、S1
0,S11において、フレームメモリ19に記憶された
画像Gt−3,Gt−2,Gt−1,Gtのうち、最後
に記憶された画像Gt(自車両1の車速が0km/hに
なったときに取得・記憶されたもの)を画像メモリ(図
示せず)に取り出した後、S12において、画像Gtの
中からノードと呼ばれる特徴点群を抽出する。具体的に
言えば、例えば、図6においては、画像Gtに映し出さ
れた一方駐車車両35や、他方駐車車両36、4本の白
線31,32,33,34の表面・境界などに対して、
多数のノードが設定される。
0,S11において、フレームメモリ19に記憶された
画像Gt−3,Gt−2,Gt−1,Gtのうち、最後
に記憶された画像Gt(自車両1の車速が0km/hに
なったときに取得・記憶されたもの)を画像メモリ(図
示せず)に取り出した後、S12において、画像Gtの
中からノードと呼ばれる特徴点群を抽出する。具体的に
言えば、例えば、図6においては、画像Gtに映し出さ
れた一方駐車車両35や、他方駐車車両36、4本の白
線31,32,33,34の表面・境界などに対して、
多数のノードが設定される。
【0020】次に、図1のS13,S14において、フ
レームメモリ19に記憶された画像Gt−3,Gt−
2,Gt−1,Gtのうち、最後から2番目に記憶され
た画像Gt−1(画像Gtの直前に取得・記憶されたも
の)を画像メモリ(図示せず)に取り出した後、S15
において、画像Gt−1の中からノードと呼ばれる特徴
点群を抽出する。
レームメモリ19に記憶された画像Gt−3,Gt−
2,Gt−1,Gtのうち、最後から2番目に記憶され
た画像Gt−1(画像Gtの直前に取得・記憶されたも
の)を画像メモリ(図示せず)に取り出した後、S15
において、画像Gt−1の中からノードと呼ばれる特徴
点群を抽出する。
【0021】そして、S16において、画像Gt−1を
取得・記憶したときから画像Gtを取得・記憶したとき
までの自車両1の移動量(位置・向き)を算出すること
により、画像Gtと画像Gt−1の幾何学的な位置関係
を把握する。具体的には、図2のS31,S32におい
て、画像Gt−1を取得・記憶したときと画像Gtを取
得・記憶したときのステアリング舵角信号を読み出し
て、画像Gt−1を取得・記憶したときから画像Gtを
取得・記憶したときまでの自車両1の旋回半径を算出す
る。また、S33,S34において、画像Gt−1を取
得・記憶したときと画像Gtを取得・記憶したときの車
速信号を読み出して、画像Gt−1を取得・記憶したと
きから画像Gtを取得・記憶したときまでの自車両1の
移動距離を算出する。その後、S35において、自車両
1の旋回半径及び移動距離により、画像Gt−1を取得
・記憶したときから画像Gtを取得・記憶したときまで
の自車両1の移動量(位置・向き)を算出し、画像Gt
と画像Gt−1の幾何学的な位置関係を求め、図1のS
17へ進む。
取得・記憶したときから画像Gtを取得・記憶したとき
までの自車両1の移動量(位置・向き)を算出すること
により、画像Gtと画像Gt−1の幾何学的な位置関係
を把握する。具体的には、図2のS31,S32におい
て、画像Gt−1を取得・記憶したときと画像Gtを取
得・記憶したときのステアリング舵角信号を読み出し
て、画像Gt−1を取得・記憶したときから画像Gtを
取得・記憶したときまでの自車両1の旋回半径を算出す
る。また、S33,S34において、画像Gt−1を取
得・記憶したときと画像Gtを取得・記憶したときの車
速信号を読み出して、画像Gt−1を取得・記憶したと
きから画像Gtを取得・記憶したときまでの自車両1の
移動距離を算出する。その後、S35において、自車両
1の旋回半径及び移動距離により、画像Gt−1を取得
・記憶したときから画像Gtを取得・記憶したときまで
の自車両1の移動量(位置・向き)を算出し、画像Gt
と画像Gt−1の幾何学的な位置関係を求め、図1のS
17へ進む。
【0022】次に、S17では、画像Gtと画像Gt−
1の幾何学的な位置関係に基づいて、角部や端点等の幾
何学的特徴の類似度を評価して画像Gtと画像Gt−1
の間におけるノードのマッチングを行うとともに、マッ
チングされたノードの3次元位置データを公知の三角測
量法により算出し、S18において、3次元マップに記
憶する。尚、3次元マップの座標軸は、図7に示すよう
に、自車両1の車速が0km/hになったときを基準に
設定される。
1の幾何学的な位置関係に基づいて、角部や端点等の幾
何学的特徴の類似度を評価して画像Gtと画像Gt−1
の間におけるノードのマッチングを行うとともに、マッ
チングされたノードの3次元位置データを公知の三角測
量法により算出し、S18において、3次元マップに記
憶する。尚、3次元マップの座標軸は、図7に示すよう
に、自車両1の車速が0km/hになったときを基準に
設定される。
【0023】その後は、S13に戻って、上述した処理
を繰り返す。具体的に言えば、図6では、画像Gt−1
と画像Gt−2の間や、画像Gt−2と画像Gt−3の
間におけるノードのマッチングを行うとともに、マッチ
ングされたノードの3次元位置データを算出し、上述し
た3次元マップに投影して記憶する。これにより、画像
Gt−3,Gt−2,Gt−1,Gtに映し出された一
方駐車車両35や、他方駐車車両36、4本の白線3
1,32,33,34の表面・境界などの距離が、ノー
ドの3次元位置データを介して、3次元的に把握され
る。
を繰り返す。具体的に言えば、図6では、画像Gt−1
と画像Gt−2の間や、画像Gt−2と画像Gt−3の
間におけるノードのマッチングを行うとともに、マッチ
ングされたノードの3次元位置データを算出し、上述し
た3次元マップに投影して記憶する。これにより、画像
Gt−3,Gt−2,Gt−1,Gtに映し出された一
方駐車車両35や、他方駐車車両36、4本の白線3
1,32,33,34の表面・境界などの距離が、ノー
ドの3次元位置データを介して、3次元的に把握され
る。
【0024】そして、フレームメモリ19に記憶された
画像Gt−3,Gt−2,Gt−1,Gtの間でのノー
ドのマッチング処理が終了すると、図3のフローチャー
トに映る。すなわち、図3のS41,S42において、
ステアリングアングルセンサー4を介して現在のステア
リング舵角信号を読み出して、現在の自車両1の旋回半
径を算出する。さらに、S43において、現在の自車両
1の旋回半径から自車両1の走行予想軌跡(の位置デー
タ)を算出するとともに、S44において、上述した3
次元マップに自車両1の走行予想軌跡(の位置データ)
を3次元的に投影する。
画像Gt−3,Gt−2,Gt−1,Gtの間でのノー
ドのマッチング処理が終了すると、図3のフローチャー
トに映る。すなわち、図3のS41,S42において、
ステアリングアングルセンサー4を介して現在のステア
リング舵角信号を読み出して、現在の自車両1の旋回半
径を算出する。さらに、S43において、現在の自車両
1の旋回半径から自車両1の走行予想軌跡(の位置デー
タ)を算出するとともに、S44において、上述した3
次元マップに自車両1の走行予想軌跡(の位置データ)
を3次元的に投影する。
【0025】その後は、S45において、3次元マップ
を用いて、自車両1の走行予想軌跡の内側に存在する物
体を把握する。そして、S46において、自車両1の走
行予想軌跡の内側に物体が存在するか否かを判断する。
具体的には、例えば、3次元マップにおいて、自車両1
の走行予想軌跡(の位置データ)で囲まれた領域にノー
ドの3次元位置データが存在するか否かで判断される。
を用いて、自車両1の走行予想軌跡の内側に存在する物
体を把握する。そして、S46において、自車両1の走
行予想軌跡の内側に物体が存在するか否かを判断する。
具体的には、例えば、3次元マップにおいて、自車両1
の走行予想軌跡(の位置データ)で囲まれた領域にノー
ドの3次元位置データが存在するか否かで判断される。
【0026】ここで、自車両1の走行予想軌跡の内側に
物体が存在すると判断する場合には(S46:Ye
s)、S47に進んで、報知処理を行って終了する。例
えば、図8に示すように、自車両1の走行予想軌跡39
の内側で他車両37の一部と接触する場合や、図9に示
すように、自車両1の走行予想軌跡39の外側で他車両
38の一部と接触する場合などが考えられる。一方、自
車両1の走行予想軌跡の内側に物体が存在すると判断し
ない場合には(S46:No)、S47の報知処理を行
うことなく終了する。
物体が存在すると判断する場合には(S46:Ye
s)、S47に進んで、報知処理を行って終了する。例
えば、図8に示すように、自車両1の走行予想軌跡39
の内側で他車両37の一部と接触する場合や、図9に示
すように、自車両1の走行予想軌跡39の外側で他車両
38の一部と接触する場合などが考えられる。一方、自
車両1の走行予想軌跡の内側に物体が存在すると判断し
ない場合には(S46:No)、S47の報知処理を行
うことなく終了する。
【0027】尚、自車両1の走行予想軌跡(の位置デー
タ)で囲まれた領域には、路面に相当する領域は含まれ
ない。従って、例えば、図6や図7では、3本の白線3
1,32,33,34の表面・境界に対応するノードの
3次元位置データが、自車両1の走行予想軌跡(の位置
データ)で囲まれた領域に存在すると判断されることは
ない。
タ)で囲まれた領域には、路面に相当する領域は含まれ
ない。従って、例えば、図6や図7では、3本の白線3
1,32,33,34の表面・境界に対応するノードの
3次元位置データが、自車両1の走行予想軌跡(の位置
データ)で囲まれた領域に存在すると判断されることは
ない。
【0028】また、本実施の形態の運転補助装置におい
て、自車両1のディスプレイ5には、最後に記憶された
画像Gt(自車両1の車速が0km/hになったときに
取得・記憶されたもの)が表示されるととともに、自車
両1の走行予想軌跡も重ねて表示される。このとき、例
えば、図10に示すようにして、他車両45や、2本の
白線46,47などの後方の映像に対し、走行予想軌跡
41や、2本の距離目安線42,43を重ねて表示する
一方、さらに、上述した3次元マップに基づいて、走行
予想軌跡41を線48で立体的に表示するとともに、走
行予想軌跡41,48の内側に存在する他車両45の部
分49を画像処理して識別表示させる。
て、自車両1のディスプレイ5には、最後に記憶された
画像Gt(自車両1の車速が0km/hになったときに
取得・記憶されたもの)が表示されるととともに、自車
両1の走行予想軌跡も重ねて表示される。このとき、例
えば、図10に示すようにして、他車両45や、2本の
白線46,47などの後方の映像に対し、走行予想軌跡
41や、2本の距離目安線42,43を重ねて表示する
一方、さらに、上述した3次元マップに基づいて、走行
予想軌跡41を線48で立体的に表示するとともに、走
行予想軌跡41,48の内側に存在する他車両45の部
分49を画像処理して識別表示させる。
【0029】これを、「発明が解決しようとする課題」
の欄で説明した図15に応用すれば、図11に示すよう
になり、自車両100のバンパー後端104や、他車両
108などの後方の映像に対し、走行予想軌跡101
や、2本の距離目安線102,103が重ねて表示さ
れ、さらに、上述した3次元マップに基づいて、走行予
想軌跡101を線50で立体的に表示するとともに、走
行予想軌跡101,50の内側に存在する他車両108
の部分51を画像処理して識別表示させる。
の欄で説明した図15に応用すれば、図11に示すよう
になり、自車両100のバンパー後端104や、他車両
108などの後方の映像に対し、走行予想軌跡101
や、2本の距離目安線102,103が重ねて表示さ
れ、さらに、上述した3次元マップに基づいて、走行予
想軌跡101を線50で立体的に表示するとともに、走
行予想軌跡101,50の内側に存在する他車両108
の部分51を画像処理して識別表示させる。
【0030】以上詳細に説明したように、本実施の形態
の運転補助装置では、自車両1の移動中にCCDカメラ
3で取得された複数の画像Gt−3,Gt−2,Gt−
1,Gtと(図6参照)、ステアリングアングルセンサ
ー4で検出されたステアリング舵角信号及び図示しない
コンビネーションメーターで検出された車速信号に基づ
いて算出された自車両1の移動量とから(図1のS1
6)、画像Gtと画像Gt−1の間や、画像Gt−1と
画像Gt−2の間、画像Gt−2と画像Gt−3の間に
おけるノードのマッチングを行うとともに(図1のS1
7)、マッチングされたノードの3次元位置データを算
出し、3次元マップに投影して記憶する(図1のS1
8)。これにより、画像Gt−3,Gt−2,Gt−
1,Gtに映し出された一方駐車車両35や、他方駐車
車両36、4本の白線31,32,33,34の表面・
境界などの距離が、ノードの3次元位置データを介し
て、3次元的に把握される。
の運転補助装置では、自車両1の移動中にCCDカメラ
3で取得された複数の画像Gt−3,Gt−2,Gt−
1,Gtと(図6参照)、ステアリングアングルセンサ
ー4で検出されたステアリング舵角信号及び図示しない
コンビネーションメーターで検出された車速信号に基づ
いて算出された自車両1の移動量とから(図1のS1
6)、画像Gtと画像Gt−1の間や、画像Gt−1と
画像Gt−2の間、画像Gt−2と画像Gt−3の間に
おけるノードのマッチングを行うとともに(図1のS1
7)、マッチングされたノードの3次元位置データを算
出し、3次元マップに投影して記憶する(図1のS1
8)。これにより、画像Gt−3,Gt−2,Gt−
1,Gtに映し出された一方駐車車両35や、他方駐車
車両36、4本の白線31,32,33,34の表面・
境界などの距離が、ノードの3次元位置データを介し
て、3次元的に把握される。
【0031】そして、図3のS46において、自車両1
の走行予想軌跡の内側に物体が存在するか否かを判断し
ているので、例えば、「発明が解決しようとする課題」
の欄で説明した図15に示すように、オーバーハングの
ある他車両108の下部に走行予想軌跡101が潜り込
んで表示された場合でも、オーバーハングのある他車両
108に自車両100が接触するか否かの判断をするこ
とができる。
の走行予想軌跡の内側に物体が存在するか否かを判断し
ているので、例えば、「発明が解決しようとする課題」
の欄で説明した図15に示すように、オーバーハングの
ある他車両108の下部に走行予想軌跡101が潜り込
んで表示された場合でも、オーバーハングのある他車両
108に自車両100が接触するか否かの判断をするこ
とができる。
【0032】また、本実施の形態の運転補助装置では、
ディスプレイ5において、図10に示すように、走行予
想軌跡41を線48で立体的に表示するとともに、走行
予想軌跡41,48の内側に存在する他車両45の部分
49を走行予想軌跡41,48と識別して表示し、ま
た、図11に示すように、走行予想軌跡101を線50
で立体的に表示するとともに、走行予想軌跡101,5
0の内側に存在する他車両108の部分51を走行予想
軌跡101,50と識別して表示しており、図1のS4
6の判断結果をディスプレイ5の画像で確認することが
できるので、運転操作の補助をより発揮することができ
る。
ディスプレイ5において、図10に示すように、走行予
想軌跡41を線48で立体的に表示するとともに、走行
予想軌跡41,48の内側に存在する他車両45の部分
49を走行予想軌跡41,48と識別して表示し、ま
た、図11に示すように、走行予想軌跡101を線50
で立体的に表示するとともに、走行予想軌跡101,5
0の内側に存在する他車両108の部分51を走行予想
軌跡101,50と識別して表示しており、図1のS4
6の判断結果をディスプレイ5の画像で確認することが
できるので、運転操作の補助をより発揮することができ
る。
【0033】尚、本発明は上記実施の形態に限定される
ものでなく、その趣旨を逸脱しない範囲で様々な変更が
可能である。例えば、本実施の形態の運転補助装置で
は、例えば、図10に示すように、ディスプレイ5にお
いて、走行予想軌跡41を線48で立体的に表示すると
ともに、走行予想軌跡41,48の内側に存在する他車
両45の部分49を走行予想軌跡41,48と識別して
表示しているが、この点、走行予想軌跡41,48を表
示することなく、走行予想軌跡41,48の内側に存在
する他車両45の部分49を他車両45のその他の部分
と識別して表示してもよい。
ものでなく、その趣旨を逸脱しない範囲で様々な変更が
可能である。例えば、本実施の形態の運転補助装置で
は、例えば、図10に示すように、ディスプレイ5にお
いて、走行予想軌跡41を線48で立体的に表示すると
ともに、走行予想軌跡41,48の内側に存在する他車
両45の部分49を走行予想軌跡41,48と識別して
表示しているが、この点、走行予想軌跡41,48を表
示することなく、走行予想軌跡41,48の内側に存在
する他車両45の部分49を他車両45のその他の部分
と識別して表示してもよい。
【0034】また、本実施の形態の運転補助装置につい
ては、図6に示すように、一方駐車車両35と他方駐車
車両36の間のスペースに自車両1を後退操作で駐車す
る並列駐車のケースについて説明しているが、この点、
図12に示すように、前方駐車車両62と他方駐車車両
63の間のスペースに自車両1を後退操作で駐車する縦
列駐車のケースであってもよい。このとき、ディスプレ
イ5に映し出される画像Gtには、前方駐車車両62
や、他方駐車車両63、路肩61などが表示される。ま
た、3次元マップの座標軸は、図13に示すように、自
車両1の車速が0km/hになったときを基準に設定さ
れる。
ては、図6に示すように、一方駐車車両35と他方駐車
車両36の間のスペースに自車両1を後退操作で駐車す
る並列駐車のケースについて説明しているが、この点、
図12に示すように、前方駐車車両62と他方駐車車両
63の間のスペースに自車両1を後退操作で駐車する縦
列駐車のケースであってもよい。このとき、ディスプレ
イ5に映し出される画像Gtには、前方駐車車両62
や、他方駐車車両63、路肩61などが表示される。ま
た、3次元マップの座標軸は、図13に示すように、自
車両1の車速が0km/hになったときを基準に設定さ
れる。
【0035】また、本実施の形態の運転補助装置につい
ては、図6の車庫入れ(並列駐車)や図12の縦列駐車
などの後退操作に限るものでなく、前進操作であっても
使用することができる。
ては、図6の車庫入れ(並列駐車)や図12の縦列駐車
などの後退操作に限るものでなく、前進操作であっても
使用することができる。
【0036】また、上記した実施形態においては、自車
両1の車速が0km/hとなったときに、CCDカメラ
3で取得した画像Gtをフレームメモリ19に記憶する
ように構成したが、シフトポジションセンサを設け、シ
フトレバーがリバース(後退)に切り替えられたとき
に、CCDカメラ3で取得した画像Gtをフレームメモ
リ19に記憶するように構成してもよい。
両1の車速が0km/hとなったときに、CCDカメラ
3で取得した画像Gtをフレームメモリ19に記憶する
ように構成したが、シフトポジションセンサを設け、シ
フトレバーがリバース(後退)に切り替えられたとき
に、CCDカメラ3で取得した画像Gtをフレームメモ
リ19に記憶するように構成してもよい。
【0037】
【発明の効果】本発明の運転補助装置では、自車両の移
動中に撮影手段で取得された複数の画像と、移動量検出
手段で検出された自車両の移動量とから、3次元環境推
定手段が、自車両の周辺環境を3次元で認識し、さら
に、判定手段が、走行予想軌跡上の移動を想定された自
車両に対して接触する物体があるか否かを、3次元環境
推定手段により3次元で認識された自車両の周辺環境に
基づいて判別しているので、表示手段により、オーバー
ハングのある物体の下部に走行予想軌跡が潜り込んで表
示された場合でも、判定手段により、オーバーハングの
ある物体に自車両が接触するか否かの判断をすることが
できる。
動中に撮影手段で取得された複数の画像と、移動量検出
手段で検出された自車両の移動量とから、3次元環境推
定手段が、自車両の周辺環境を3次元で認識し、さら
に、判定手段が、走行予想軌跡上の移動を想定された自
車両に対して接触する物体があるか否かを、3次元環境
推定手段により3次元で認識された自車両の周辺環境に
基づいて判別しているので、表示手段により、オーバー
ハングのある物体の下部に走行予想軌跡が潜り込んで表
示された場合でも、判定手段により、オーバーハングの
ある物体に自車両が接触するか否かの判断をすることが
できる。
【0038】また、本発明の運転補助装置において、表
示手段が、走行予想軌跡と物体とが接触する物体の部分
と、走行予想軌跡と物体とが非接触となる物体の部分と
を識別して表示したり、又は、走行予想軌跡の内側に存
在する物体の部分を走行予想軌跡と識別して表示した
り、又は、走行予想軌跡を立体的に表示したりすれば、
判定手段の判定結果を画像で確認することができるの
で、運転操作の補助をより発揮することができる。
示手段が、走行予想軌跡と物体とが接触する物体の部分
と、走行予想軌跡と物体とが非接触となる物体の部分と
を識別して表示したり、又は、走行予想軌跡の内側に存
在する物体の部分を走行予想軌跡と識別して表示した
り、又は、走行予想軌跡を立体的に表示したりすれば、
判定手段の判定結果を画像で確認することができるの
で、運転操作の補助をより発揮することができる。
【図1】本発明の運転補助装置のフローチャート図であ
る。
る。
【図2】本発明の運転補助装置のフローチャート図であ
る。
る。
【図3】本発明の運転補助装置のフローチャート図であ
る。
る。
【図4】本発明の運転補助装置を装備した自動車の斜視
図である。
図である。
【図5】本発明の運転補助装置のブッロク図である。
【図6】本発明の運転補助装置を、後退操作で駐車する
並列駐車のケースで使用する際の自車両の周辺環境及び
各画像の視界の一例を示した図である。
並列駐車のケースで使用する際の自車両の周辺環境及び
各画像の視界の一例を示した図である。
【図7】本発明の運転補助装置を、後退操作で駐車する
並列駐車のケースで使用する際の3次元マップの基準座
標の一例を示した図である。
並列駐車のケースで使用する際の3次元マップの基準座
標の一例を示した図である。
【図8】本発明の運転補助装置において、自車両の走行
予想軌跡の内側に物体が存在すると判断する場合の一例
を示した図である。
予想軌跡の内側に物体が存在すると判断する場合の一例
を示した図である。
【図9】本発明の運転補助装置において、自車両の走行
予想軌跡の内側に物体が存在すると判断する場合の一例
を示した図である。
予想軌跡の内側に物体が存在すると判断する場合の一例
を示した図である。
【図10】本発明の運転補助装置において、ディスプレ
イに表示される映像の一例を示した図である。
イに表示される映像の一例を示した図である。
【図11】本発明の運転補助装置において、ディスプレ
イに表示される映像の一例(図15に応用したもの)を
示した図である。
イに表示される映像の一例(図15に応用したもの)を
示した図である。
【図12】本発明の運転補助装置を、後退操作で駐車す
る縦列駐車のケースで使用する際の自車両の周辺環境及
び各画像の視界の一例を示した図である。
る縦列駐車のケースで使用する際の自車両の周辺環境及
び各画像の視界の一例を示した図である。
【図13】本発明の運転補助装置を、後退操作で駐車す
る縦列駐車のケースで使用する際の3次元マップの基準
座標の一例を示した図である。
る縦列駐車のケースで使用する際の3次元マップの基準
座標の一例を示した図である。
【図14】従来技術の運転補助装置において、ディスプ
レイに表示される映像の一例を示した図である。
レイに表示される映像の一例を示した図である。
【図15】従来技術の運転補助装置において、ディスプ
レイに表示される映像の一例を示した図である。
レイに表示される映像の一例を示した図である。
【図16】従来技術の運転補助装置において、図15の
映像がディスプレイに表示され際の自車両の周辺環境を
示した図である。
映像がディスプレイに表示され際の自車両の周辺環境を
示した図である。
2 マイクロコンピューター
3 CCDカメラ
4 ステアリングアングルセンサー
5 ディスプレイ
13 マイコン(CPU)
19 フレームメモリ
G 画像
フロントページの続き
(51)Int.Cl.7 識別記号 FI テーマコート゛(参考)
H04N 5/225 H04N 5/225 C
7/18 7/18 J
Fターム(参考) 5B057 AA06 AA16 BA02 CA08 CA12
CA16 CB08 CB13 CB16 CC01
DA07 DA15 DB02 DB09 DC05
5C022 AA04 AB62 AB64
5C054 AA01 CA04 CC02 CD05 CE15
CG02 CG07 CH02 CH04 EA01
EA05 EA07 EB05 ED14 EG06
FC12 FC13 FC15 FD02 FD03
FE26 GA04 GB16 GD04 GD06
HA30
5L096 AA06 BA04 CA04 DA02 DA03
FA09 FA66 FA67 HA02
Claims (4)
- 【請求項1】 自車両の周辺環境が映し出された画像を
取得する撮影手段と、前記自車両のステアリング角度か
ら前記自車両の走行予想軌跡を計算する走行予想軌跡推
定手段と、前記走行予想軌跡を前記画像に重ねて表示す
る表示手段と、前記走行予想軌跡上の移動を想定された
自車両に対して接触する物体があるか否かを判別する判
定手段と、を有する運転補助装置において、 前記自車両の移動量を検出する移動量検出手段と、 前記自車両の移動中に取得された複数の画像と前記自車
両の移動量とから前記自車両の周辺環境を3次元で認識
する3次元環境推定手段と、を備え、 前記判定手段は、前記3次元環境推定手段により3次元
で認識された前記自車両の周辺環境に基づいて判別する
こと、を特徴とする運転補助装置。 - 【請求項2】 請求項1に記載する運転補助装置であっ
て、 前記表示手段は、前記走行予想軌跡と前記物体とが接触
する前記物体の部分と、前記走行予想軌跡と前記物体と
が非接触となる前記物体の部分とを識別して表示するこ
と、を特徴とする運転補助装置。 - 【請求項3】 請求項1に記載する運転補助装置であっ
て、 前記表示手段は、前記走行予想軌跡の内側に存在する前
記物体の部分を前記走行予想軌跡と識別して表示するこ
と、を特徴とする運転補助装置。 - 【請求項4】 請求項1乃至請求項3のいずれか一つに
記載する運転補助装置であって、 前記表示手段は、前記走行予想軌跡を立体的に表示する
こと、を特徴とする運転補助装置。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001257104A JP2003063340A (ja) | 2001-08-28 | 2001-08-28 | 運転補助装置 |
| EP02019228A EP1288072A3 (en) | 2001-08-28 | 2002-08-27 | Driver assistance device taking into account the overhang of other vehicles |
| US10/229,109 US20030060972A1 (en) | 2001-08-28 | 2002-08-28 | Drive assist device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2001257104A JP2003063340A (ja) | 2001-08-28 | 2001-08-28 | 運転補助装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2003063340A true JP2003063340A (ja) | 2003-03-05 |
Family
ID=19084818
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2001257104A Pending JP2003063340A (ja) | 2001-08-28 | 2001-08-28 | 運転補助装置 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20030060972A1 (ja) |
| EP (1) | EP1288072A3 (ja) |
| JP (1) | JP2003063340A (ja) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006099409A (ja) * | 2004-09-29 | 2006-04-13 | Denso Corp | 接触脱輪回避ナビゲーションシステム |
| WO2006121087A1 (ja) * | 2005-05-10 | 2006-11-16 | Olympus Corporation | 画像処理装置、画像処理方法および画像処理プログラム |
| WO2006121088A1 (ja) * | 2005-05-10 | 2006-11-16 | Olympus Corporation | 画像処理装置、画像処理方法および画像処理プログラム |
| JP2008074594A (ja) * | 2006-09-25 | 2008-04-03 | Tadano Ltd | 作業機搭載車両の周辺監視装置 |
| JP2008137422A (ja) * | 2006-11-30 | 2008-06-19 | Equos Research Co Ltd | 走行車両 |
| JP2009101984A (ja) * | 2007-10-01 | 2009-05-14 | Nissan Motor Co Ltd | 駐車支援装置及び方法 |
| JP2011025754A (ja) * | 2009-07-22 | 2011-02-10 | Equos Research Co Ltd | 走行支援装置及び走行支援方法 |
| WO2011105107A1 (ja) * | 2010-02-26 | 2011-09-01 | パナソニック株式会社 | 運転支援装置 |
| JP2014532324A (ja) * | 2011-09-12 | 2014-12-04 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 衝突に関連する状況においてドライバを支援するための運転支援システム |
| KR20150051236A (ko) * | 2011-06-28 | 2015-05-11 | 폭스바겐 악티엔 게젤샤프트 | 차량을 주차하기 위한 방법 및 장치 |
| JP2019071545A (ja) * | 2017-10-10 | 2019-05-09 | マツダ株式会社 | 車両用表示装置 |
Families Citing this family (54)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| FR2853121B1 (fr) * | 2003-03-25 | 2006-12-15 | Imra Europe Sa | Dispositif de surveillance des alentours d'un vehicule |
| DE10334613A1 (de) * | 2003-07-29 | 2005-02-17 | Robert Bosch Gmbh | Fahrhilfsvorrichtung |
| JP4043416B2 (ja) * | 2003-07-30 | 2008-02-06 | オリンパス株式会社 | 安全移動支援装置 |
| JP4600760B2 (ja) * | 2005-06-27 | 2010-12-15 | アイシン精機株式会社 | 障害物検出装置 |
| JP2007127525A (ja) | 2005-11-04 | 2007-05-24 | Aisin Aw Co Ltd | 移動量演算装置 |
| JP5217152B2 (ja) * | 2006-11-14 | 2013-06-19 | アイシン精機株式会社 | 車両周辺表示装置 |
| EP2191457B1 (en) * | 2007-09-11 | 2014-12-10 | Magna Electronics | Imaging system for vehicle |
| WO2012045323A1 (en) * | 2010-10-07 | 2012-04-12 | Connaught Electronics Ltd. | Method and driver assistance system for warning a driver of a motor vehicle of the presence of an obstacle in an environment of the motor vehicle |
| KR101340738B1 (ko) * | 2011-11-08 | 2013-12-12 | 엘지이노텍 주식회사 | 주차 보조 시스템 |
| US9845092B2 (en) | 2014-03-11 | 2017-12-19 | Continental Automotive Systems, Inc. | Method and system for displaying probability of a collision |
| US10369988B2 (en) | 2017-01-13 | 2019-08-06 | Ford Global Technologies, Llc | Autonomous parking of vehicles inperpendicular parking spots |
| US10049573B1 (en) * | 2017-04-21 | 2018-08-14 | Ford Global Technologies, Llc | Active park assist detection of semi-trailer overhang |
| US10407014B2 (en) | 2017-05-10 | 2019-09-10 | Ford Global Technologies, Llc | Vehicle underride impact detection systems and methods |
| US10683034B2 (en) | 2017-06-06 | 2020-06-16 | Ford Global Technologies, Llc | Vehicle remote parking systems and methods |
| US10234868B2 (en) | 2017-06-16 | 2019-03-19 | Ford Global Technologies, Llc | Mobile device initiation of vehicle remote-parking |
| US10585430B2 (en) | 2017-06-16 | 2020-03-10 | Ford Global Technologies, Llc | Remote park-assist authentication for vehicles |
| US10775781B2 (en) | 2017-06-16 | 2020-09-15 | Ford Global Technologies, Llc | Interface verification for vehicle remote park-assist |
| US10281921B2 (en) | 2017-10-02 | 2019-05-07 | Ford Global Technologies, Llc | Autonomous parking of vehicles in perpendicular parking spots |
| US10580304B2 (en) | 2017-10-02 | 2020-03-03 | Ford Global Technologies, Llc | Accelerometer-based external sound monitoring for voice controlled autonomous parking |
| US10627811B2 (en) | 2017-11-07 | 2020-04-21 | Ford Global Technologies, Llc | Audio alerts for remote park-assist tethering |
| US10336320B2 (en) | 2017-11-22 | 2019-07-02 | Ford Global Technologies, Llc | Monitoring of communication for vehicle remote park-assist |
| US10578676B2 (en) | 2017-11-28 | 2020-03-03 | Ford Global Technologies, Llc | Vehicle monitoring of mobile device state-of-charge |
| US10585431B2 (en) | 2018-01-02 | 2020-03-10 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
| US10737690B2 (en) | 2018-01-02 | 2020-08-11 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
| US10688918B2 (en) | 2018-01-02 | 2020-06-23 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
| US11148661B2 (en) | 2018-01-02 | 2021-10-19 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
| US10974717B2 (en) | 2018-01-02 | 2021-04-13 | Ford Global Technologies, I.LC | Mobile device tethering for a remote parking assist system of a vehicle |
| US10583830B2 (en) | 2018-01-02 | 2020-03-10 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
| US10814864B2 (en) | 2018-01-02 | 2020-10-27 | Ford Global Technologies, Llc | Mobile device tethering for a remote parking assist system of a vehicle |
| US10684773B2 (en) | 2018-01-03 | 2020-06-16 | Ford Global Technologies, Llc | Mobile device interface for trailer backup-assist |
| US10747218B2 (en) | 2018-01-12 | 2020-08-18 | Ford Global Technologies, Llc | Mobile device tethering for remote parking assist |
| US10917748B2 (en) | 2018-01-25 | 2021-02-09 | Ford Global Technologies, Llc | Mobile device tethering for vehicle systems based on variable time-of-flight and dead reckoning |
| US10684627B2 (en) | 2018-02-06 | 2020-06-16 | Ford Global Technologies, Llc | Accelerometer-based external sound monitoring for position aware autonomous parking |
| US11188070B2 (en) | 2018-02-19 | 2021-11-30 | Ford Global Technologies, Llc | Mitigating key fob unavailability for remote parking assist systems |
| US10507868B2 (en) | 2018-02-22 | 2019-12-17 | Ford Global Technologies, Llc | Tire pressure monitoring for vehicle park-assist |
| US10732622B2 (en) | 2018-04-05 | 2020-08-04 | Ford Global Technologies, Llc | Advanced user interaction features for remote park assist |
| US10683004B2 (en) | 2018-04-09 | 2020-06-16 | Ford Global Technologies, Llc | Input signal management for vehicle park-assist |
| US10759417B2 (en) | 2018-04-09 | 2020-09-01 | Ford Global Technologies, Llc | Input signal management for vehicle park-assist |
| US10793144B2 (en) | 2018-04-09 | 2020-10-06 | Ford Global Technologies, Llc | Vehicle remote park-assist communication counters |
| US10493981B2 (en) | 2018-04-09 | 2019-12-03 | Ford Global Technologies, Llc | Input signal management for vehicle park-assist |
| US10384605B1 (en) | 2018-09-04 | 2019-08-20 | Ford Global Technologies, Llc | Methods and apparatus to facilitate pedestrian detection during remote-controlled maneuvers |
| US10717432B2 (en) | 2018-09-13 | 2020-07-21 | Ford Global Technologies, Llc | Park-assist based on vehicle door open positions |
| US10821972B2 (en) | 2018-09-13 | 2020-11-03 | Ford Global Technologies, Llc | Vehicle remote parking assist systems and methods |
| US10529233B1 (en) | 2018-09-24 | 2020-01-07 | Ford Global Technologies Llc | Vehicle and method for detecting a parking space via a drone |
| US10967851B2 (en) | 2018-09-24 | 2021-04-06 | Ford Global Technologies, Llc | Vehicle system and method for setting variable virtual boundary |
| US10908603B2 (en) | 2018-10-08 | 2021-02-02 | Ford Global Technologies, Llc | Methods and apparatus to facilitate remote-controlled maneuvers |
| US10628687B1 (en) | 2018-10-12 | 2020-04-21 | Ford Global Technologies, Llc | Parking spot identification for vehicle park-assist |
| US11097723B2 (en) | 2018-10-17 | 2021-08-24 | Ford Global Technologies, Llc | User interfaces for vehicle remote park assist |
| US11137754B2 (en) | 2018-10-24 | 2021-10-05 | Ford Global Technologies, Llc | Intermittent delay mitigation for remote vehicle operation |
| CN109829935B (zh) * | 2018-12-29 | 2021-02-19 | 百度在线网络技术(北京)有限公司 | 车辆的场景序列跟踪处理方法、装置及车辆 |
| US11789442B2 (en) | 2019-02-07 | 2023-10-17 | Ford Global Technologies, Llc | Anomalous input detection |
| US11195344B2 (en) | 2019-03-15 | 2021-12-07 | Ford Global Technologies, Llc | High phone BLE or CPU burden detection and notification |
| US11275368B2 (en) | 2019-04-01 | 2022-03-15 | Ford Global Technologies, Llc | Key fobs for vehicle remote park-assist |
| US11169517B2 (en) | 2019-04-01 | 2021-11-09 | Ford Global Technologies, Llc | Initiation of vehicle remote park-assist with key fob |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5883739A (en) * | 1993-10-04 | 1999-03-16 | Honda Giken Kogyo Kabushiki Kaisha | Information display device for vehicle |
| US7366595B1 (en) * | 1999-06-25 | 2008-04-29 | Seiko Epson Corporation | Vehicle drive assist system |
| EP1094337B1 (en) * | 1999-10-21 | 2004-03-17 | Matsushita Electric Industrial Co., Ltd. | Parking assistance system |
| JP3508665B2 (ja) * | 1999-12-24 | 2004-03-22 | 株式会社豊田自動織機 | 操舵支援装置 |
| DE10109680B4 (de) * | 2000-02-29 | 2009-02-26 | Aisin Seiki K.K., Kariya | Einparkhilfsgerät und Einparkhilfsverfahren für ein Fahrzeug |
| EP1167120B1 (en) * | 2000-06-30 | 2014-08-27 | Panasonic Corporation | Rendering device for parking aid |
-
2001
- 2001-08-28 JP JP2001257104A patent/JP2003063340A/ja active Pending
-
2002
- 2002-08-27 EP EP02019228A patent/EP1288072A3/en not_active Withdrawn
- 2002-08-28 US US10/229,109 patent/US20030060972A1/en not_active Abandoned
Cited By (14)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006099409A (ja) * | 2004-09-29 | 2006-04-13 | Denso Corp | 接触脱輪回避ナビゲーションシステム |
| WO2006121087A1 (ja) * | 2005-05-10 | 2006-11-16 | Olympus Corporation | 画像処理装置、画像処理方法および画像処理プログラム |
| WO2006121088A1 (ja) * | 2005-05-10 | 2006-11-16 | Olympus Corporation | 画像処理装置、画像処理方法および画像処理プログラム |
| JP2008074594A (ja) * | 2006-09-25 | 2008-04-03 | Tadano Ltd | 作業機搭載車両の周辺監視装置 |
| JP2008137422A (ja) * | 2006-11-30 | 2008-06-19 | Equos Research Co Ltd | 走行車両 |
| JP2009101984A (ja) * | 2007-10-01 | 2009-05-14 | Nissan Motor Co Ltd | 駐車支援装置及び方法 |
| JP2011025754A (ja) * | 2009-07-22 | 2011-02-10 | Equos Research Co Ltd | 走行支援装置及び走行支援方法 |
| WO2011105107A1 (ja) * | 2010-02-26 | 2011-09-01 | パナソニック株式会社 | 運転支援装置 |
| KR20150051236A (ko) * | 2011-06-28 | 2015-05-11 | 폭스바겐 악티엔 게젤샤프트 | 차량을 주차하기 위한 방법 및 장치 |
| KR101553459B1 (ko) * | 2011-06-28 | 2015-09-15 | 폭스바겐 악티엔 게젤샤프트 | 차량을 주차하기 위한 방법 및 장치 |
| KR101720443B1 (ko) * | 2011-06-28 | 2017-04-10 | 폭스바겐 악티엔 게젤샤프트 | 차량을 주차하기 위한 방법 및 장치 |
| US9807352B2 (en) | 2011-06-28 | 2017-10-31 | Volkswagen Ag | Method and device for parking a vehicle |
| JP2014532324A (ja) * | 2011-09-12 | 2014-12-04 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 衝突に関連する状況においてドライバを支援するための運転支援システム |
| JP2019071545A (ja) * | 2017-10-10 | 2019-05-09 | マツダ株式会社 | 車両用表示装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| US20030060972A1 (en) | 2003-03-27 |
| EP1288072A3 (en) | 2004-02-04 |
| EP1288072A2 (en) | 2003-03-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2003063340A (ja) | 運転補助装置 | |
| JP4940168B2 (ja) | 駐車スペース認識装置 | |
| JP3494434B2 (ja) | 駐車支援装置 | |
| JP4604703B2 (ja) | 駐車補助装置 | |
| JP4863791B2 (ja) | 車両周辺画像生成装置および画像切替方法 | |
| JP3945467B2 (ja) | 車両後退支援装置および方法 | |
| EP1050866A1 (en) | Parking assistance device and method | |
| EP1927962A1 (en) | Obstacle detection device | |
| JP2013541915A (ja) | 死角地帯の表示装置および方法 | |
| CN101631695A (zh) | 驻车辅助装置 | |
| JP2009017462A (ja) | 運転支援システム及び車両 | |
| JP2004114977A (ja) | 移動体周辺監視装置 | |
| TW201014730A (en) | Image-based vehicle maneuvering assistant method and system | |
| JP2012176656A (ja) | 駐車支援装置 | |
| JP2010015346A (ja) | 周辺監視装置 | |
| CN111824129A (zh) | 图像处理装置及图像处理方法 | |
| JP3838884B2 (ja) | 車両周辺表示装置、プログラムおよび記録媒体 | |
| JP2003182489A (ja) | 駐車支援装置 | |
| KR101190789B1 (ko) | 차량의 거리 측정 장치 및 방법 | |
| JP4844323B2 (ja) | 駐車支援装置および駐車支援方法 | |
| JP2004213489A (ja) | 車両用運転支援装置 | |
| JP2009071659A (ja) | 駐車支援装置 | |
| JP2003036500A (ja) | 車両の走行区分線認識装置 | |
| JP2007090939A (ja) | 駐車支援装置 | |
| JP2005170290A (ja) | 障害物検出装置 |