[go: up one dir, main page]

JP5024165B2 - 視認物体推定装置 - Google Patents

視認物体推定装置 Download PDF

Info

Publication number
JP5024165B2
JP5024165B2 JP2008096331A JP2008096331A JP5024165B2 JP 5024165 B2 JP5024165 B2 JP 5024165B2 JP 2008096331 A JP2008096331 A JP 2008096331A JP 2008096331 A JP2008096331 A JP 2008096331A JP 5024165 B2 JP5024165 B2 JP 5024165B2
Authority
JP
Japan
Prior art keywords
visual
driver
candidate
estimation
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008096331A
Other languages
English (en)
Other versions
JP2009251744A (ja
Inventor
正昭 上地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008096331A priority Critical patent/JP5024165B2/ja
Publication of JP2009251744A publication Critical patent/JP2009251744A/ja
Application granted granted Critical
Publication of JP5024165B2 publication Critical patent/JP5024165B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両を運転するドライバが視認している視認物体を推定する視認物体推定装置に関する。
ドライバの視線方向からドライバが視認する視認物体を検出し、視認物体に応じて警報等によって危険を報知する技術が開発されている。このようなドライバが視認する視認物体を検出する技術として、従来、ドライバの視線ベクトルに基づいて対象物体を検出し、走行安全に役立てる走行安全装置する技術が知られている(たとえば、特許文献1参照)。この技術では、ドライバの視線を撮像した画像からドライバの顔や眼球を検出してドライバの視線ベクトルを算出し、算出した視線ベクトルから視認対象物を特定している。そして、視認対象物の対象位置に応じた運転支援を行うようにしている。
特開2005−284975号公報
しかし、上記特許文献1に開示された走行安全装置では、視線ベクトルを検出する際に検出誤差が生じるため、視線ベクトルには検出誤差に応じた誤差範囲が生じる。このときに、視線ベクトルの誤差範囲内に複数の物体が存在する場合には、それらの物体のうち、ドライバはどの物体を視認しているかを特定するのが困難である。このように、上記特許文献1に開示された走行安全装置では、ドライバが視認する物体の推定、たとえば視認物体が対向車両であるか歩行者であるかを推定することが困難であることから、ドライバが視認する視認物体に応じた運転支援を行うのが困難であるという問題があった。
そこで、本発明の課題は、ドライバが視認する視認物体を精度よく検出することができる視認物体推定装置を提供することにある。
上記課題を解決した本発明に係る視認物体推定装置は、ドライバの視線方向を検出する視線方向検出手段と、視線方向に存在する物体を検出する物体検出手段と、物体に関する物体情報を取得する物体情報取得手段と、物体が複数検出された場合に、物体に関する物体情報に基づいて、物体の中からドライバの視認物体を推定する視認物体推定手段と、を備え、視認物体推定手段は、物体の自車両に対する危険度に基づいてドライバの視認物体を推定し、自車両に対する危険度として、視線方向に存在する物体の自車両に対する衝突推定時間を用いており、視線方向検出手段および物体検出手段による検出並びに物体情報取得手段による取得を複数の時刻で行い、複数の時刻における複数の物体に対して、それぞれ推定度合を設定し、複数の時刻のそれぞれにおける複数の物体のそれぞれに対して設定された推定度合に基づいて、ドライバの視認物体を推定することを特徴とする。
本発明に係る視認物体推定装置においては、物体が複数検出された場合に、物体に関する物体情報に基づいて、物体の中からドライバの視認物体を推定している。このため、複数の視認物体が検出されたとしても、各検出物体を考慮してドライバが視認する物体を検出することができる。したがって、ドライバが視認する視認物体を精度よく検出することができる。
通常、自車両のドライバは、自車両に対する危険度が高い物体を視認する傾向が高い。したがって、物体の自車両に対する危険度に基づいてドライバの視認物体を推定することにより、ドライバが視認する視認物体をより精度よく検出することができる。
さらに、自車両に対する危険度として、自車両が、視線方向に存在する物体と自車両との想定衝突位置に到達する時間を用いる態様とすることができる。
これらのように、自車両に対する危険度として、視線方向に存在する物体の自車両に対する衝突推定時間や、自車両が、視線方向に存在する物体と自車両との想定衝突位置に到達するまでの時間を用いるにより、自車両に対する危険度を容易かつ確実に求めることができる。
また、自車両の走行環境に関する走行環境情報を取得する走行環境情報取得手段をさらに備え、視認物体推定手段は、走行環境と物体の属性からドライバの視認物体を推定する態様とすることができる。
自車両の周囲における物体は、その属性によってドライバが視認する傾向にあるものやそうでないものなどの特性を有している。このため、走行環境と物体の属性からドライバの視認物体を推定することによっても、ドライバが視認する視認物体をより精度よく検出することができる。
さらに、視認物体推定手段は、物体の検出履歴に基づいて、ドライバの視認物体を推定する態様とすることができる。
走行する自車両では、周囲の景色が時々刻々変化することとなるが、ドライバが視認する視認対象については、ドライバが追い続けていることが多い。したがって、時間が経過しても視認物体の候補としてあがりやすくなる。このため、物体の検出履歴に基づいて、ドライバの視認物体を推定することにより、さらに精度よくドライバが視認する視認物体を検出することができる。
そして、視認物体推定手段は、自車両の速度が高い場合に、自車両の速度が低い場合と比較して、長期に亘る検出履歴に基づいてドライバの視認物体の推定する態様とすることができる。
自車両の速度が高い場合には、自車両の速度が低い場合よりも、視認物体を推定する際の時間変化に対する依存度が高くなる。このため、自車両の速度が高い場合には、自車両の速度が低い場合より長期に亘る検出履歴に基づいてドライバの視認物体を推定することにより、さらに精度よくドライバの視認物体を推定することができる。
本発明に係る視認物体検出装置によれば、ドライバが視認する視認物体を精度よく検出することができる。
以下、添付図面を参照して本発明の実施形態について説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図示の便宜上、図面の寸法比率は説明のものと必ずしも一致しない。
図1は本発明の第1の実施形態に係る視認物体推定装置のブロック構成図である。図1に示すように、本実施形態に係る視認物体推定装置は、視認物体推定ECU1を備えている。視認物体推定ECU1には、ドライバ撮像カメラ2、ドライバ視線カメラ3、レーダセンサ4、車輪速センサ5、およびディスプレイ7が接続されている。さらに、視認物体推定装置は、ドライバ照射装置6を備えている。
ドライバ撮像カメラ2は、たとえば自車両における運転席の前方位置に設けられており、自車両を運転するドライバの顔を撮影している。ドライバ撮像カメラ2は、撮影した画像に関するドライバ画像情報を視認物体推定ECU1に送信する。
ドライバ視線カメラ3は、たとえば自車両の天井におけるドライバシートの直上部に設けられており、自車両の前方を撮影している。この自車両の前方位置は、ドライバの視線方向となりうる方向である。ドライバ視線カメラ3は、撮影した画像に関する視線画像情報を視認物体推定ECU1に送信する。
レーダセンサ4は、たとえば自車両のフロントグリル部分に取り付けられており、自車両前方における障害物の方向および自車両と障害物との距離を検出している。ここでの障害物としては、建物や道路標識などの固定物や、歩行者や他車両などの移動物が含まれる。レーダセンサ4としては、たとえばミリ波情報を送受信するミリ波レーダセンサが用いられる。レーダセンサ4は、自車両の前方における物体に関する物体情報を視認物体推定ECU1に送信する。
車輪速センサ5は、たとえば自車両の車輪に設けられており、車輪の回転速度を検出している。車輪速センサ5は、検出した車輪の回転速度から車速を取得し、取得した車速を視認物体推定ECU1に送信する。
ドライバ照射装置6は、ドライバ撮像カメラ2の側方に設けられている。このドライバ照射装置6は、ドライバの顔に向けて近赤外線を照射している。ドライバ照射装置6によってドライバの顔を照射することにより、夜間におけるドライバの視線の検出を行い易くすることができる。
また、視認物体推定ECU1は、画像処理部11、物体距離取得部12、視認物体候補推定部13、視認物体候補記憶部14、および視認物体推定部15を備えている。
画像処理部11は、ドライバ撮像カメラ2から送信されたドライバ画像情報に画像処理を施して、ドライバの視線方向を検出する。また、画像処理部11は、ドライバ視線カメラ3から送信された視線画像情報に画像処理を施し、検出したドライバの視線方向を合わせることによってドライバの視野内におけるオブジェクト(物体)を検出する。画像処理部11は、検出したオブジェクトに関する検出物体情報を視認物体候補推定部13に出力する。
物体距離取得部12は、レーダセンサ4から送信される物体情報に基づいて自車両の前方におけるオブジェクトと自車両との距離および自車両の進行方向に対するオブジェクトの向きを算出する。物体距離取得部12は、算出したオブジェクトの距離および方向に関する物体状態情報を視認物体候補推定部13に出力する。
視認物体候補推定部13は、画像処理部11から出力された検出物体情報および物体距離取得部12から出力された物体状態情報に基づいて、自車両の前方における各オブジェクトの危険度を算出する。危険度の算出手順については後に説明する。また、視認物体候補推定部13は、算出した危険度に基づいて、各オブジェクトの中から視認物体候補を推定する。視認物体候補推定部13は、推定した視認物体候補に関する視認物体候補情報を視認物体候補記憶部14に一旦記憶する。
視認物体推定部15は、視認物体候補記憶部14に一旦記憶された視認物体候補情報を読み出す。視認物体推定部15は、読み出した視認物体候補情報と、車輪速センサ5から送信された車速情報に基づいて、ドライバの視認物体を推定する。視認物体の推定手順については後に説明する。視認物体推定部15は、ドライバの視認物体を推定した後、推定した視認物体を用いた運転支援情報を生成する。視認物体推定部15は、生成した運転支援情報をディスプレイ7に送信する。
ディスプレイ7は、視認物体推定部15から送信された運転支援情報に基づく画像を表示する。ここでは、たとえばドライバ視線カメラ3で撮影した画像に対して、視認物体以外のオブジェクトのうち、ドライバが注視すべきオブジェクトを選択し、選択されたオブジェクトを強調表示した画像に関する情報が運転支援情報となる。
次に、視認物体推定ECU1における処理手順について説明する。図2は、視認物体推定ECUにおける処理手順を示すフローチャートである。図2に示すように、視認物体推定ECU1では、まず、前景情報を取得する(S1)。前景情報には、ドライバ撮像カメラ2で撮影された画像に関するドライバ画像情報、ドライバ視線カメラ3で撮影された画像に関する視線画像情報、レーダセンサ4で検出された自車両と前方のオブジェクトと距離および方向に関する物体情報が含まれている。
前景情報を取得したら、画像処理部11において、ドライバ撮像カメラ2から送信されたドライバ画像情報に基づいてドライバ視線を検出する(S2)。続いて、画像処理部11において、ドライバ視線カメラ3から送信された視線画像情報から得られる視線画像に、検出したドライバ視線を重畳する(S3)
それから、ドライバ視線が重畳された視線画像に画像処理を施して視線先候補エリアを特定する(S4)。続いて、視線先候補エリア内に含まれるすべてのオブジェクトを検出し(S5)、物体検出情報を視認物体候補推定部13に出力する。また、物体距離取得部12では、自車両と各オブジェクトとの距離および方向を算出し(S6)、算出した距離および方向に関する物体状態情報を視認物体候補推定部13に出力する。
視認物体候補推定部13では、画像処理部11から出力された物体検出情報および物体距離検出部から出力された物体状態情報に基づいて、各物体に対する危険度を算出する(S7)。危険度の算出手順としては、たとえば次の手順を用いることができる。
最も単純な危険度算出手順は、自車両に対する距離が近いオブジェクトほど、危険度が高いと判定するものである。
また、他の危険度算出手順は、衝突推定時間TTC(Time to Collision)が少ないほど危険度が高いと判定するものである。ここでの衝突推定時間TTCとは、自車とオブジェクトの相対距離および相対速度に基づいて、オブジェクトに対して自車両が衝突すると想定される時間までとして算出される衝突推定時間をいう。自車両を運転するドライバは、衝突推定時間TTCが短いオブジェクトに対して眼を向ける傾向がある。衝突推定時間TTCを利用する例では、このドライバの傾向を利用して得られる危険度を用いて視認物体の推定を行うものである。
たとえば、図3に示すように、ドライバの視線先候補エリアに含まれるオブジェクトとして、建物B1、標識B2、歩行者B3が存在していたとする。なお、図中の点P1〜P4は、それぞれ円形をなす視線先候補エリアの12時、3時、6時、9時の点を示し、点P5は視線先候補エリアの中心を示す。
自車両に対する相対距離は、標識B2、建物B1、歩行者B3の順で長くなっている。また、自車両に対する相対速度は、歩行者B3に対するものが一番短く、標識B2、建物B1に対しては同一の相対速度となっている。このような条件で各オブジェクトに対する衝突推定時間TTCを算出すると、建物B1に対する衝突推定時間TTCが20秒、標識に対する衝突推定時間TTCが3秒、歩行者B3に対する衝突推定時間TTCが2秒となったとする。この場合、自車両に対する相対距離は標識B2が一番短いこととなるが、衝突推定時間TTCは歩行者が一番小さいこととなる。したがって、図3に示す例では、歩行者B3の危険度が最も高いと判定する。
さらに、他の危険度算出手順としては、自車両と各オブジェクトとの想定衝突位置CP(Conflict point)を求め、自車両が想定衝突位置CPに到達すると想定されるまでの到達時間が短いほど、危険度が高いオブジェクトとして判断するものである。想定衝突位置CPとは、自車両が走行した際に自車両と各オブジェクトとが衝突すると想定される衝突位置をいう。各オブジェクトに対する想定衝突位置CPの算出は、下記(1)式〜(3)式を用いて行うことができる。
なお、オブジェクトが固定物である場合には、TCP2=0となる。また、定数αは、ドライバの操作によって自車両を停止させることが困難と想定される時間にある程度の余裕を付加した時間とすることができる。さらに、定数βは、自車両とオブジェクトとの停止能力によって、自車両とオブジェクトとの衝突を回避することが困難と想定される時間にある程度の余裕を付加した時間とすることができる。こうして算出された各オブジェクトに対する想定衝突位置CPを算出し、想定衝突位置CPが近いオブジェクトほど危険度を高く判断する。
こうして、危険度を算出したら、視認物体候補を推定する(S8)。ここでの視認物体候補としては、検出されたオブジェクトのすべてが対象となる。視認物体候補を推定したら、各視認物体候補の候補度合を推定する(S9)。視認物体候補の候補度合は、危険度に対応して推定され、危険度が高い物体ほど視認物体候補の候補度合が高く推定される。
視認物体候補の候補度合を推定したら、推定した視認物体候補およびを各視認物体候補に対する候補度合と対応つけて視認物体候補記憶部14に記憶する。視認物体候補記憶部14には、図4に示すように、現在推定された視認物体候補およびその視認物体候補の候補度合のほか、過去に推定された視認物体候補およびその視認物体候補の候補度合が検出履歴として記憶されている。
それから、視認物体推定部15において、視認物体候補の推定を行う(S10)。視認物体候補の推定は、次のようにして行われる。まず、視認物体推定部15は、視認物体候補記憶部14に記憶された視認物体候補およびその視認物体候補の候補度合を複数の時間分読み出す。続いて、図5に示すように、各時刻における視認物体候補およびその視認物体候補の候補度合を時間軸に沿って並べる。図5では、時間軸が右側にいくほど過去となっている。その後、車輪速センサ5から送信される車速に基づいて、各時間における視認物体候補の候補度合に重み付けを行う。重み付けを行う方法として、車速が早いほど視認物体候補の時間成分を重く重み付けを行う。
たとえば、図6(a)に示すように、時刻t0に見えた視線先候補エリアに含まれる物体は、時刻t1では図6(b)に示すように移動して見える。このように、視線先候補エリアにおけるオブジェクトは移動して見える。このような各時刻における視認物体候補および視認物体候補の候補度合を、図5に示すように、時系列的に並べる。また、視線先の移動に伴い、視線先からはずれる視認物体候補や、視線先に入る視認物体候補もある。たとえば、時刻t0では、オブジェクトA〜オブジェクトEが視線先に入る視認物体候補であるが、時刻t1ではオブジェクトDが視線先から消滅し、新たにオブジェクトFが視線先に入っている。
それから、自車両の速度に応じて各オブジェクトの推定度合を算出する。たとえば、自車両の速度が所定のしきい値よりも高い場合には、オブジェクトの推定度合として時刻t0〜時刻t2の3つの視認物体候補の候補度合を用いて視認物体候補の推定度合いを算出する。また、自車両の速度が所定のしきい値よりも低い場合には、オブジェクトの推定度合として時刻t0,時刻t1の2つの視認物体候補の候補度合を用いて視認物体候補の推定度合を算出する。
また、各オブジェクトの推定度合は各オブジェクトの候補度合を加算して求める。ここで、3つの視認物体候補の候補度合を用いて視認物体を推定する場合、各オブジェクトA〜オブジェクトFの候補度合は、それぞれ2.1,2.2,1.7,0.6,0.5,0.3となる。この場合には、オブジェクトBが視認物体として推定される。このように、自車両の車速が高い場合には、時間成分を大きく判定条件に加えて視認物体を推定する。
また、2つの視認物体候補の候補度合を用いて視認物体を推定する場合、各オブジェクトA〜オブジェクトFの候補度合は、それぞれ1.6,1.5,1.0,0.3,0.5,0.1となる。この場合には、オブジェクトAが視認物体として推定される。このように、自車両の車速が高い場合には、判定条件に加える時間成分を小さくして視認物体を推定する。
自車両が走行する際には、周囲の景色が時々刻々変化することとなるが、ドライバが視認する視認対象については、ドライバが追い続けていることが多い。したがって、時間が経過しても視認物体の候補としてあがりやすくなる。このため、物体の検出履歴に基づいて、ドライバの視認物体を推定することにより、さらに精度よくドライバが視認する視認物体を検出することができる。
こうして、視認物体を推定したら、推定した視認物体に応じた運転支援を提供する(S11)。ここでの運転支援としては、視認物体以外のオブジェクトを強調表示ながら、視線画像をディスプレイ7に表示したり、視認物体以外のオブジェクトと中から、ドライバが注視すべき注視対象オブジェクトを決定して、注視対象オブジェクトを強調表示したりする態様とすることができる。
このように、本実施形態に係る視認物体推定装置では、ドライバの視線先候補エリア内においてオブジェクトが複数検出された場合に、各オブジェクトの危険度に基づいて、物体の中からドライバの視認物体を推定している。また、通常、自車両のドライバは、自車両に対する危険度が高い物体を視認する傾向が高くなっている。このため、複数のオブジェクトが検出されたとしても、ドライバが視認する視認物体を精度よく検出することができる。
また、各オブジェクトの危険度を衝突推定時間や想定衝突位置までの到達時間を用いて求めている。このため、各オブジェクトの危険度を精度よく求めることができる。
さらに、過去のオブジェクトの危険度を検出履歴として視認物体候補記憶部14に記憶しておき、この検出履歴に基づいて視認物体を推定している。このため、さらに精度よくドライバが視認する視認物体を検出することができる
。しかも、視認物体を推定するにあたり、車速が高いほど長期に亘る検出履歴に基づいてドライバの視認物体の推定している。車速が高い場合には、自車両の速度が低い場合よりも、視認物体を推定する際の時間変化に対する依存度が高くなる。したがって、自車両の速度が高い場合には、自車両の速度が低い場合より長期に亘る検出履歴に基づいてドライバの視認物体の推定することにより、さらに精度よくドライバの視認物体を推定することができる。
次に、本発明の第2の実施形態について説明する。図7は、本実施形態に係る視認物体推定装置のブロック構成図である。図7に示すように、本実施形態に係る視認物体推定装置は、上記第1の実施形態に係る視認物体推定装置と比較して、視認物体推定ECU20は、走行環境取得部21および物体属性記憶部22を備えている点において異なる。また、視認物体推定ECU1には、路車間通信部8が接続されている点において異なる。その他の点については、上記第1の実施形態と共通する。
図6に示すように、本実施形態に係る視認物体推定ECU20に接続された路車間通信部8は、道路に設置される通信設備と通信可能とされており、通信設備から送信される走行環境情報を受信する。路車間通信部8は、受信した走行環境情報を視認物体推定ECU20に送信する。
走行環境取得部21は、路車間通信部8から送信された走行環境情報に基づいて、自車両の周囲の走行環境を取得する。走行環境取得部21は、取得した走行環境に基づく取得走行環境情報を視認物体候補推定部13に出力する。ここでの走行環境としては、たとえば自車両が走行している道路が単路場面であるか、あるいは一時停止場面であるかなどがある。
物体属性記憶部22は、自車両の周囲にあって視認対象物体となりえるオブジェクト属性をオブジェクトごとに記憶している。物体属性記憶部22が記憶する物体属性としては、種々のものを備えることができる。物体属性記憶部22は、視認物体候補推定部13からの信号に基づいて、記憶しているオブジェクト属性を視認物体候補推定部13に出力する。
物体属性記憶部22が記憶するオブジェクト属性としては、たとえば、図8に示すように、建物、空、道路標識などの固定物のほか、歩行者などの移動物を挙げることができ、これらの物体のそれぞれについて、単路場面と一時停止場面とでのオブジェクト属性をポイント数で記憶している。ここで記憶されたオブジェクト属性が大きいほど、視認物体となる度合が高いものとされている。また、オブジェクト属性が歩行者などの移動物の場合には、その移動方向に応じてオブジェクトと属性を細分化することができる。さらに、歩行者などである場合には、その歩行者が大人であるかこどもであるか、また、歩行者の顔の向きなどによってもオブジェクト属性を細分化することができる。この場合の傾向付けとして、オブジェクトが人である場合、自車両の方向を向いている方が向いていないよりもオブジェクト属性が低く、大人の方が子供よりもオブジェクト属性が低く設定される。また、オブジェクト属性が車両である場合、走行方向が自車両と同一である車両の方が、対向車両よりもオブジェクト属性が低く設定される。
次に、本実施形態に係る視認物体推定装置における処理手順について説明する。本実施形態に係る視認物体推定装置における処理は、上記第1の実施形態と比較して、視認物体候補を推定する手順が主に異なるため、以下、視認物体候補の推定手順を中心として説明する。
視認物体推定ECU20における視認物体候補推定部13では、視認物体候補を推定するにあたり、路車間通信部8から送信された走行環境情報に基づいて、自車両の周囲の走行環境、具体的には単路場面であるか一時停止場面であるかを取得する。次に、画像処理部11から出力された物体検出情報に基づいて、自車両における周囲のオブジェクトを取得する。続いて、取得したオブジェクトに対応するオブジェクト属性を物体属性記憶部22から取得する。
それから、視認物体候補推定部13では、取得したオブジェクトとそのオブジェクトに対するオブジェクト属性を視認物体候補の候補度合として推定する。以後は、視認物体候補記憶部14に推定した視認物体候補の候補度合を記憶し、上記第1の実施形態と同様の手順によって視認物体を推定する。
このように、本実施形態では、視認物体候補の候補度合を推定するにあたり、各オブジェクトのオブジェクト属性を用いている。このようなオブジェクト属性を利用することによっても、精度よく視認物体候補の候補度合を推定することができる。
以上、本発明の好適な実施形態について説明したが、本発明は上記実施形態に限定されるものではない。たとえば、上記各実施形態では、視認物体を推定するにあたり、まず視認物体候補を推定してからその検出履歴に基づいて視認物体を推定するようにしているが、視認物体候補を推定した時点で、視認物体候補の候補度合が最も高い視認物体候補をそのまま視認物体として推定することができる。
また、上記実施形態では、検出履歴を検出履歴に基づいて視認物体を推定する際、2回または3回の検出履歴を用いているが、その他の回数に設定することもできる。さらに、上記第2の実施形態では、走行環境として自車両が走行する道路を用いているが、その他、天候、昼夜等、他の要素を用いることもできる。また、上記第1の実施形態では、危険度を求めるにあたって、衝突推定時間TTCまたは想定衝突位置CPに自車両が到達するまでの時間を用いていたが、これらの両方を用いて危険度を求める態様とすることもできる。
第1の実施形態に係る視認物体推定装置のブロック構成図である。 視認物体推定ECUにおける処理手順を示すフローチャートである。 視線画像の例を示す模式図である。 視認物体候補の候補度合の例を示す表である。 複数の視認物体候補の候補度合を時系列に沿って並べた図である。 (a)は時刻t0における視線画像の例を示す模式図、(b)は時刻t1における視線画像の例を示す模式図である。 第2の実施形態に係る視認物体推定装置のブロック構成図である。 オブジェクトとオブジェクト特性との関係の例を示す表である。
符号の説明
1,20…視認物体推定ECU、2…ドライバ撮像カメラ、3…ドライバ視線カメラ、4…レーダセンサ、5…車輪速センサ、6…ドライバ照射装置、7…ディスプレイ、8…路車間通信部、11…画像処理部、12…物体距離取得部、13…視認物体候補推定部、14…視認物体候補記憶部、15…視認物体推定部、21…走行環境取得部、22…物体属性記憶部。

Claims (4)

  1. ドライバの視線方向を検出する視線方向検出手段と、
    前記視線方向に存在する物体を検出する物体検出手段と、
    前記物体に関する物体情報を取得する物体情報取得手段と、
    前記物体が複数検出された場合に、前記物体に関する物体情報に基づいて、前記物体の中から前記ドライバの視認物体を推定する視認物体推定手段と、
    を備え
    前記視認物体推定手段は、前記物体の自車両に対する危険度に基づいて前記ドライバの視認物体を推定し、
    前記自車両に対する危険度として、前記視線方向に存在する物体の前記自車両に対する衝突推定時間を用いており、
    前記視線方向検出手段および前記物体検出手段による検出並びに前記物体情報取得手段による取得を複数の時刻で行い、
    前記複数の時刻における前記複数の物体に対して、それぞれ推定度合を設定し、
    前記複数の時刻のそれぞれにおける前記複数の物体のそれぞれに対して設定された推定度合に基づいて、前記ドライバの視認物体を推定することを特徴とする視認物体推定装置。
  2. 前記自車両に対する危険度として、前記自車両が、前記視線方向に存在する物体と前記自車両との想定衝突位置に到達する時間を用いる請求項1に記載の視認物体推定装置。
  3. 自車両の走行環境に関する走行環境情報を取得する走行環境情報取得手段をさらに備え、
    前記視認物体推定手段は、前記走行環境と前記物体の属性から前記ドライバの視認物体を推定する請求項1に記載の視認物体推定装置。
  4. 前記視認物体推定手段は、各時刻における車速が高いほど、前記推定度合を大きく設定する請求項1〜請求項3のうちのいずれか1項に記載の視認物体推定装置。
JP2008096331A 2008-04-02 2008-04-02 視認物体推定装置 Expired - Fee Related JP5024165B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008096331A JP5024165B2 (ja) 2008-04-02 2008-04-02 視認物体推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008096331A JP5024165B2 (ja) 2008-04-02 2008-04-02 視認物体推定装置

Publications (2)

Publication Number Publication Date
JP2009251744A JP2009251744A (ja) 2009-10-29
JP5024165B2 true JP5024165B2 (ja) 2012-09-12

Family

ID=41312427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008096331A Expired - Fee Related JP5024165B2 (ja) 2008-04-02 2008-04-02 視認物体推定装置

Country Status (1)

Country Link
JP (1) JP5024165B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5360143B2 (ja) * 2011-07-04 2013-12-04 株式会社豊田中央研究所 走行場面認識モデル生成装置、運転支援装置、及びプログラム
JP2024162140A (ja) 2023-05-09 2024-11-21 トヨタ自動車株式会社 通知制御装置、通知制御方法及びコンピュータプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4196469B2 (ja) * 1999-03-02 2008-12-17 マツダ株式会社 車両の障害物検出装置
JP2004013466A (ja) * 2002-06-06 2004-01-15 Nissan Motor Co Ltd 車両周囲監視装置
JP4055070B2 (ja) * 2003-03-27 2008-03-05 アイシン精機株式会社 車両用警報装置
JP2008053901A (ja) * 2006-08-23 2008-03-06 Konica Minolta Holdings Inc 撮像装置および撮像方法
JP2008065545A (ja) * 2006-09-06 2008-03-21 Toyota Motor Corp 車両用運転支援装置
JP4420002B2 (ja) * 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置

Also Published As

Publication number Publication date
JP2009251744A (ja) 2009-10-29

Similar Documents

Publication Publication Date Title
US10392009B2 (en) Automatic parking system and automatic parking method
KR101655553B1 (ko) 운전자 보조 장치 및 방법
US9222789B2 (en) Wayfinding method and device
US11691619B2 (en) Automatic parking system and automatic parking method
US10009580B2 (en) Method for supplementing a piece of object information assigned to an object and method for selecting objects in surroundings of a vehicle
US7859652B2 (en) Sight-line end estimation device and driving assist device
US10818172B2 (en) Method, device and system for processing startup of preceding vehicle
US9659497B2 (en) Lane departure warning system and lane departure warning method
KR20200131832A (ko) 정보 처리 장치, 이동 장치 및 방법, 그리고 프로그램
JP6392735B2 (ja) 情報処理装置、情報処理方法、車両の制御装置及び車両の制御方法
KR20080004835A (ko) 주행 차량의 운전자 보조 정보 생성 장치 및 방법
US20180037162A1 (en) Driver assistance system
JP2005202678A (ja) 走行支援装置
US20140002658A1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
JP6394440B2 (ja) 汚れ判定装置
KR20180063524A (ko) 가상 차선을 이용한 전방 차량 위험도 감지 방법 및 장치
US20240383479A1 (en) Vehicular sensing system with lateral threat assessment
KR20150096924A (ko) 전방 충돌 차량 선정 방법 및 시스템
US20180204462A1 (en) Device and method for start assistance for a motor vehicle
KR101103526B1 (ko) 스테레오 카메라를 이용한 충돌회피 방법
JP2009276906A (ja) 走行情報提供装置
JP5097681B2 (ja) 地物位置認識装置
JP2011103058A (ja) 誤認識防止装置
JP5024165B2 (ja) 視認物体推定装置
KR101578434B1 (ko) 차선 인식 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100901

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5024165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees