[go: up one dir, main page]

JP7685065B2 - 車載制御装置、および、3次元情報取得方法 - Google Patents

車載制御装置、および、3次元情報取得方法 Download PDF

Info

Publication number
JP7685065B2
JP7685065B2 JP2023554272A JP2023554272A JP7685065B2 JP 7685065 B2 JP7685065 B2 JP 7685065B2 JP 2023554272 A JP2023554272 A JP 2023554272A JP 2023554272 A JP2023554272 A JP 2023554272A JP 7685065 B2 JP7685065 B2 JP 7685065B2
Authority
JP
Japan
Prior art keywords
camera
image
control device
distance measurement
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023554272A
Other languages
English (en)
Other versions
JPWO2023067867A1 (ja
Inventor
啓明 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ASTEMO, LTD.
Original Assignee
ASTEMO, LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ASTEMO, LTD. filed Critical ASTEMO, LTD.
Publication of JPWO2023067867A1 publication Critical patent/JPWO2023067867A1/ja
Application granted granted Critical
Publication of JP7685065B2 publication Critical patent/JP7685065B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/532Control of the integration time by controlling global shutters in CMOS SSIS
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/671Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • H04N25/535Control of the integration time by using differing integration times for different sensor regions by dynamic region selection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Description

本発明は、一対の車載カメラで撮像した一対の静止画に基づいて車両周辺の3次元情報を取得する、車載制御装置、および、3次元情報取得方法に関する。
近年、先進運転支援システム(ADAS、Advanced Driver Assistance System)や自動運転(AD、Autonomous Driving)の技術開発の一環として、車両の周辺状況を正確に把握する技術の開発が行われている。車両の周辺状況を把握するための外界センサの一種として、人の目と同様に周辺状況を映像として取得可能なカメラがある。しかし、一台のカメラが、ある一つの視点から撮像した静止画からは、原理的に、撮像した対象物までの距離を測定することができない。そこで、一台のカメラでは測定できない対象物までの距離を、測距装置であるLiDARを併用して測定するセンサフュージョンシステムが提案されている(例えば、特許文献1)。
しかしながら、特許文献1のセンサフュージョンシステムは、同文献の要約に「光源部を含む光源モジュールと光源制御部と受光部とを備える測距装置と、画素部とAD変換部と露光制御部とを備える撮像装置と、光源部が所定の領域へ光を出射するタイミングと、所定の領域に対応する画素群が露光するタイミングとが同期するように、光源制御部と露光制御部とを制御する同期制御部とを具備するセンサフュージョンシステムが提供される。」とあるように、撮像装置(カメラ)と測距装置(LiDAR)による所定領域でのセンシングタイミングを同期させる必要があり、センシング制御が複雑になるという問題がある。また、一般的に、LiDARはカメラより高額なため、LiDARを使用する特許文献1のセンサフュージョンシステムは、LiDARを使用しない測距システムに比べ、製造コストが上昇するという問題もある。
それらの問題のため、ADASやADを比較的安価に実現したい場合には、センサフュージョンシステムよりも、センシング制御が容易であり、かつ、安価なステレオカメラを利用することが多い。ステレオカメラを利用する場合は、左右カメラの位置と姿勢(視線方向)の関係が判明しているため、左右カメラで撮像した左右画像において同一対象部分をパターンマッチングなどの手法で対応付けし、視差を求めることで、三角測量の要領を用いて車両周辺の測距対象までの距離(3次元情報)を算出することができる。
国際公開第2020/075525号
ところで、近年の車両には、車両周囲の各方向を監視すべく、車両の様々な位置に様々な向きで単眼カメラを取り付けたものもある。このため、撮像範囲が重複する任意の2台の単眼カメラの撮像画像を併用すれば、ステレオカメラで監視しない方向であっても、上記した三角測量の要領で車両周辺の3次元情報を取得することができる。そのためには、重複する撮像範囲を同時に撮像するように、2台の単眼カメラの撮像タイミングを同期させれば良い。
しかしながら、2台の単眼カメラの少なくとも一方が、CMOSセンサなどのローリングシャッタ方式の画像センサ(受光面上の撮像ライン毎に、露光タイミングをずらしながら順次撮像する画像センサ)を採用したカメラであった場合には、2台の単眼カメラの撮像開始のタイミングを同期させても、ある位置からある方向を撮像する一方の単眼カメラがある対象物を撮像する露光タイミング(すなわち、一方の単眼カメラ側の撮像ラインの垂直位置)と、別の位置から別の方向を撮像する他方の単眼カメラが同一対象物を撮像する露光タイミング(すなわち、他方の単眼カメラ側の撮像ラインの垂直位置)が異なる可能性があり、その場合は露光タイミングの差(両カメラの撮像ラインの垂直位置の差)に相当する期間に生じた車両(カメラ)と測距対象の相対位置の変化に起因し、当該対象物の測距に誤差が発生するという問題がある。
そこで、本発明は、少なくとも一台のローリングシャッタ方式カメラを含む一対のカメラで撮像した一対の静止画に基づいて、車両周辺の3次元情報を取得する場合、ローリングシャッタ方式カメラの撮影開始タイミングを状況に応じて制御し、測距誤差を抑制する車載制御装置、または、3次元情報取得方法を提供することを目的とする。
ローリングシャッタ方式の画像センサを備えた第一カメラを含む複数のカメラと通信する車載制御装置であって、前記第一カメラと、前記第一カメラの撮像領域の少なくとも一部において同一の測距対象を撮像可能な第二カメラと、で撮像した複数の画像を用いて、前記測距対象の測距を行う測距部と、前記複数の画像のうち少なくとも一つの画像上の測距位置に基づいて、前記第一カメラ又は前記第二カメラの少なくとも一方の露光タイミングを調整する露光タイミング調整部と、を有する車載制御装置。
本発明の車載制御装置、または、3次元情報取得方法によれば、少なくとも一台のローリングシャッタ方式カメラを含む一対のカメラで撮像した一対の静止画に基づいて、車両周辺の3次元情報を取得する場合、ローリングシャッタ方式カメラの撮影開始タイミングを状況に応じて制御し、測距誤差を抑制することができる。
実施例1の車両への2台のカメラの取り付け位置を示す平面図。 図1の2台のカメラで同期撮像した2枚の静止画の一例。 光軸が非平行な2台の実在カメラと、光軸が平行な2台の仮想カメラの光学仕様の関係の一例。 図3の仮想カメラの画像センサ面上に投影される点Qの位置の一例。 実施例1の左カメラで撮像した点が、右カメラでどう撮像されるかを示す例。 実施例1による、左右カメラで同一点を同時に露光する方法の一例。 変形例1による、画像上で領域を分け測距を行う例(組合せA)。 変形例1による、画像上で領域を分け測距を行う例(組合せA)。 変形例1による、画像上で領域を分け測距を行う例(組合せA)。 変形例1による、左右カメラの露光タイミングの関係を示す例。 変形例2の左カメラで撮像した点が、右カメラでどう撮像されるかを示す例。 図9の左右カメラの設置条件における視差誤差の現れ方の一例。 図9の左右カメラの設置条件における視差誤差の現れ方の一例。 実施例1の車載制御装置の構成例。 図11のカメラ信号処理部の内部構成例。 実施例2の車載制御装置による撮像タイミング例。 実施例2の車載制御装置による撮像タイミング例。 実施例2の車載制御装置による撮像タイミング例。
以下、本発明の車載制御装置、および、3次元情報取得方法の実施例について、図面を参照して説明する。
まず、図1から図12を用い、本発明の実施例1に係る車載制御装置1を説明する。
図1は、本実施例の車載制御装置1を搭載した車両100を上方から見た平面図であり、車両100に取り付けた2台のカメラC(前方を撮像するカメラC、右前方を撮像するカメラC)と、両カメラの撮像範囲S(カメラCの撮像範囲S、カメラCの撮像範囲S)と、両カメラで撮像中の歩行者(以降「測距対象OB」と称する。)の位置関係を例示したものである。
なお、図1では、2台のカメラC,Cのみを例示しているが、車両100には、右方向、右後方、後方、左後方、左方向、左前方などの各方向を撮像するための複数のカメラ(図示せず)も、各カメラの撮像範囲が重複するように取り付けられている。このため、撮像範囲が重複する任意の2台のカメラが撮像した一対の画像を利用することで、任意方向の3次元情報を取得できるが、以下では、カメラC,Cの撮像画像に基づいて、車両右前の測距対象OBの3次元情報を取得する状況を例に、本実施例の車載制御装置1の詳細を説明する。
図2は、車両100と測距対象OBが共に停止しており、かつ、カメラC、Cが共に上側から下側の撮像ラインに向かって順次露光するローリングシャッタ方式のカメラである場合に、両カメラが図1の環境下で撮像した画像Iを例示したものである。この例では、カメラCで撮像した画像Iと、カメラCで撮像した画像Iの双方に同一の測距対象OBが写っている。ここで、車両100から測距対象OBまでの距離を測定するための特徴点として、点Pを用いることとする。なお、図2中の撮像ラインは本発明を説明するためのイメージであり、実際の撮像ラインは図示するより高い解像度である。
画像Iを基準画像とした場合、画像I上の点Pは、両画像に歪みがなければ、画像I上では、エピポーラ幾何に基づき、点Pまでの距離に応じてエピポーラ線L上のどこかに現れる。そして、画像I上で、エピポーラ線L上のどこに点Pに存在するかにより、点Pまでの距離を算出することができる。
ここで、図3を用い、車両100に取り付けた、光軸が平行でない2台のカメラが撮像した一対の静止画に基づいて、ステレオ視によって測距対象点までの距離を測定する方法の一例を説明する。
図3において、点Olは、相対的に左側にあるカメラ(図1ではカメラCに該当、以降「左カメラ」と称する)の光学中心、点Orは、相対的に右側にあるカメラ(図1ではカメラCに該当、以降「右カメラ」と称する)の光学中心である。また、線分BLは、両光学中心を結んだ基線であり、その長さは点Olと点Orの距離である。
図3に示す座標系は、上記した線分BLの中心点Oを原点とする、X軸、Y軸、Z軸の三軸からなる直交座標系である。この直交座標系では、Y軸が線分BLと重なっており、X軸がY軸と直交しており、Z軸がX軸及びY軸と直交しており、左右カメラの光軸がXY平面上に存在している。なお、X軸は車両から離れる方向を正方向としており、Y軸は左方向を正方向としており、Z軸は上方向を正方向と定義している。そして、左カメラの仕様を、図中の左カメラ光軸ClOA、左カメラ画像センサ面Cl(太実線で示す平面)、左カメラ焦点距離flで定義し、右カメラの仕様を、図中の右カメラ光軸CrOA、右カメラ画像センサ面Cr(太実線で示す平面)、右カメラ焦点距離frで定義する。
実在の左右カメラの他に、一般的なステレオカメラ同等の平行ステレオ視の実現を想定した仮想の左右カメラを考える。この仮想カメラVについては、仮想左カメラの仕様を、図中の仮想左カメラ光軸VlOA、仮想左カメラ画像センサ面Vl(太破線で示す平面)、仮想左カメラ焦点距離slで定義し、仮想右カメラの仕様を、図中の仮想右カメラ光軸VrOA、仮想右カメラ画像センサ面Vr(太破線で示す平面)、仮想右カメラ焦点距離srで定義する。なお、仮想左カメラ焦点距離slと仮想右カメラ焦点距離srは同じとする。また、仮想左カメラの光学中心は実在の左カメラの光学中心と同じ点Olに位置し、仮想右カメラの光学中心は実在の右カメラの光学中心と同じ点Orに位置するものとする。そして、仮想左カメラ画像センサ面Vl、仮想右カメラ画像センサ面Vrは共にYZ平面と平行な面に設定する。また、各画像センサ面はそれぞれの面に対応する光軸と直角であるものとする。
ここで、実在の左右カメラの撮像範囲にある、空間上のある点Qまでの距離を測距する状況を考える。実在の左カメラでは点Qは左カメラ画像センサ面Cl上の点Clに投影される。この場合、図3からわかるように、点Olと点Clを結ぶ直線と仮想左カメラ画像センサ面Vlが交わる点Vlが仮想左カメラ画像センサ面Vl上に投影される点Qの位置となる。すなわち、共に点Olを光学中心とした仮想左カメラと左カメラの姿勢の関係(両者の光軸がなす角度であるθlなど)と、左カメラ焦点距離fl、仮想左カメラ焦点距離slが分かれば、左カメラ画像センサ面Cl上に投影される点Clの位置から仮想左カメラ画像センサ面Vlに投影される点Vlの位置を求めることができる。同様に、右カメラ画像センサ面Cr上に投影される点Crの位置から仮想右カメラ画像センサ面Vrに投影される点Vrの位置を求めることができる。
なお、図3では、左カメラ光軸ClOAと右カメラ光軸CrOAを共にXY平面上に配置した構成を前提に、互いに平行な仮想左カメラ光軸VlOAと仮想右カメラ光軸VrOAを設定したが、測距対象である点Qが撮像可能な範囲で、実在の左右カメラの光軸を3次元的に回転させ(具体的には、左右カメラの光軸を任意の仰角または俯角の方向に傾け)、左カメラ光軸ClOAと右カメラ光軸CrOAがY軸上でのみXY平面と交差する構成にしても、図3と同様に、互いに平行な仮想左カメラ光軸VlOAと仮想右カメラ光軸VrOAを設定し、上記した点Vlや点Vrの位置を求めることができる。
したがって、実在の左カメラで撮像した左画像Ilから左仮想カメラで仮想的に撮像した仮想左画像を算出することができ、実在の右カメラで撮像した右画像Irから右仮想カメラで仮想的に撮像した仮想右画像を算出することができる。そして、図3における左仮想カメラと右仮想カメラは、仮想的な平行ステレオカメラを構成するので、仮想左画像と仮想右画像に基づいて測距対象OBまでの距離を三角測量の要領で計算することができる。
<仮想カメラVの画像センサ面への点Qの投影位置>
図4に、図3の仮想左カメラ画像センサ面Vl、仮想右カメラ画像センサ面VrをX軸の負方向から見た図を示す。図4を用いて、仮想的な平行ステレオカメラにおける画像センサ面上の位置と測距対象OBまでの距離の関係を述べる。
図4では、左右の画像センサ面上の座標系としてU軸とV軸を定義し、仮想左カメラ画像センサ面Vlの原点を点Vl、仮想右カメラ画像センサ面Vrの原点を点Vrとする。図3に示すように、点Vlは仮想左カメラ画像センサ面Vlと仮想左カメラ光軸VlOAの交点に位置し、点Vrは仮想右カメラ画像センサ面Vrと仮想右カメラ光軸VrOAの交点に位置する。
画像センサ面の座標を(U座標、V座標)の形式で表すと、仮想左カメラ画像センサ面Vl上に投影された点Q(すなわち点Vl)の座標を(ul,vl)とし、仮想右カメラ画像センサ面Vr上に投影された点Q(すなわち点Vr)の座標を(ur,vr)とすると、図3におけるYZ平面から点Qまでの距離D、すなわち点QのX座標の値は式1で表すことができる。
Figure 0007685065000001
ここで、sは仮想左カメラ焦点距離sl(或いは、これと同値の仮想右カメラ焦点距離sr)であり、dは線分BLの長さ(基線長)である。
また、vr及びvlは式2で表すことができる。
Figure 0007685065000002
ここで、xは図3における点QのX座標(すなわち距離Dに等しい)であり、zは図3における点QのZ座標である。式2が示すように、歪のない同じ2台のカメラで構成された平行ステレオカメラでは左右の画像センサ面のV座標が一致する。すなわち、当該2台のカメラがローリングシャッタ方式の画像センサを用いていても、2台を同期して動作させれば、左右のカメラの画像センサ面で同じ撮像ライン(垂直位置)に点Qが投影されるので、距離Dの計算に用いる画像上の点は左右のカメラで同時に露光できる。
<左右画像の関係の一例>
図5は、図3において、左右のカメラの焦点距離fl、frが同一、実在の左カメラは左仮想カメラと同じ姿勢(θl=0°)、実在の右カメラは点Orを通るZ軸と平行な直線を中心に右仮想カメラから右に30度回転(θr=30°)している状況において、左カメラで画像として捉えた点が、右カメラでどのように捉えられるかを例示したものである。
左カメラで撮像した画像を左画像Il、右カメラで撮像した画像を右画像Irとすると、左画像Ilは左カメラ画像センサ面Clの画像に相当するが、図4の仮想左カメラ画像センサ面Vlではカメラのレンズの影響で画像が上下左右反転しているため、図5では再度上下左右を反転して元の向きで示している。右画像Irも同様である。以降、カメラの捉えた画像の向きは、図5と同様の向きで示す。
右画像Irは、左画像Ilに示す各点までの距離がある範囲で変化した場合にについてまとめて示しているので、左画像Ilの各点が右画像Irでは各線分となっている。すなわち、左画像Il上のある点は、当該点までの距離により右画像Irで対応する線分、あるいは線分を延長した直線のどこかに現れ、また逆に当該線分あるいは直線のどこに現れるかにより、当該点までの距離を算出できる。
左画像Ilの各点と右画像Irの各線分が対応するように図示しているが、左右カメラの撮像範囲の違いから、左画像Il上の点の一部は、右画像Irの範囲外になっている。いくつかの点と線分の対応を例示すると、左画像Ilの点P、P、Pが右画像Irの線分L、L、Lにそれぞれ対応する。
図5において、左画像Ilの点P、P、Pが存在する撮像ラインH(垂直位置)と、右画像Irの線分L、L、Lの垂直位置を比較すると、線分Lは撮像ラインHの上側、線分Lはほぼ撮像ラインHの位置、線分Lは撮像ラインHの下側になっている。したがって、ローリングシャッタ方式の左カメラと右カメラの撮像タイミングが同期しており、左画像Il及び右画像Irが共に同じ速度で上側の撮像ラインから下側の撮像ラインに順次露光を行うと、点Pについては左画像Ilより右画像Irが早く露光されるという露光時刻のずれが生じ、逆に、点Pについては左画像Ilより右画像Irが遅く露光されるという露光時刻のずれが生じることになる。
この露光時刻のずれは、車載カメラのようにカメラCの位置(車両100の位置)と測距対象OBの位置の相対関係が時々刻々と変化する状況において大きな問題となる。すなわち、視差の影響だけでなく、露光時刻のずれに相当する期間中のカメラと測距対象OBの相対位置関係の変化も、左画像Ilと右画像Irの違いとして現れるため、測距対象点までの測距に必要な、左画像Ilと右画像Irの測距対象点位置の関係に影響を及ぼし、測距誤差が発生するからである。したがって、露光時刻のずれに起因する測距誤差を抑えるためには、測距対象点の投影位置に応じて左右カメラの露光時刻の差を抑制する必要がある。
<露光時刻差の抑制方法>
次に、図6を用いて、同一の測距対象OBを左右カメラで撮像する際の露光時刻の差を抑制する方法を説明する。図6は、図5と同じ設置条件下の左右カメラで捉えた左右画像における、測距対象OBと、その測距対象OBまでの距離の測定に用いる特徴点である点Pを例示している。なお、説明のため、図6の左画像Ilには図5の左画像Ilと同じ画像上の点を記載しており、図6の右画像Irには図5の右画像Irと同じ画像上の線分も記載している。また、左画像における点Pの垂直位置を示す撮像ラインHl、右画像における点P’の垂直位置を示す撮像ラインHrも記載している。点P’は点Pが測距対象範囲とする最大距離に位置すると仮定したときの点Pの右画像上の位置である。
測距対象OBの特徴点(点P)は、図5の左画像Ilの点Pと同じ位置にあるものとする。この場合、左右カメラの露光開始時刻が同じと仮定すれば、図6の左画像Ilの点Pは、図5の右画像Irでは線分L(あるいは、その線分と重なる直線)上に位置することになる。この場合には、上記したように、左カメラによる点Pの露光タイミングに比べ、右カメラによる線分Lの露光タイミングが遅れることになる。そこで、点Pと線分Lの露光タイミングのずれを抑制すべく、図5の右画像Irの線分L(あるいはその線分と重なる直線)の垂直位置を図5の撮像ラインH(図6の撮像ラインHl)に近くすることを考える。
左画像Ilの点Pに対応する右画像Irの線分Lは水平とは限らないため、線分L、あるいはその線分と重なる直線上のどの点を撮像ラインH(Hl)の垂直位置に合せるか決める必要があるが、式1で示す関係により、画像上の位置変化は測距対象OBまでの距離に反比例して小さくなり、遠距離ほど画像上の位置のずれに敏感になることから、実質的な測距誤差抑制の効果を考え、測距対象範囲とする最大距離に対応する点とする。図6の右画像Irではこの点を点P’として示す。
測距対象範囲とする最大距離は測距目的、例えば大きい交差点で進行する先の横断歩道上の交通参加者までの距離を確認するなど、を勘案して決定する。この際、最大距離の測距に必要な実効的な解像度を得られるカメラや、カメラの取り付け姿勢の精度、車両に取り付けた時点で実施するカメラのキャリブレーションの精度、車両が運行される際のセンシング誤差補正機能を考慮する。
カメラのキャリブレーションについては既に一般的に実施されているので、その方法についての説明は省略する。センシング誤差補正機能についても既に実施されているので詳細説明は省略するが、例えば車両が停止している状態で標識や信号機など固定されていることが確実な物標に対し、複数のカメラ画像や他の外界センサによる物標検出位置を比較して各センサのセンシングずれを検出し、補正を行う方法などがある。
図6において、点P’の右画像Ir上での垂直位置、すなわち点P’の撮像ラインHrが分かれば、左画像Ilと右画像Irの撮像タイミングで何撮像ライン分差をつければ点Pを左右カメラで同時に撮像できるかが分かる。そして、画像センサの動作パラメータ決定できる1撮像ライン当たりの露光時刻のずれから露光開始時刻の差を計算することができる。したがって、計算で求めたタイミングに合うように同期信号などのフレームタイミング制御用の信号を左カメラと右カメラにそれぞれ与えることで、左右のカメラで点Pを露光するタイミングを揃えることができ、点Pの測距誤差を抑制することができる。
図6に例示するように、左画像Il上での点Pの撮像ラインがHlであり、右画像Ir上での点P’の撮像ラインがHrであれば、HlとHrの差分である撮像ラインΔHの露光時間に相当する時間だけ右カメラの撮像タイミングを早めれば、左画像Il上の点Pと、右画像Ir上の点P’を同時に撮像することができる。この結果、左右画像にはほぼ同時刻の測距対象OBが撮像されるため、この左右画像から算出した仮想左右画像に基づいて、点Pの位置を精度良く測定することができる。
<変形例1>
次に、図7と図8を用いて、本実施例の変形例1を説明する。図6を用いて説明した方法では、測距対象となる点Pを画像上で特定した後に、撮影タイミングの適切な修正量(ΔHラインの露光に要する時間に相当)を決定し、さらに、撮像タイミングを調整した左右画像に基づいて測距対象点を測距する必要がある。つまり、図6の方法により、正確に測距できる測距対象点は、基本的に特定の一点(点P)のみであった。
しかし、画像上で注目したい領域単位で、そこに存在する対象をまとめて測距したい場合がある。このような場合に対応する方法の例として、図7Aから図7Cを用い説明する。
本変形例の図7Aから図7Cでは、左画像Ilと右画像Irの露光タイミング差の関係を、予め準備した3通りの組み合わせから選択する。図7Aの組合せAでは、左カメラより右カメラの露光タイミングを所定のΔHライン分早め、図7Bの組合せAでは、左カメラと右カメラの露光タイミングを合わせ、図7Cの組合せAでは、左カメラより右カメラの露光タイミングを所定のΔHライン分遅らせている。ここで、各図では、左画像Ilに存在する各点の垂直方向の位置が分かりやすいように、水平線(点線)を描いている。
尚、露光は実際には一瞬ではなく、本来画像センサ上に届く光の強さと画像センサの感度特性を考慮して、ある程度の期間行うものであるが、本明細書において露光タイミングとは、露光を開始するタイミング、あるいは露光期間の中央となるタイミングなど、露光期間を代表するタイミングを指す。但し、露光期間を代表するタイミングの考え方は一つに揃えて考える必要がある。
図7Aの組合せAでは、右画像Irの右上と左下の領域Rの部分に存在する線分の遠距離側に対応する端(右画像Irにおいて、各線分の右端)の垂直方向の位置の差が組合せAに対し改善している。これに対し、図7Cの組合せAでは、右画像Irの左上と右下の領域Rの部分に存在する線分の遠距離側に対応する端の垂直方向の位置の差が組合せAに対し改善している。すなわち、右画像Irの領域Rに測距対象OBがある場合には、図7Aの組合せAに示す露光タイミングとなるよう左右カメラの画像センサのフレーム露光開始タイミングを調整し、右画像Irの領域Rに測距対象OBがある場合には、図7Cの組合せAに示す露光タイミングとなるよう左右カメラの画像センサのフレーム露光開始タイミングを調整し、右画像Irの領域R(領域Rと領域R以外)に測距対象OBがある場合には、図7Bの組合せAに示す露光タイミングとなるよう左右カメラの画像センサのフレーム露光開始タイミングを調整すれば、測距対象OBがある領域において、左右カメラでの露光タイミングのずれによる測距誤差を抑制できる。
測距対象OBの特定の一点(点P)を投影する撮像ラインを左右同時に撮像する図6の撮像方法に比べると、図7Aから図7Cに示す本変形例の撮像方法では、点Pを含む左右の撮像ラインの撮像タイミングのずれが大きくなる可能性があるため、測距誤差もやや大きくなるが、左右カメラの露光タイミングの関係を常に固定する場合(例えば、常に図7Bの組合せAを使用する場合)に比べれば、測距対象領域に応じて撮像タイミングを制御している分、測距誤差を抑制することが可能である。
尚、領域を小さく区切っても測距誤差を抑制したい場合には、領域をより多く分割し、各領域について左カメラと右カメラの露光タイミングの差を定義すればよい。さらに、領域をオーバーラップして定義しておき、測距したい対象領域を最もカバーする領域を選択して、当該領域に対応する露光タイミングの差を定義することも考えられる。
ここで、図8を用いて、図7Aから図7Cに示す方法を、予め測距対象OBとする領域を選択せずに行いたい場合に対応する方法について説明する。図8は左カメラと右カメラの露光タイミングの関係を示している。特に領域の数が少ない場合においては、測距対象OBの選択結果に関わらず領域を順次選択することで、認識処理や測距領域選択に伴う遅延の影響を排除でき、結果的に測距対象OBを早く測距できる利点がある。また、順次選択する場合には、一連の順序の中に重要度の高い特定の領域の測距間隔を短くするために、当該領域を複数回選択してもよい。
さらに、複数の順序を予め定義しておき、周辺の状況や車両の走行状態(速度、縦加速度、横加速度)、ドライバの運転操作状況(シフトレバーの位置、操舵角)などにより、順序を切り替えても良い。例えば、高速走行中は車両前方の領域の測距間隔を短くしたり、横加速度が発生している場合や操舵操作が行われている場合には、進行方向に対応する領域の測距間隔を短くしたり、後退中は後方監視に利用可能なカメラを用いた測距間隔を短くしたりすることで、状況に応じて重要度の高い部分の測距を行うことができる。
図8に示す各露光は画像センサが1フレーム分の露光を示している。左カメラでは露光El、露光El、露光Elの順に露光を繰り返している。右カメラでは露光Er、露光Er、露光Erの順に露光を繰り返している。前述の組合せAに相当する露光Elと露光Erの組合せでは左右のカメラで同時に露光を行い、前述の組合せAに相当する露光Elと露光Erの組合せでは左カメラより右カメラの方がΔHライン分早く露光を行い、前述の組合せAに相当する露光Elと露光Erの組合せでは左カメラより右カメラの方がΔHライン分遅く露光を行う。すなわち、予め決めた繰り返しで、左カメラと右カメラの露光タイミングの関係を変更して露光を行う。このように、図8に示す露光を行うことで、測距する領域に合わせ適切なタイミングの露光結果を用いれば、露光時刻のずれに伴う測距誤差を抑制できる。
<変形例2>
次に、図9、図10A、図10Bを用いて、図5とは左右カメラの設置条件を変えた場合の測距方法である、本実施例の変形例2を説明する。
図9は、左右カメラの光軸は平行であるが、左カメラの画像センサ面を左カメラの光軸周りに30度反時計回りに回転した場合に、両カメラで撮像した左右画像に対応している。この撮像条件は、2台のカメラの位置関係、及びカメラの取り付けられている車両に対する関係として、例えば、図3においてX軸を車両の前方向と平行とすると、Y軸が車両の水平に対してX軸周りに30度時計回りに回転しており、左カメラの姿勢が車両と水平で、右カメラが右カメラの光軸を中心に時計回りに30度回転している状況に相当する。
図9においては、右画像Irは、左画像Ilに示す各点までの距離がある範囲で変化した場合についてまとめて示しているので、左画像Ilの各点が右画像Irでは線分となっている。
左画像Ilの各点と右画像Irの各線分が対応するように図示しているが、左右カメラの撮像範囲の違いから、左画像Il上の点の一部は、右画像Irの範囲外になっている。いくつかの点と線分の対応を示すと、図9の左画像Ilの点P、P、Pが右画像Irの線分L、L、Lにそれぞれ対応する。
図9に示す例では、左カメラと右カメラを結ぶ基線(線分BL)に対して、右カメラの姿勢は平行ステレオカメラと同じ姿勢となるので、右画像Irに示す各線分は画像に対し水平となる。すなわち、測距のために画像上の位置を確認するのに用いる側のカメラの姿勢を調整することで、ローリングシャッタ方式の画像センサであっても、対象までの距離に関わらず各点の露光するタイミングは同じにすることが可能である。
しかし、点P、P、Pを結ぶ撮像ラインHと、線分L、L、Lの右端(すなわち遠距離側)を結ぶ直線Lrは平行ではない。つまり、このような左右カメラの組合せであっても、ローリングシャッタ方式の画像センサを用いた場合には、左画像Ilに捉えた測距対象点の位置に依存して、当該測距対象点を露光するタイミングが左右のカメラで異なる。
図9に対応する左カメラ及び右カメラの設置条件において、ローリングシャッタの影響による垂直方向の露光時刻ずれの大きさ、測距対象OBの動き、測距対象OBまでの距離をある値に固定した際の、測距誤差の現れ方を図10A,図10Bに示す。なお、図10Aは、測距対象OBが相対的に右方向に移動する状況下(例えば、車両100の左旋回中)に撮像した左右画像であり、図10Bは、測距対象OBが相対的に左方向に移動する状況下(例えば、車両100の右旋回中)に撮像した左右画像である。
図10A、図10Bでは、左画像Ilの各点について、右画像Ir3a及び右画像Ir3bに対応する点を示し、右画像Ir3a及び右画像Ir3bでは、各点における測距誤差を点の周りの〇または×で示している。ここで、〇または×の大きさが誤差の程度を示し、〇は実際より近い距離、×は実際より遠い距離として誤差が表れることを示す。
図9における左右カメラの姿勢の場合、画像を複数領域に分割して領域ごとに左カメラと右カメラの露光タイミングの関係を調整する場合、領域の分割例として、図10A、図10Bの右画像Ir中に示す領域RD1、領域RD2、および、それ以外の領域に分けることが考えられる。そして、領域RD1に対しては左カメラの露光開始に対し右カメラの露光開始を遅らせ、領域RD2に対しては左カメラの露光開始に対し右カメラの露光開始を早め、それ以外の領域では左カメラと右カメラの露光開始を合わせる。
図10Aの右画像Ir3aと図10Bの右画像Ir3bでは、測距対象OBの相対的な動きが異なる影響で、測距誤差の現れ方が遠近逆になっているが、分割した領域は露光タイミングの違い、すなわち左画像上の位置に対応する右画像の撮像ライン(垂直位置)の違いにより範囲が決まるので、右画像Ir3aと右画像Ir3bで異なることはない。つまり、領域の分割方法は測距対象OBのカメラに対する相対的な動きには依存せずに決定できる。
しかし、測距誤差そのものの補正は、測距誤差がカメラと測距対象OBの相対位置の変化方向や程度に依存する。すなわち、相対位置が時々刻々と様々に変化する車載カメラにおいては、露光時刻のずれの期間の相対位置変化の推定が必要であり、推定に依存することから必ずしも正しく補正できない。
<車載制御装置1の具体的な構成>
次に、図11と図12を用いて、これまで説明した3次元情報取得処理を実行する、車載制御装置1の具体的な構成例を示す。なお、以下では、車両周囲の各方向を監視するためにn個のカメラ(カメラCからカメラC)が、各カメラの撮像範囲が重複するように車両100に取り付けられており、また、各カメラが車載制御装置1に接続されているものとする。
図11に示すように、車載制御装置1は、カメラインタフェース11と、カメラ信号処理部12と、カメラ認識処理部13と、統合認識部14と、AD/ADAS制御処理部15と、測距対象選択部16と、CANインタフェース17と、カメラ動作パラメータ決定部18と、カメラ動作タイミング計算部19を有している。なお、車載制御装置1は、具体的には、CPU等の演算装置、半導体メモリ等の記憶装置、および、通信装置などのハードウェアを備えたコンピュータである。そして、演算装置が所定のプログラムを実行することで、カメラ信号処理部12やカメラ認識処理部13などの各機能を実現するが、以下では、このような周知技術を適宜省略しながら、各部の詳細を順次説明する。
カメラインタフェース11は、車載制御装置1にカメラを接続するためのインタフェースで、電気的な整合や信号形式の変換などを行う。カメラインタフェース11は各カメラで撮像した画像及びカメラの動作状況を示す情報はカメラ信号処理部12に送る。また、カメラ信号処理部12で集約し、各カメラ向けの制御信号に合わせて形式などを変換したフレーム取得開始タイミング設定や露光設定などに関する情報をそれぞれのカメラに送る。
カメラ信号処理部12は、各カメラの動作に必要なパラメータを集約する以外に、様々な画像処理を行う。カメラ信号処理部12の内部構成例は図12を用いて別途説明する。
カメラ信号処理部12での画像処理結果は、カメラ認識処理部13へ送られ、画像の中に存在する様々な物体を検出し、検出した各物体の種別や状態(距離、速度、加速度、向き、発光体の点灯の有無など)を認識する。速度や加速度などの情報は、主として距離の時間変化より算出する。
カメラ認識処理部13による距離の算出においては、カメラ信号処理部12で検出した同一点に対する視差情報が利用可能な場合には当該視差情報から算出するが、測距対象OBとして選択されていない対象などで視差情報が存在しない場合には、1つのカメラから得られた画像からAI(人工知能)等を用いて距離を推定しても良い。また距離を推定するAIに対して、得られた視差情報を与えても良く、このような構成することでAI内部での対象物までの距離推定誤りをAI自体に補正させたり、対象物までの距離推定に利用する対象物の周辺物までの距離を視差情報から取得したりすることが可能となる。すなわち視差情報をAIによる距離推定精度向上に活用できる。なお、AIによる距離推定精度向上に活用するため、カメラ認識処理部13はAIが距離推定を行う上で重要な対象物を測距対象OBとするように、測距対象選択部16に要求を出しても良い。
統合認識部14は、カメラ認識処理部13の認識結果、カメラ信号処理部12で検出した露光状態やホワイトバランスなど各カメラの撮像画像の品質に関わる情報、CANインタフェース17経由で外部から得られる車両の走行状態(走行速度、縦加速度、横加速度など)、ドライバ操作(操舵操作、アクセル操作、ブレーキ操作、シフトレバーの位置など)などの情報を統合的に判断し、最終的な認識結果をAD/ADAS制御処理部15へ伝える。また、カメラ以外の外界センサが存在する場合には、それら外界センサから得た情報を利用しても良い。
AD/ADAS制御処理部15は、統合認識部14から得られた最終的な認識結果をもとに、CANインタフェース17経由で外部から得られる車両の走行状態、ドライバ操作などの情報もふまえて、車両制御に必要な情報(アクセル、ブレーキ、操舵などへの介入情報など)やドライバへの警告要求信号を生成し、CANインタフェース17経由で車両制御系の電子制御装置やヒューマンマシンインタフェース系の電子制御装置に出力する。
測距対象選択部16は、カメラ認識処理部13、統合認識部14、AD/ADAS制御処理部15の状況、及び過去数フレームにおいて選択した測距対象領域などを考慮して、測距処理に用いるカメラの組合せや各カメラの組合せにおいて測距対象OBとする画像上の特徴点あるいは測距対象領域を決定する。ある特徴点に注目すれば図6を用いて説明したような処理を行うことが可能であり、測距対象領域に注目すれば図7で示したような処理が可能である。
なお、カメラが3台以上ある場合には、異なる方向の同時測距のために、測距に用いるカメラの組合せを複数同時に選択することも考えられる。カメラの組合せを複数同時に選択する場合、露光タイミングの基準となるカメラは、複数の組合せで共有することも考えられる。例えばCx,Cy、Cz3台のカメラで2組の組合せを考える場合、1台のカメラ(カメラCy)を露光タイミングの基準として、CxとCyのカメラの組、CyとCzのカメラの組として取り扱うことも可能である。
測距対象選択部16がカメラ認識処理部13の結果だけでなく、統合認識部14、AD/ADAS制御処理部15からの情報を統合して活用することにより、例えばAD/ADAS制御処理部15が緊急回避必要と判断している際には回避対象に対する測距を優先し、回避操作の精度向上に利用できる。また、カメラ以外の外界センサの情報も統合認識部14が利用する場合には、ある方位の測距用外界センサからの測距情報が不安定になった際や、ある方位を監視する外界センサで取得した測距情報に齟齬が発生した際に、測距精度を担保するために、当該方位の測距を優先するなど、臨機応変な対応が可能となる。
カメラ動作パラメータ決定部18は、カメラ信号処理部12が処理を行う際に得られた情報、及び測距対象選択部16で選択した測距に用いるカメラの組合せや測距対象OBとする各カメラの画像上の位置情報あるいは測距対象領域情報をもとに、各カメラの露光条件やホワイトバランスなどの設定を決定する。測距に用いるカメラの組合せで測距対象OBとする部分の露光条件やホワイトバランスの差が大きく異ならないようにして、当該カメラの組合せで得られる画像の間で空間上の同一点の対応関係の検出が難しくならないようにパラメータを決定する。
カメラ動作タイミング計算部19は、カメラ動作パラメータ決定部18で決定したパラメータ、各カメラに用いている画像センサの情報(同期タイミングを制御するパラメータ、同期信号と各撮像ラインの露光タイミングの関係)、カメラ動作パラメータ決定部18経由で得る測距対象選択部16で選択した測距に用いるカメラの組合せや測距対象OBとする各カメラの画像上の位置情報あるいは領域情報から、各カメラの同期に関わる設定パラメータを計算する。この際、図6を用いて説明したように、最大測距距離を考慮する必要があるが、最大測距距離は利用するカメラの性能に合わせて固定でも良いし、測距対象選択部16及びカメラ動作パラメータ決定部18経由で得られるカメラ認識処理による周辺状況(通常走行か交差点内走行かなど)識別結果を利用しても良いし、CANインタフェース17経由で得られる走行速度や操舵情報、地図上の自車両位置情報などを用いて判断しても良い。
カメラ動作パラメータ決定部18及びカメラ動作タイミング計算部19で計算した設定パラメータは、カメラ信号処理部12に集約され、カメラインタフェース11を経由して各カメラに送出する。
<カメラ信号処理部12の詳細>
ここで、カメラ信号処理部12の内部構成例を図12に示す。図12に示す例では、カメラ信号処理部12は、カメラ信号処理動作制御部12aと、カメラ制御信号生成部12bと、カメラ入力選択部12cと、画素値補正部12dと、色復元部12eと、画像歪補正部12fと、ステレオ視対象画像選択部12gと、視点変換部12hと、ステレオ視領域選択部12iと、画像間輝度バランス調整部12jと、解像度調整処理部12kと、視差分析部12lを有している。以下、各部の詳細を順次説明する。
カメラ信号処理動作制御部12aは、カメラ信号処理部12の全体的な制御を行うものであり、そのために先ず、カメラ動作パラメータ決定部18及びカメラ動作タイミング計算部19から、各カメラの制御に必要な情報を集約する。集約した信号はカメラ制御信号生成部12bに送り、各カメラの制御信号に合うよう形式など変換した上でカメラインタフェース11を経由して各カメラへ送信する。また、各カメラのフレームレートの違いや制御信号で設定した内容が実際の撮像画像に反映されるまでの遅延等を考慮して、各カメラに対応する情報をカメラ制御信号生成部12bに送るタイミングを遅らせる場合もある。各カメラの形式に合わせる機能により、車載制御装置1には異なる形式のカメラを同時に接続可能である。
また、カメラ信号処理動作制御部12aは、さらに各カメラに制御信号の設定を行ってから、当該設定に基づき撮像した画像が各カメラからカメラインタフェース11経由で得られるまでの遅延を考慮して、カメラ信号処理部12内部の様々な処理部に対し処理に必要な情報を提供する役割も有する。
各カメラからの画像や撮像に伴う付加情報は、カメラインタフェース11経由でカメラ入力選択部12cに入る。カメラ入力選択部12cは、カメラ信号処理動作制御部12aからの指示に従い、その時点でカメラ信号処理130の処理対象とするカメラやフレームの選択を行う。例えば車両100の後方を監視するカメラが存在する場合、当該カメラからの画像は通常走行中は数フレームに1回のみをカメラ信号処理部12の処理対象とし、後退、右左折、車線変更を行う場合のみ毎フレームカメラ信号処理部12の処理対象とすることで、通常走行時の演算負荷を抑制したり、進行方向の認識処理に演算負荷を振り分けたりすることができる。測距のために組で用いるカメラについては、測距処理に用いる組となるフレームの画像を必ずセットで選択する。
カメラ入力選択部12cは、選択した各カメラのフレームの画像を画素値補正部12dに送り、画素値補正部12dでは、画像の画素値補正を行う。この画素値補正では、各カメラの感度特性や各カメラに設定した露光条件、画像データ出力における画素値の非線形圧縮設定を考慮して、各カメラから得られた画像毎に各画素に対応する実際の明るさと画素値の関係が線形になるように補正する。また、異なるカメラで得た画像間でも同一の明るさの画素の値が大体同一値となるように補正する。この際、カメラのレンズ特性により、画像の周辺部が実際より暗く(すなわち画素値が小さく)なる現象の補正も行う。各カメラに設定した露光条件、画像データ出力における画素値の圧縮設定を考慮するために必要な情報は、カメラ信号処理動作制御部12aから取得する。
画素値補正部12dで画素値補正を施された画像は色復元部12eに送られ、色情報を復元する。色情報の復元の際、各カメラに設定したホワイトバランスの情報をカメラ信号処理動作制御部12aから取得し、ホワイトバランス設定を考慮する。また、カメラの構成やカメラで用いている画像センサの構成によっては、色情報復元には近傍画素の情報を参照し色復元の演算処理が必要となるが、この演算処理についても色復元部12eで行う。
カメラで用いる画像センサの構成によっては、補色からの復元や一部色のみの復元を行う場合もある。また測距で用いる2台のカメラのカラーフィルタが異なる場合、測距処理用にグレースケール画像も生成する。
色復元部12eで色復元を施した画像は画像歪補正部12fに送られ、画像の歪を補正する。実際のカメラではレンズ特性の影響で画像周辺部に歪みが生じることが多いので、理想ピンホールカメラ撮像で得られるような歪のない画像となるように、画像の部分ごとに局所的な拡縮処理を行い、画像の歪を補正する。また、カメラが魚眼カメラの場合は、撮像範囲の全てを対象に歪のない画像を得ることができない場合があるので、必要に応じて画像を複数の領域に分割して取り扱う。この際、後段の測距処理を考慮して、測距に用いる領域を一つに収めた画像を用意する。
画像歪補正部12fで歪補正を施した画像はカメラ認識処理部13に送られるとともに、ステレオ視対象画像選択部12gにも送られる。画像歪補正部12fからカメラ認識処理部13に送られる画像は、基本的にそれぞれのカメラから得られる画像単位で、各画像の中に存在する様々な物体を検出し、検出対象を認識するために用いる。
ステレオ視対象画像選択部12gに送られた画像は、ステレオ視対象画像選択部12gにて、2台のカメラで得られた画像を組合せ測距に用いるために利用する画像のみを選択し、視点変換部12hに送られる。ステレオ視対象画像選択部12gは画像を選択する際、カメラ信号処理動作制御部12aから得られる測距対象OBの選択に関係する情報を用いる。また、後段の処理を考慮して、測距に用いる画像を組にし、それぞれの画像を取得したカメラの姿勢及び、組にしたカメラとしての姿勢に関する情報も付加する。同時に複数の2台のカメラの組を選択して、各組合せに対して後段で測距処理を行っても良い。
視点変換部12hでは、測距に用いる2台のカメラから得られた画像の組ごとに、当該2台のカメラの画像が、平行ステレオ視で用いる画像相当になるように画像を変形する。すなわち当該2台のカメラを左右それぞれのカメラとみなし、図3で示したように、左カメラで撮像した画像は左カメラ画像センサ面Clに投影された画像と考え仮想左カメラ画像センサ面Vl上での画像に変換し、右カメラで撮像した画像は右カメラ画像センサ面Crに投影された画像と考え仮想右カメラ画像センサ面Vr上での画像に変換する。
視点変換部12hでは、さらに、カメラ信号処理動作制御部12aから得られるステレオ視による測距対象領域や画像上の特徴点の位置情報を、視点変換部12hによる画像変換後の画像における領域や画像上の位置情報に変換する。
視点変換部12hで変換した画像、ステレオ視の処理を適用する測距対象領域の情報や画像上の特徴点の位置情報、及び以降の処理における画像調整に必要な情報はステレオ視領域選択部12iに送られ、測距に用いる2台のカメラから得られた画像の組ごとに、ステレオ視処理を行う画像の領域を切り出す。尚、測距を行う対象が特徴点であっても、2台のカメラで同一の特徴点を対応付ける上で、特徴点周辺の画像の情報も必要であり、また特徴点までの距離に応じて、基準となる側の画像に対して、もう一方の画像上の位置が変化するため、これらを考慮して、特徴点の周辺を含めたある程度の大きさを持つ領域として切り出す。
ステレオ視領域選択部12iで測距対象OBとする画像の領域を切り出すことで、以降の処理で対象とする画像のサイズを限定し、処理負荷を抑制することができる。また、画像間輝度バランス調整部12jの処理を行う際に必要な画像全体の明るさを確認する際、測距に用いない領域の画像の明るさの影響を排除できる効果もある。
ステレオ視領域選択部12iの出力となる測距に用いる2台のカメラから得られた画像の組は、以降の処理における画像調整に必要な情報と共に、画像間輝度バランス調整部12jへ送られる。画像間輝度バランス調整部12jでは2台のカメラから得た画像間で画像全体の明るさが近くなるように画素値の補正を行う。
画像間輝度バランス調整部12jで輝度調整を施した測距に用いる2台のカメラから得られた画像の組は、以降の処理における画像調整に必要な情報と共に、解像度調整処理部12kに送られ、画像間や各画像全体での空間解像度が類似するようにフィルタ処理が行なわれる。画像を取得したカメラの仕様の違いや視点変換部12hの処理の影響により、測距に用いる2台のカメラで取得した画像間や、それぞれのカメラで取得した画像であっても画像内の位置により空間解像度の違いが大きい場合がある。この空間解像度の違いが測距に用いる点の対応付けに支障をきたすことがあるので、画像解像度調整処理部12kにてフィルタ処理を行う。
画像解像度調整処理部12kでフィルタ処理を施した測距に用いる2台のカメラから得られた画像の組は、視差分析部12lに送り、画像の組の間で測距に用いる同一の特徴点を抽出して、当該特徴点の間の画像上の位置関係、及び当該画像の組を取得した2台のカメラの位置関係から三角測量により、当該特徴点までの距離を算出する。尚、特徴点は処理可能な範囲で多数検出しても良い。
特徴点の対応付けを行う際には、片方の画像における特徴点の位置を、もう一方の画像上で探す必要があるが、図5で示したように基準となる画像(図5では左画像Il)上の点が決まれば、もう一方の画像(図5では右画像Ir)上で対応する点の範囲は線分として決まるので、基本的にはその線分の範囲で探索すればよい。但し、当該線分の決定に際しては、視点変換部12hによる画像の変換を考慮する必要がある。また、カメラの製造誤差や車両への取り付け誤差、露光時間の差の影響を考慮して、実際には線分にはある程度幅を持たせて探索を行う必要がある。
視差分析部12lで抽出した特徴点の位置及び特徴点までの距離の情報は、測距に用いた画像を取得した2台のカメラの情報と共にカメラ認識処理部13に送り、カメラ認識処理部13が距離情報も考慮して認識処理を行うために用いる。
画素値補正部12dで画素値補正に際して用いた画像の画素値分布傾向や色変換部137でホワイトバランス調整に用いた画像の色分布傾向の情報は、カメラ動作パラメータ決定部18及び統合認識部14に送られる。これらの情報を用いて、カメラ動作パラメータ決定部18は、以降の各カメラの露光に関する設定パラメータの調整に利用でき、統合認識部14は、各カメラから得た画像に対する認識の難しさを判断して、どのカメラ(カメラ以外の外界センサが接続されているばあいには、どの外界センサ)からの情報をもとにした認識結果を優先的に利用するか決定できる。
尚、本実施例は左カメラを基準にして説明したが、右カメラを基準としても同様に考えることができる。また、左右のカメラで画像センサが異なり、フレームレートや解像度が異なる場合でも適用できる。フレームレートが異なる場合は、当該フレームレートを考慮して測距対象OBとなる点の露光タイミングが合うように調整すれば良く、解像度が異なる場合でも解像度調整処理部12kの機能により視差分析部12lで視差を求め距離を算出することが可能である。
以上で説明したように、本実施例の車載制御装置によれば、車両の様々な位置に様々な姿勢で取り付けられる複数のカメラから、ある同一の測距対象を撮像可能な、少なくとも一台のローリングシャッタ方式カメラを含む一対のカメラを選択し、この一対のカメラで撮像した一対の画像に基づいて、車両周辺の3次元情報を取得する場合に、測距対象に応じてローリングシャッタ方式カメラの露光タイミングを制御することで、ステレオ視による三角測量の要領で対象までの距離を算出する際の測距誤差を抑制することができる。
次に、図13Aから図13Cを用いて、本発明の実施例2に係る車載制御装置1を説明する。なお、以下では、実施例1との共通点は重複説明を省略する。
実施例1では、左右カメラの双方でローリングシャッタ方式の画像センサを用いたが、本実施例では、左右カメラの一方でグローバルシャッタ方式の画像センサを用い、他方でローリングシャッタ方式の画像センサを用いる。この場合は、実施例1の図7Aから図7Cに示した撮像タイミング制御に代え、図13Aから図13Cに示す撮像タイミング制御を使用する。すなわち、グローバルシャッタ方式のカメラの撮像タイミングを、ローリングシャッタ方式のカメラが撮像した画像上で注目する領域に応じて切り替える制御を採用する。
図13Aから図13Cは、左カメラがグローバルシャッタ方式のカメラであり、右カメラがローリングシャッタ方式のカメラである場合の、各カメラの撮像タイミングの一例を説明する図である。なお、グローバルシャッタ方式の左カメラによる左画像Ilは瞬間的に露光された画像であるため、説明上、画像全体の露光タイミングとして、画像の垂直方向の中央を露光タイミングとして示している。一方、ローリングシャッタ方式の右カメラによる右画像Irは上方の撮像ラインから順次露光された画像であるので、画像の各撮像ラインの位置(垂直方向の位置)が露光タイミングを示している。
本実施例では、左右カメラで同一特徴点を撮像するタイミングのずれをなるべく小さくすることで、測距精度の低下を抑制するために、右画像Irの領域を上下方向に3つに分割し、どの領域を測距対象にするかに応じて、左右画像の撮像タイミングの組合せを切り替えることとする。
具体的には、図13Aのように、右画像Irの上部の領域Rに投影される特徴点を測距対象とする場合には、両カメラの露光タイミングを組合せAとし、右カメラが領域Rの中央のΔHラインの露光に要する期間相当、左カメラより右カメラの露光開始を早める。
また、図13Bのように、右画像Irの中央の領域Rに投影される特徴点を測距対象とする場合には、両カメラの露光タイミングを組合せAとし、右カメラが領域Rの中央のΔHラインの露光に要する期間相当、左カメラより右カメラの露光開始を早める。
さらに、図13Cのように、右画像Irの下部の領域Rに投影される特徴点を測距対象とする場合には、両カメラの露光タイミングを組合せAとし、右カメラが領域Rの中央のΔHラインの露光に要する期間相当、左カメラより右カメラの露光開始を早める。
このように左画像Ilと右画像Irの露光開始タイミングの組合せを画像の領域により変更することで、右画像Irの当該領域の露光タイミングを左画像Ilの露光タイミングに近づけることができる。
すなわち、図13に示すように領域を3つに分割し、領域に合わせて露光タイミングを調整することで、それぞれの領域に対して測距で組として用いるカメラの露光タイミングの差を領域に分けない場合より抑制することができ、露光タイミングの差による測距誤差を抑制することができる。
尚、本明細書で示した方法は測距対象OBとする点の位置や領域に対し、測距で組として用いるカメラの露光タイミングの差を抑制できれば良いので、左カメラにローリングシャッタ方式の画像センサ、右カメラにグローバルシャッタ方式の画像センサを用いた場合でも適用可能である。また、領域をより細かく分割して、露光タイミングの差を小さくしても良い。
100…車両、1…車載制御装置、11…カメラインタフェース、12…カメラ信号処理部、12a…カメラ信号処理動作制御部、12b…カメラ制御信号生成部、12c…カメラ入力選択部、12d…画素値補正部、12e…色復元部、12f…画像歪補正部、12g…ステレオ視対象画像選択部、12h…視点変換部、12i…ステレオ視領域選択部、12j…画像間輝度バランス調整部、12k…解像度調整処理部、12l…視差分析部、13…カメラ認識処理部、14…統合認識部、15…AD/ADAS制御処理部、16…測距対象選択部、17…CANインタフェース、18…カメラ動作パラメータ決定部、19…カメラ動作タイミング計算部、C…カメラ、Cl…左カメラ画像センサ面、ClOA…左カメラ光軸、fl…左カメラ焦点距離、Vl…仮想左カメラ画像センサ面、VlOA…仮想左カメラ光軸、sl…仮想左カメラ焦点距離、Cr…右カメラ画像センサ面、CrOA…右カメラ光軸、fr…右カメラ焦点距離、Vr…仮想右カメラ画像センサ面、VrOA…仮想右カメラ光軸、sr…仮想右カメラ焦点距離、OB…測距対象、I…画像、Il…左画像、Ir…右画像

Claims (12)

  1. ローリングシャッタ方式の画像センサを備えた第一カメラを含む複数のカメラと通信する車載制御装置であって、
    前記第一カメラと、前記第一カメラの撮像領域の少なくとも一部において同一の測距対象を撮像可能な第二カメラと、で撮像した複数の画像を用いて、前記測距対象の測距を行う測距部と、
    前記複数の画像のうち少なくとも一つの画像上の測距位置に基づいて、前記第一カメラ又は前記第二カメラの少なくとも一方の露光タイミングを調整する露光タイミング調整部と、を有し、
    前記画像上の測距位置として、測距精度を優先する部分を選択する測距対象選択部と、
    を有すること、を特徴とする車載制御装置。
  2. 請求項1に記載の車載制御装置であって、
    前記露光タイミング調整部は、
    前記第一カメラで取得した画像上の前記測距対象の第一座標と、前記第一カメラ及び前記第二カメラの配置の情報と、に基づいて、前記第二カメラで取得した画像上の前記測距対象の第二座標を求め、
    前記第一座標及び前記第二座標に基づいて、前記露光タイミングを調整すること、を特徴とする車載制御装置。
  3. ローリングシャッタ方式の画像センサを備えた第一カメラを含む複数のカメラと通信する車載制御装置であって、
    前記第一カメラと、前記第一カメラの撮像領域の少なくとも一部において同一の測距対象を撮像可能な第二カメラと、で撮像した複数の画像を用いて、前記測距対象の測距を行う測距部と、
    前記複数の画像のうち少なくとも一つの画像上の測距位置に基づいて、前記第一カメラ又は前記第二カメラの少なくとも一方の露光タイミングを調整する露光タイミング調整部と、を有し、
    前記露光タイミング調整部は、前記第一カメラ又は前記第二カメラで取得する画像上に複数の分割領域を設定し、前記測距対象が含まれる前記分割領域の位置に基づいて、前記露光タイミングを調整すること、を特徴とする車載制御装置。
  4. ローリングシャッタ方式の画像センサを備えた第一カメラを含む複数のカメラと通信する車載制御装置であって、
    前記第一カメラと、前記第一カメラの撮像領域の少なくとも一部において同一の測距対象を撮像可能な第二カメラと、で撮像した複数の画像を用いて、前記測距対象の測距を行う測距部と、
    前記複数の画像のうち少なくとも一つの画像上の測距位置に基づいて、前記第一カメラ又は前記第二カメラの少なくとも一方の露光タイミングを調整する露光タイミング調整部と、を有し、
    前記露光タイミング調整部は、前記第一カメラ又は前記第二カメラで取得する画像上に複数の分割領域を設定し、前記分割領域を順次選択して、前記露光タイミングを調整すること、を特徴とする車載制御装置。
  5. 請求項4に記載の車載制御装置であって、
    前記分割領域を順次選択する際の順序を、前記車載制御装置の搭載された車両の走行状態により切り替えること、を特徴とする車載制御装置。
  6. 請求項4に記載の車載制御装置であって、
    前記分割領域を順次選択する際の順序を、前記車載制御装置の搭載された車両のドライバの運転操作状況により切り替えること、を特徴とする車載制御装置。
  7. 請求項1に記載の車載制御装置であって、
    緊急回避必要と判断している際には回避対象を優先して測距するよう前記露光タイミングを調整すること、を特徴とする車載制御装置。
  8. 請求項3に記載の車載制御装置であって、
    カメラ以外の測距用外界センサからの測距情報が不安定になった際には、前記測距用外界センサで測距していた領域を優先して測距するよう前記露光タイミングを調整すること、を特徴とする車載制御装置。
  9. 請求項1に記載の車載制御装置であって、
    対象物までの距離を推定する機能を有し、前記距離を推定する機能の補正に用いる対象の測距のために前記露光タイミングを調整すること、を特徴とする車載制御装置。
  10. 請求項1に記載の車載制御装置であって、
    前記第一カメラと前記第二カメラの光軸は非平行であること、を特徴とする車載制御装置。
  11. 請求項1に記載の車載制御装置であって、
    前記第二カメラはグローバルシャッタ方式の画像センサを備えたカメラであること、を特徴とする車載制御装置。
  12. ローリングシャッタ方式の画像センサを備えた第一カメラを含む複数のカメラの撮像画像に基づいて3次元情報を取得する3次元情報取得方法であって、
    前記第一カメラと、前記第一カメラの撮像領域の少なくとも一部において同一の測距対象を撮像可能な第二カメラと、で撮像した複数の画像を用いて、前記測距対象の測距を行うステップと、
    前記複数の画像のうち少なくとも一つの画像上の測距位置に基づいて、前記第一カメラ又は前記第二カメラの少なくとも一方の露光タイミングを調整するステップと、
    前記画像上の測距位置として、測距精度を優先する部分を選択するステップと、
    を有すること、を特徴とする3次元情報取得方法。
JP2023554272A 2021-10-21 2022-07-29 車載制御装置、および、3次元情報取得方法 Active JP7685065B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021172264 2021-10-21
JP2021172264 2021-10-21
PCT/JP2022/029252 WO2023067867A1 (ja) 2021-10-21 2022-07-29 車載制御装置、および、3次元情報取得方法

Publications (2)

Publication Number Publication Date
JPWO2023067867A1 JPWO2023067867A1 (ja) 2023-04-27
JP7685065B2 true JP7685065B2 (ja) 2025-05-28

Family

ID=86059023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023554272A Active JP7685065B2 (ja) 2021-10-21 2022-07-29 車載制御装置、および、3次元情報取得方法

Country Status (4)

Country Link
US (1) US20250126372A1 (ja)
JP (1) JP7685065B2 (ja)
DE (1) DE112022003998T5 (ja)
WO (1) WO2023067867A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3154524B1 (fr) * 2023-10-18 2025-10-17 Continental Autonomous Mobility Germany GmbH Procédé de correction d’images acquises via un obturateur déroulant, ou rolling shutter
US20250308245A1 (en) * 2024-03-27 2025-10-02 Hitachi, Ltd. Image synchronization for asynchronous systems and methods

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198075A (ja) 2011-03-18 2012-10-18 Ricoh Co Ltd ステレオカメラ装置、画像補整方法
JP2016514246A (ja) 2013-01-15 2016-05-19 モービルアイ ビジョン テクノロジーズ リミテッド ローリングシャッターを伴うステレオ支援
JP2019128153A (ja) 2018-01-19 2019-08-01 本田技研工業株式会社 距離算出装置及び車両制御装置
JP2020194400A (ja) 2019-05-29 2020-12-03 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5411842B2 (ja) * 2010-12-07 2014-02-12 シャープ株式会社 撮像装置
JP5499011B2 (ja) * 2011-11-17 2014-05-21 富士重工業株式会社 車外環境認識装置および車外環境認識方法
US20170041591A1 (en) * 2013-12-25 2017-02-09 Hitachi Automotive Systems ,Ltd. Vehicle-Mounted Image Recognition Device
WO2015142412A2 (en) * 2014-03-20 2015-09-24 Gopro, Inc. Auto-alignment of image sensors in a multi-camera system
US11451688B2 (en) * 2018-09-26 2022-09-20 Zoox, Inc. Image scan line timestamping
JP2022036339A (ja) 2018-10-12 2022-03-08 ソニーセミコンダクタソリューションズ株式会社 センサフュージョンシステム、同期制御装置、及び同期制御方法
KR102788816B1 (ko) * 2018-11-08 2025-03-31 삼성전자주식회사 전자 장치 및 그 제어 방법
JP6959277B2 (ja) * 2019-02-27 2021-11-02 ファナック株式会社 3次元撮影装置および3次元撮影条件調整方法
CN112543261A (zh) * 2020-12-08 2021-03-23 浙江大华技术股份有限公司 一种图像质量提升方法、装置以及计算机可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012198075A (ja) 2011-03-18 2012-10-18 Ricoh Co Ltd ステレオカメラ装置、画像補整方法
JP2016514246A (ja) 2013-01-15 2016-05-19 モービルアイ ビジョン テクノロジーズ リミテッド ローリングシャッターを伴うステレオ支援
JP2019128153A (ja) 2018-01-19 2019-08-01 本田技研工業株式会社 距離算出装置及び車両制御装置
JP2020194400A (ja) 2019-05-29 2020-12-03 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
WO2023067867A1 (ja) 2023-04-27
JPWO2023067867A1 (ja) 2023-04-27
DE112022003998T5 (de) 2024-06-27
US20250126372A1 (en) 2025-04-17

Similar Documents

Publication Publication Date Title
EP3367677B1 (en) Calibration apparatus, calibration method, and calibration program
US7697029B2 (en) Image display apparatus and method
CN102194226B (zh) 摄像机校准装置
JP4109077B2 (ja) ステレオカメラの調整装置およびステレオカメラの調整方法
CN107122770B (zh) 多目相机系统、智能驾驶系统、汽车、方法和存储介质
JP6602982B2 (ja) 車載カメラ、車載カメラの調整方法、車載カメラシステム
JP2018179911A (ja) 測距装置及び距離情報取得方法
CN113196007A (zh) 一种应用于车辆的相机系统
KR20150101749A (ko) 객체의 3차원 형상을 산출하는 장치 및 방법
JP2011215063A (ja) カメラ姿勢パラメータ推定装置
JP7685065B2 (ja) 車載制御装置、および、3次元情報取得方法
JP6880822B2 (ja) 装置、移動体装置及び方法
JP7278846B2 (ja) 物体位置検出装置、走行制御システム、および走行制御方法
TW201443827A (zh) 鏡頭影像校正系統及鏡頭影像校正方法
CN114521180B (zh) 物体检测装置、行驶控制系统以及行驶控制方法
JP6669182B2 (ja) 乗員監視装置
JPWO2015129280A1 (ja) 画像処理装置および画像処理方法
JP2006031101A (ja) 画像生成方法およびその装置
CN111260538B (zh) 基于长基线双目鱼眼相机的定位及车载终端
JP7232005B2 (ja) 車両の走行環境検出装置及び走行制御システム
CN113450420A (zh) 车辆挡风玻璃和摄像头镜头联合标定的方法、系统和车辆
JPH09126759A (ja) 車載カメラによる測距方法およびそれを用いる測距装置
JP7652739B2 (ja) 画像処理装置及び画像処理方法
CN112347973A (zh) 一种基于双目高速相机的前车状态估算方法及系统
KR20240130623A (ko) 거리 계측 디바이스, 이동가능 장치, 및 제어 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250516

R150 Certificate of patent or registration of utility model

Ref document number: 7685065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150