JP7594691B2 - 自動運転および/または支援運転のための駆動装置、車両、および方法 - Google Patents
自動運転および/または支援運転のための駆動装置、車両、および方法 Download PDFInfo
- Publication number
- JP7594691B2 JP7594691B2 JP2023576216A JP2023576216A JP7594691B2 JP 7594691 B2 JP7594691 B2 JP 7594691B2 JP 2023576216 A JP2023576216 A JP 2023576216A JP 2023576216 A JP2023576216 A JP 2023576216A JP 7594691 B2 JP7594691 B2 JP 7594691B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- estimated
- image data
- vehicle
- related data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1652—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Description
本発明は、車両の自動運転および/または支援運転のための駆動装置に関し、駆動装置は、慣性計測ユニットによって測定された慣性関連データを受信するように構成された第1入力ポートと、ホイールオドメトリユニットによって測定された位置関連データを受信するように構成された第2入力ポートと、第1画像データおよび第2画像データを受信するように構成された第3入力ポートとを備える。
本発明はさらに、慣性関連データを出力するように構成された慣性計測ユニットと、位置関連データを出力するように構成されたホイールオドメトリユニットと、第1画像データおよび第1画像データの前の画像データである第2画像データを出力するように構成された電磁センサユニットとを備える車両に関する。
本発明はまた、自動モードおよび/または運転支援モードで車両を運転するためのコンピュータ実装された方法に関し、方法は、慣性関連データを慣性計測ユニットによって出力するステップと、位置関連データをホイールオドメトリユニットによって出力するステップと、第1画像データおよび第2画像データを電磁センサユニットによって出力するステップとを備える。
自律モード(例えば、無人運転)または半自律モード(運転支援を使用)で動作する車両は、運転者をいくつかの運転関連タスクから解放する。自律モードで動作する場合、車両は様々な場所にナビゲートすることができ、最小限の人的相互作用で、または場合によっては乗員なしで、車両が走行することを可能にする。同様に、支援運転モードでは、運転者のいくつかのタスクが(高度な)運転者支援システムによって実行される。
車両位置特定は、地球上の車両の位置(および方位)である。正確な車両位置特定は、自律車両のための重要な構成要素である。従来の車両位置特定システムは、主にGPS(全地球測位システム)に依存しており、車両は、複数のGPS衛星に対する明確な見通し線を有する。しかしながら、GPSは、トンネルや超高層ビルを伴う都市といった状況においては、衛星と車両との間の見通し線が限られているか全くないため、機能しない傾向がある。
米国特許出願公開第2020/103664号明細書は、姿勢情報を出力するための方法および装置に関連している。米国特許出願公開第2020/081134号明細書は、全地球航法衛星システムの位置データの他のセンサデータとの検証を記載している。米国特許出願公開第2019/368879号明細書は、地上車両の位置特定のための視覚支援慣性航法システムに関連している。
本発明の目的は、姿勢(例えば、位置および方位)のより正確かつより頑健性のある推定を提供するための駆動装置、車両、およびコンピュータ実装された方法を提供することである。
この目的は、独立請求項の主題によって解決される。従属請求項は、本発明の好ましい実施形態を記載する。
車両の自動運転および/または支援運転のための駆動装置は、第1入力ポートと、第2入力ポートと、第3入力ポートと、ビジュアルオドメトリ部とを備える。第1入力ポートは、慣性計測ユニットによって測定された慣性関連データを受信するように構成されている。第2入力ポートは、ホイールオドメトリユニットによって測定された位置関連データを受信するように構成されている。第3入力ポートは、電磁センサユニットによる第1画像データおよび第2画像データを受信するように構成され、前記第2画像データは前記第1画像データの前の画像データである。ビジュアルオドメトリ部は、前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信するように構成され、かつ前記第1画像データから抽出された第1特徴点と前記第2画像データから抽出された第2特徴点とを関連付け、前記慣性計測ユニットからの前記慣性関連データおよびホイールオドメトリからの前記位置関連データに基づいて、前記第1特徴点と前記第2特徴点との前記関連付けを評価することによって計算された前記車両の推定姿勢を出力するように構成されている。
任意選択で、駆動装置は、前記推定姿勢に基づいて、自動運転および/または支援運転のための駆動信号を生成するように構成された制御部を含んでもよい。
車両は、慣性関連データを出力するように構成された慣性計測ユニットと、位置関連データを出力するように構成されたホイールオドメトリユニットと、第1画像データおよび前記第1画像データの前の画像データである第2画像データを出力するように構成された電磁センサユニットと、ビジュアルオドメトリ部とを備える。ビジュアルオドメトリ部は、前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信するように構成され、かつ前記第1画像データから抽出された第1特徴点と前記第2画像データから抽出された第2特徴点とを関連付け、前記慣性計測ユニットからの前記慣性関連データおよびホイールオドメトリからの前記位置関連データに基づいて、前記第1特徴点と前記第2特徴点との前記関連付けを評価することによって計算された前記車両の推定姿勢を出力するように構成されている。
任意選択で、車両は、前記推定姿勢に基づいて、自動運転モードおよび/または支援運転モードで前記車両を運転するように構成された制御部を含んでもよい。
本発明は、より正確で、より頑健性があり、および/またはより信頼性の高い車両姿勢を得るために、車両姿勢を推定する複数のセンサを組み合わせるという概念に基づいている。本発明は、慣性計測ユニットおよびホイールオドメトリユニットから受信した車両の推定姿勢に関する情報を使用して、ビジュアルオドメトリに基づく車両の姿勢の判定をより正確および/またはより頑健にする。したがって、車両の姿勢は、より広範な情報に基づいて判定される。加えて、慣性関連データおよび/または位置関連データに基づく姿勢の算出は、画像データを使用して判定される推定姿勢よりも正確であり得る。したがって、慣性関連データおよび/または位置関連データのより高い精度を使用して、画像データを使用して判定される推定姿勢の精度を高めることができる。
車両および/または車両の駆動装置は、ロボカーと呼ばれることもある自律または自動運転車両であってもよい。代替的にまたは追加的に、車両および/または駆動装置は、半自律車両であってもよい。したがって、駆動装置は、高度運転者支援システムの制御装置とみなされてもよい。自動車標準化団体であるSAEインターナショナルによってJ3016_202104「自動車用運転自動化システムのレベル分類及び定義(Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles)」として2021年に発行された6つのレベルを有する分類システムに従って、自律車両は、レベル4またはレベル5とみなされてもよく、半自律または支援運転車両は、レベル1からレベル3とみなされてもよい。
ビジュアルオドメトリ部および/または制御部は、以下に概説するタスクを行うコンピュータまたはプロセッサの一部であってもよい。コンピュータは、以下に概説するタスクを実行するために必要なハードウェア(例えば、プロセッサ、メモリ、ストレージ)およびソフトウェア(例えば、オペレーティングシステム、プログラム)を含むことができる。ビジュアルオドメトリ部によって実行されるタスクは、記憶装置上にアルゴリズムおよび/または他の形態のコンピュータコードとして記憶されてもよい。
記憶装置は、所与の容量のメモリを提供するために複数のメモリ装置を介して実装できる1つ以上のメモリを含んでもよい。記憶装置は、ランダムアクセスメモリ(RAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、スタティックRAM(SRAM)、または他のタイプの記憶装置など、1つ以上の揮発性記憶(またはメモリ)装置を含んでもよい。記憶装置はまた、ソリッドステート装置(SSD)を含んでもよい。しかしながら、他の実施形態では、記憶装置は、システムアクティビティの再開時に高速の電源投入が起こり得るように、電源切断事象中にコンテキスト状態および他のそのような情報の不揮発性記憶を可能にするSSDキャッシュとして機能する、より小さい容量のSSDストレージを備えた、または備えていないハードディスクドライブ(HDD)を含んでもよい。
記憶装置に記憶されたアルゴリズムは、周期的にまたは断続的に更新することができる。この目的のために、記憶装置は、ネットワークとの、ひいてはサーバ、車両または駆動装置の外部にある他のタイプの記憶装置との、および/または他の車両との有線または無線通信を可能にする通信部に、電子的におよび/通信可能に接続または結合されていてもよい。
通信部は、無線トランシーバおよび/またはネットワークインターフェースカード(NIC)を含むことができるネットワークインターフェース装置とみなされてもよい。無線トランシーバは、WiFiトランシーバ、赤外線トランシーバ、Bluetoothトランシーバ、WiMaxトランシーバ、無線携帯電話トランシーバ、もしくは他の無線周波数(RF)トランシーバ、またはそれらの組み合わせであってもよい。
慣性計測ユニットは、加速度、回転、ヨー、および/または速度変化など、慣性計測ユニットが受ける力を測定するための装置である。慣性計測ユニットは、車両および/または駆動装置に固定して取り付けられてもよい。その場合、慣性計測ユニットは、車両および/または駆動装置の加速度および/または速度変化を測定するように構成される。
慣性計測ユニットは、加速度計、ジャイロスコープ(ジャイロメータ)、および/または磁力計などの1つ以上のセンサを含んでもよい。センサによって生成された測定値は、加速度および/または速度変化を判定するために、慣性計測ユニットのプロセッサによって、および/またはビジュアルオドメトリ部によって処理されてもよい。言い換えれば、慣性計測ユニットは、その測定値を使用して慣性計測ユニットの加速度、回転、ヨー、および/または速度変化を判定することができるセンサを含んでもよい。ジャイロスコープは、微小電気機械システム(MEMS)のジャイロスコープを含んでもよい。
慣性計測ユニットにより判定された加速度、回転、ヨー、および/または速度変化は、慣性関連データとして出力される。慣性計測ユニットは、慣性関連データを受信するための駆動装置のインターフェースであり得る第1入力ポートに、通信可能におよび/または電子的に接続/結合されてもよい。
ホイールオドメトリユニットは、車両が走行した距離、車両の速度、および/または車両の車輪の傾きなど、車両の姿勢を示すパラメータを測定するための装置である。ホイールオドメトリユニットは、車両の車輪の回転を判定するためのセンサ、車両の車輪の傾きを判定するためのセンサ、および/または車両のハンドルの位置を判定するためのセンサなど、1つ以上のセンサを含んでもよい。ホイールオドメトリユニットのセンサによって収集されたこれらのパラメータの測定値は、車両が走行した距離および/または方位を決定するために、ホイールオドメトリユニットのプロセッサによって、および/またはビジュアルオドメトリ部によって処理することができる。
車両が走行した距離および/または方位は、位置関連データとしてホイールオドメトリユニットにより出力される。ホイールオドメトリユニットは、慣性関連データを受信するための駆動装置のインターフェースであり得る第2入力ポートに通信可能におよび/または電子的に接続/結合されていてもよい。
電磁センサユニットは、車両の周囲を2次元または3次元で判定することができるセンサを含んでもよい。電磁センサユニットは、車両の周囲を感知および/または探査するために、光学(可視)波長範囲および/または無線周波波長範囲(RF)などの様々な波長範囲の電磁放射を使用してもよい。電磁センサユニットは、単一の波長範囲または複数の波長範囲の電磁放射を検出および/または放出するように構成されてもよい。電磁センサユニットは、電磁放射を検出および/または放出するためのセンサユニットであってもよい。電磁センサユニットは、電磁放射センサユニットとみなされてもよい。
例えば、電磁センサユニットは、モノカメラおよび/またはステレオカメラ、すなわち、車両の周囲のステレオ画像を得るために互いに間隔を空けた2つのカメラを含んでもよい。カメラは、スチルカメラおよび/またはビデオカメラであってもよい。カメラは、例えば、回転および/または傾斜プラットフォームにカメラを取り付けることによって、機械的に移動可能であってもよい。
しかしながら、電磁放射を使用する他の撮像または走査技術が使用されてもよく、ひいては電磁センサユニットの一部を形成してもよい。光学検知装置は、代替的にまたは追加的に、レーダ装置および/または光検出・測距(LiDAR)装置を含んでもよい。LiDAR装置は、レーザを使用して車両の周囲の物体を感知し得る。LiDAR装置は、他のシステム構成要素の中でも特に、1つ以上のレーザ源、レーザスキャナ、および1つ以上の検出器を含むことができる。レーダ装置は、車両のローカル環境内の物体を感知するために無線信号を利用するシステムとすることができる。いくつかの実施形態では、レーダユニットは、物体を感知することに加えて、道路上の他の車両などの他の物体の速度および/または進行方向をさらに感知し得る。
電磁センサユニットは、電磁センサユニットを使用して車両の周囲の変化を検出できるように、車両の周囲を連続的にまたは周期的に感知/探査するように構成されている。例えば、電磁センサユニットは、車両の周囲の第2画像と、後の時点で、車両の周囲の第1画像とを撮像するように構成されている。第1画像および第2画像は、第1画像と第2画像との間の差が車両の動きに起因するように、車両に対して同じ方位および位置を有し得る。好ましくは、第1画像および第2画像の連続ストリームが生成される。第1画像と第2画像との間の時間差は、ミリ秒範囲内であってよい。
第1画像および第2画像は、それぞれ第1画像データおよび第2画像データとして電磁センサユニットによって出力される。第1および/または第2画像データは、ステレオカメラの左右のカメラからの画像データを含んでもよい。より一般的には、第1および/または第2画像データは、電磁センサユニットの単一または複数のセンサによって特定の時点で記録される全てのデータを含む。第1画像データは、第2画像データと比較して後に記録される画像データを指す。第1画像データは現在の画像データとみなすことができ、第2画像データは前の画像データとみなすことができる。
第3入力ポートは、第1画像データおよび第2画像データを受信するための駆動装置のインターフェースであってもよい。第1画像データおよび第2画像データは、それぞれ第1画像および第2画像を生成することができるデータである。例えば、第1画像データおよび第2画像データは、第1画像および第2画像をそれぞれ第1画像データおよび第2画像データから再生することができるように、第1画像および第2画像の画素に関連付けることができるデータポイントの集積である。
ビジュアルオドメトリ部は、第1入力ポート、第2入力ポート、および第3入力ポートを介して、慣性関連データ、位置関連データ、第1画像データ、および第2画像データを受信するように構成されている。ビジュアルオドメトリ部は、第1画像データおよび第2画像データを分析することによって、車両の推定姿勢を算出または計算するように構成されている。概して、第1画像(第1画像データによって表される)と第2画像(第2画像データによって表される)との間の差は、車両の姿勢を推定することができる車両の動きを示す。
ビジュアルオドメトリ部は、第1画像データおよび第2画像データから、または、言い換えれば、第1画像および第2画像から、同一の特徴点を抽出するように構成することができる。特徴点(キーポイントとも呼ばれることがある)は、エッジ、コーナー、および/または交線などの画像内の特有の特徴および/または関心特徴に関連する。第1画像(またはステレオ画像の第1のペア画像)と第2画像(またはステレオ画像の第2のペア画像)との間の画像平面上の特徴点の並進は、車両の動きを示す。したがって、第1画像および第2画像からの画像平面上の特徴点の並進(方向および大きさ)を使用して、実世界における車両の動きの方向および/または速度を算出することができる。
好ましくは、複数の特徴点が抽出され、車両の姿勢を算出するために使用される。姿勢は、車両の回転(ヨー)および並進(方向および/または距離)を含むことができ、これらは両方ともベクトルによって表すことができる。理論的には、複数の特徴点は全て、車両の同じ姿勢の判定をもたらすべきである。しかしながら、計測の不正確さおよび/またはアーチファクトにより、第1および第2特徴点のそれぞれのペアは、(わずかに)異なった姿勢をもたらし得る。加えて、ビジュアルオドメトリ部は、同じ実世界特徴を参照しない第1特徴点と第2特徴点とを関連付けてもよい。言い換えれば、特徴点の関連付けは、誤差を含むことができる。
ビジュアルオドメトリ部は、明らかに誤った特徴点または特徴点の関連付け(例えば、それらが所定の閾値だけ平均値から逸脱する場合)を除去するために複数の推定姿勢の平均値を使用するように、および/または多数の計測点に基づいて実際の値を決定するための他の数学的または統計的手段を使用するように構成されてもよい。任意選択で、ビジュアルオドメトリ部は、ランダムサンプルコンセンサス(RANSAC)を使用するように構成されてもよい。RANSACは、関連付けられた特徴点またはキーポイントを使用して、以下のように姿勢を推定する。最初に、一定数の関連付けられたキーポイントをランダムに選択し、次に、相対姿勢を推定する。次に、この推定された姿勢を使用し、この推定された相対姿勢と一致する(インライア)キーポイント関連付けの数を判定する。この処理は、相対姿勢が最大数のインライアを有するある停止基準まで繰り返される。要約すると、RANSACは、キーポイント関連付けの最大サブセットに基づいて、最も可能性の高い相対姿勢を決定するためのコンセンサスベースのアプローチである(最大サブセットを見つけることができると仮定し、最大サブセットが実際に正確な相対姿勢に対応する場合)。
ビジュアルオドメトリ部は、第2画像データから第2特徴点(リアルワード特徴の画像)を抽出するように、かつ第1画像データ内の同一の特徴点(全く同じリアルワード特徴の画像)を探索するように構成することができ、この特徴点は第1特徴点に対応する。そして、ビジュアルオドメトリ部は、第2画像データおよび第1画像データにおいて識別された2つの特徴点の間の距離および/または方位を判定するように構成することができる。続いて、ビジュアルオドメトリ部は、画像データ内の距離および/または方位と車両の動きとの間の事前に記憶された関係に基づいて、車両の動きを判定するように構成することができる。言い換えれば、第2画像データおよび第1画像データにおいて識別された2つの特徴点の間の画像平面上の距離および/または方位は、電磁センサユニット(または車両)が移動したことを推測する(対応する実世界の物体が固定されていると仮定する)。相対姿勢(すなわち、電磁センサユニットまたは車両の動き)を計算するために、幾何学的アプローチ(例えば、Perspective-n-Point(Pnp)アルゴリズム)および最適化アプローチ(再投影誤差を最小化する)を用いることができる。これらの両方の場合において、画像データにおける対応する2D特徴の3Dリアルワード位置を処理することができ、ここで、第1/第2の3D点が投影され、第2/第1特徴点と比較される。
ビジュアルオドメトリ部は、(位置特定ユニットによって判定された)車両の最新の既知の位置に基づいて車両の姿勢を判定するように、かつ/または推定姿勢と位置特定ユニットから受信した姿勢推定ベースのデータとを比較するように構成することができる。
位置特定ユニットは、車両の現在位置を判定するための衛星トランシーバ(例えば、全地球測位システム(GPS)トランシーバ)であってもよい。車両の現在位置は、位置特定装置によって車両の位置特定データとして処理および/または出力される。したがって、位置特定データに基づいて車両の現在位置を判定することができる。位置特定ユニットは、例えば駆動装置の第4入力ポートを介して、ビジュアルオドメトリ部に通信可能におよび/または電子的に接続/結合されてもよい。
ビジュアルオドメトリ部は、自律車両のためのディープラーニングソリューション(例えば、畳み込みニューラルネットワーク(CNN)などのディープニューラルネットワーク(DNN)を使用する)を含んでもよい。ニューラルネットワークまたは人工知能(AI)は、特徴点、車両の動き、および/または車両の推定姿勢を判定するために使用される。代替的にまたは追加的に、ビジュアルオドメトリ部は、アルゴリズムを使用してこれらのパラメータを計算/算出するように構成されてもよい。
ビジュアルオドメトリ部は、推定姿勢を算出/計算するときに、慣性関連データおよび位置関連データを使用する。例えば、慣性関連データおよび/または位置関連データを使用して車両の推定姿勢および/または推定された動きを検証/確認してもよい。したがって、推定姿勢の精度および/または信頼性を高めることができる。
制御部は、車両を自律的または半自律的に運転するための公知の制御部によって実装することができるので、本発明に必須ではない。本発明は、制御部が動作するために基づく推定姿勢を提供することにあるとみなすことができる。
制御部は、推定姿勢を受信するために、ビジュアルオドメトリ部に電子的におよび/または通信可能に接続または結合される。制御部は、上述のコンピュータの一部または機能ユニットであってもよい。制御部は、走行可能な道路上で車両を運転するためのステアリング装置、スロットル装置(加速装置ともいう)、およびブレーキ装置を制御するための信号を生成するように構成される。ステアリング装置、スロットル装置、およびブレーキ装置は、車両をナビゲートするための制御装置の一部であってもよい。
ステアリング装置は、車両の向きまたは進行方向を調整するための車両の一部とすることができる。スロットル装置もまた、モータまたはエンジンの速度を制御し、ひいては車両の速度および加速度を制御するための車両の一部であってよい。ブレーキ装置は、車両の車輪またはタイヤの速度を緩めるための摩擦を提供することによって車両を減速させるための車両の一部とすることができる。ステアリング装置、スロットル装置、および/または破断装置は、制御部によって出力される信号に基づいて制御されてもよい。
制御部は、推定姿勢の情報に基づいて車両をナビゲートするためのアルゴリズムを実行してもよいし、かつ/またはそのようなニューラルネットワーク(AI)を含んでもよい。
駆動装置は車両の一部であってもよく、それぞれ第1入力ポート、第2入力ポート、および第3入力ポートによって、慣性計測ユニット、ホイールオドメトリユニット、および電磁センサユニットに電子的におよび/または通信可能に接続される、または結合される。言い換えると、慣性計測ユニットは、第1入力ポートを介して駆動装置に入力される慣性関連データを出力し、ホイールオドメトリ部は、第2入力ポートを介して駆動装置に入力される位置関連データを出力し、電磁センサは、第3入力ポートを介して駆動装置に入力される画像データを出力する。
任意選択の実施形態において、前記ビジュアルオドメトリ部は、前記第1特徴点および前記第2特徴点を生成し、前記第1特徴点と前記第2特徴点とを関連付けるように構成された特徴生成および関連付け部を含み、任意選択で、前記ビジュアルオドメトリ部は、前記慣性関連データおよび前記位置関連データに基づいて計算された回転データおよび並進データを使用することで前記第2特徴点から第1投影特徴点を投影するように構成され、かつ前記第1特徴点と前記第1投影特徴点との間の画素距離を算出して、前記第1特徴点と前記第2特徴点との関連付けの確実性を評価するように構成された特徴点除去部をさらに含む。
上述した第1特徴点および第2特徴点の識別は、上述したコンピュータの一部または機能ユニットであり得る特徴生成および関連付け部によって実行されてもよい。詳細には、特徴生成および関連付け部は、第1画像データおよび第2画像データの両方において最も近い実世界特徴および/または全く同じ実世界特徴を識別し、第1画像データおよび第2画像データにおける第1特徴点および第2特徴点を、それぞれ、同じ実世界特徴を参照するという点で関連付けるように構成されている。
特徴生成および関連付け部は、第1特徴点と第2特徴点との間の画素距離を算出するように構成されてもよい。画素距離とは、第1画像の第1特徴点の位置から、第2画像の対応する画素位置における第2特徴点の位置までの画素の距離である。画素距離は、第1特徴点と第2特徴点との関連付けを評価するために使用される。
特徴点除去部は、上述したコンピュータの一部または機能ユニットとすることができる。特徴点除去部は、対応する第2特徴点、慣性関連データ、および位置関連データに基づいて、第1投影特徴点を算出/計算するように構成されてもよい。特徴点除去部は、慣性関連データおよび位置関連データに基づいて第2画像データが生成された時点と第1画像データが生成された時点との間の車両の動きを算出/計算するように構成されてもよい。両方のタイプのデータは車両の動きを示しており、これらの2つのタイプのデータに基づいて車両の動きを判定することができる。車両の動きは、並進(並進データによって表される)および/または回転/ヨー(回転データによって表される)で表すことができる。
特徴点除去部は、車両の動きを画素距離に変換するように、かつ画素距離を第2特徴点に加算して投影された第1特徴点を取得するように構成することができる。
特徴点除去部は、車両の動き、対応する画素距離、および/または投影された第1特徴点を算出/計算するためのアルゴリズムを実行してもよく、かつ/またはそのようなニューラルネットワーク(AI)を含んでもよい。
特徴点除去部は、車両の動き、対応する画素距離、および/または投影された第1特徴点を算出/計算するためのアルゴリズムを実行してもよく、かつ/またはそのようなニューラルネットワーク(AI)を含んでもよい。
カメラ投影行列Kは、車両に固有であってもよく、画像データ内の特徴の既知の位置および対応する実世界特徴の既知の位置を使用して投影を算出することによって決定することができる。電磁センサユニットの座標系が車両の座標系と異なる場合、これらの2つの座標系の間の変換が(例えば、さらなる変換行列を使用して)上記の式に追加される必要がある。
特徴点除去部は、第1特徴点と第2特徴点との間の関連付けが車両の真の姿勢を反映しているかどうかの信頼度を確立するために、第1特徴点と第1投影特徴点との間の画素距離を算出してもよい。したがって、第1特徴点と第1投影特徴点との間の画素距離は、第1特徴点と第2特徴点との間の関連付けが正しかったかどうか、すなわち、第1特徴点と第2特徴点とが同じ実世界特徴を参照しているかどうかを評価するために使用することができる。
特徴点除去部は、第1特徴点と第2特徴点との間の関連付けが車両の真の姿勢を反映しているかどうかの信頼度を確立するために、第1特徴点と第1投影特徴点との間の画素距離を算出してもよい。したがって、第1特徴点と第1投影特徴点との間の画素距離は、第1特徴点と第2特徴点との間の関連付けが正しかったかどうか、すなわち、第1特徴点と第2特徴点とが同じ実世界特徴を参照しているかどうかを評価するために使用することができる。
例えば、特徴点除去部は、第1特徴点と投影された第1特徴点との間の画素距離が、第1特徴点と第2特徴点との間の関連付けが車両の真の姿勢を反映していることを示すかどうかを評価するために、統計的方法を用いてもよい。任意選択で、特徴点除去部は、第1特徴点と投影された第1特徴点との間の画素距離が全ての第1特徴点と投影された第1特徴点との間の全ての画素距離の統計的分布の分散よりも大きい場合、第1特徴点を除去する。
特徴点除去部は、第1特徴点と第2特徴点との関連付けの確実性を判定してもよい。この確実性は、第1特徴点と第2特徴点との関連付けに基づいて算出された推定姿勢が真の姿勢を反映している可能性がどれだけ高いかという信頼度を割り当てることを含んでもよい。例えば、確実性は、画素距離の(数学的)関数である信頼度である。確実性または信頼度は、画素距離が小さいほど高くなり得る。確実性は、推定姿勢の算出において、第1特徴点と第2特徴点との特定の関連付けを重み付けするために使用されてもよい。
確実性または信頼度は、第1特徴点と第2特徴点との関連付けを受け入れる、または除去するために使用されてもよい。例えば、確実性が(所定の)閾値を下回る場合、関連付けは除去され、そうでない場合は受け入れられる。
任意選択の実施形態において、前記特徴点除去部は、前記画素距離が所定値よりも大きい場合、前記第1特徴点と前記第2特徴点との前記関連付けを除去するように構成されている。
この任意選択の実施形態では、画素距離自体が、第1特徴点と第2特徴点との関連付けを受け入れるか除去するかを決定する尺度である。言い換えれば、確実性は、画素距離に直接関係している。
除去されていない第1特徴点と対応する第2特徴点との関連付けは、対応する第2特徴点と併せて推定姿勢を算出/計算するために使用される。関連付けの除去は、第1特徴点および第2特徴点の両方、第1特徴点のみ、または第2特徴点のみが除去されることを含み得る。
特徴点除去部は、第1特徴点と投影された第1特徴点との間のユークリッド距離を算出してもよい。所定値は固定値であってもよいし、予想並進tWOおよび/または予想回転RIMUなどのパラメータに基づいて設定されてもよい。例えば、所定値と予想並進tWOおよび/または予想回転RIMUとの間に線形関係または他の形式の関係があってもよい。
第1特徴点が除去された場合、第1特徴点および第2特徴点のペアは、推定姿勢を算出するために使用されなくてもよい。所定の閾値要件を満たす第1特徴点および第2特徴点の他のペアが、推定姿勢を算出するために使用されてもよい。
これは、第1特徴点と第2特徴点のペアにおける外れ値を除去するための方法である。したがって、第1特徴点および第2特徴点の除去されないペアは、車両の姿勢のより正確かつより信頼性の高い予測を提供する。特に、外れ値を除去するためのこの方法は、電磁センサユニットの近距離場および遠距離場、すなわち、電磁センサユニットの近くおよび遠くにある実世界の物体に対して機能する。
任意選択の実施形態において、前記ビジュアルオドメトリ部は、前記第1特徴点と前記第2特徴点との間の深度における物理的距離と、深度における予想物理的距離とを比較するように構成された世界点除去部をさらに含み、任意選択で、前記予想物理的距離は、前記ホイールオドメトリユニットからの前記位置関連データに基づいて算出される。
世界点除去部は、上述のコンピュータの一部または機能ユニットであってもよい。物理的距離とは、実世界距離、すなわち、実世界で測定することができる距離を指す。これは、電磁センサユニットによって生成される画像または画像データにおいて測定することができる距離である画素距離とは対照的である。深度は、世界点ベクトルのz座標、すなわち、実世界における2つの点を接続するベクトルに対応し得る。z座標は、車両の前方、すなわち、車両が直進している場合は運転方向を指す車両の座標系における座標であってもよい。上述のように、深度は、車両が直進する場合、すなわち、車両の回転がゼロである場合、車両の並進tWOと平行してもよい。
カメラ座標フレーム、または通常、電磁センサユニットの座標フレームは、車両座標フレームに対して任意に配置することができる。一例として、カメラは、車両の後ろを見て、または側面を見て配置され得る。加えて、電磁センサユニットの座標系は、車両の座標系に対して角度を付けることができる。カメラ座標フレーム(または電磁センサユニットのフレーム)の車両座標フレームへの変換が必要とされ得る。
車両座標系におけるx座標は、垂直方向に延びていてもよく、車両座標系におけるy座標は、垂直方向に、例えば、z方向を見た場合に右に延びていてもよい。
本実施形態では、電磁センサユニットは、撮像された周囲の深度を判定することができる1つのセンサまたは複数のセンサを含む必要がある。これは、例えば三角測量法を使用して深度を算出するために必要となる。ステレオカメラは、三角測量法を使用して設定された深度を算出するために使用されてもよい。代替的に、深度は、LiDAR測定値から、または深度を計算するために複数のカメラを使用することによって、直接導出可能であり得る。
世界点除去部は、第1特徴点と第2特徴点との関連付けを物理的距離に変換するように構成されてもよい。世界点除去部は、画像座標系における第2特徴点に対する第1特徴点の並進に関する情報を物理的距離に変換することができるアルゴリズムまたはニューラルネットワーク(AI)を含んでいてもよい。代替的にまたは追加的に、特徴点投影部は、第1特徴点および第2特徴点の画素位置(すなわち、第1画像データおよび第2画像データにおける第1特徴点および第2特徴点の位置)を、例えば車両または電磁センサユニット(例えば、カメラまたは他のセンサ)の座標系などの実世界における対応する位置に変換するように構成されてもよい。この目的のために、世界点除去部は、カメラ投影行列Kの逆行列を使用してもよい。世界点除去部は、画素位置を実世界の位置に変換することができるアルゴリズムまたはニューラルネットワーク(AI)を含んでもよい。世界点除去部は、そして、算出された実世界の位置から実世界距離または物理的距離を算出または計算してもよい。最後に、世界点除去部は、算出された物理的距離または物理的並進から深度における物理的距離(または物理的距離のz成分)を算出してもよい。
予想物理的距離は、ホイールオドメトリユニットからの位置関連データを使用して算出されてもよい。世界点除去部は、位置関連データから予想物理的距離を算出/計算することができるアルゴリズムおよび/またはニューラルネットワーク(AI)を含んでもよい。最後に、世界点除去部は、算出された予想物理的距離、または予想並進もしくは物理的並進から、深度における予想物理的距離(または予想物理的距離のz成分)を算出してもよい。
深度における物理的距離と深度における予想物理的距離との間の比較は、第1特徴点および第2特徴点の過去の外れ値を除去するために使用することができる。第1特徴点および第2特徴点の残りのペアまたは除去されなかったペアは、推定姿勢を算出または計算するために使用される。外れ値が除去されるので、推定姿勢はより正確であり、および/またはより信頼性が高い。アウトライナーを除去するこの方法は、電磁センサユニットの近距離場において特に正確である。
任意選択の実施形態において、前記世界点除去部は、前記予想物理的距離の上限および前記予想物理的距離の下限を算出し、前記深度における物理的距離が前記予想物理的距離の前記上限と前記予想物理的距離の前記下限との間にある場合、前記第1特徴点と前記第2特徴点との前記関連付けを受け入れるように構成されている。
世界点除去部は、上限および/または下限を算出/計算することができるアルゴリズムおよび/またはニューラルネットワーク(AI)を含んでもよい。上限および/または下限は、固定値または所定値であってもよい。代替的に、上限および/または下限は可変であってもよく、並進tWOおよび/または回転RIMUなどの他のパラメータに依存させることができる。好ましくは、上限および/または下限は、例えば上述のように位置関連データに基づいて算出され得る並進tWOのみに依存する。
下限および/または上限は、並進tWOおよび/または回転RIMUの関数であってもよく、好ましくは並進tWOのみの関数である。関数は、線形二次関数または下限および/または上限を並進tWOおよび/または回転RIMUにリンクさせる他の形式の関数であってもよい。
深度における物理的距離が上限および下限によって設定される境界内にある場合、物理的距離は、実際の物理的距離を正確におよび/または確実に表すことが予想される。この方法では、予想物理的距離を使用して、深度における物理的距離の精度を評価するために使用される上限および下限を決定する。深度における物理的距離が正確であるとみなされる場合、第1特徴点および第2特徴点の対応するペアが推定姿勢を算出するために使用される。
任意選択の実施形態では、推定姿勢は、推定回転および推定並進を含み、任意選択で、ビジュアルオドメトリ部は、慣性計測ユニットからの慣性関連データおよびホイールオドメトリユニットからの位置関連データに基づいて算出される予想回転および予想並進を生成するように、かつ予想回転および予想並進に基づいて推定回転および推定並進を評価するように構成された決定規則部を含む。
推定姿勢は、上述のように算出されてもよく、すなわち、第1特徴点および第2特徴点のペアにおける外れ値は除去することができ、推定姿勢を算出するために使用されない。しかしながら、推定姿勢を算出するために第1特徴点および第2特徴点の全てのペアを使用することも可能である。
本実施形態では、最終的な推定姿勢が予想姿勢を考慮して評価される。上述の実施形態では、最終的な推定姿勢を判定するために、第1特徴点および第2特徴点のペアが評価される。これは、上述の実施形態がデータの選択に関するものであるのに対し、本実施形態が最終的な推定姿勢の評価に関連するものであることを意味する。
ビジュアルオドメトリ部は、予想回転および/または予想並進を算出するように構成されてもよい。推定回転および/または推定並進は、慣性関連データおよび位置関連データの両方を使用して算出または計算されてもよい。しかしながら、予想回転が慣性関連データのみに基づいて算出または計算され、および/または予想並進が位置関連データのみに基づいて算出または計算されることも可能である。この目的のために、ビジュアルオドメトリ部は、慣性関連データおよび/または位置関連データに基づいて、予想回転および/または予想並進を判定することができるアルゴリズムを実行してもよく、および/またはそのようなニューラルネットワーク(AI)を含んでもよい。
決定規則部は、予想姿勢に基づいて推定姿勢を評価するように構成されてもよい。代替的に、決定規則部は、予想並進に基づいて推定並進を、および/または予想回転に基づいて推定回転を評価するように構成されてもよい。決定規則部は、推定姿勢の評価のために、統計的方法または任意の他の方法を使用してもよい。評価は、予想姿勢、予想並進、および/または予想回転を考慮した、推定姿勢、推定並進、および/または推定回転の除去または補正を包含することができる。代替的に、評価は、例えば推定姿勢がどのくらい真であると考えられるかを示す統計値を推定姿勢に関連付けることによって、推定姿勢の精度を評価することを含んでもよい。
任意選択の実施形態において、前記予想並進は、前記予想並進の上限と前記予想並進の下限とを含み、任意選択で、前記予想回転は、前記予想回転の上限と前記予想回転の下限とを含み、さらに任意選択で、前記決定規則部は、前記車両が直線道路上にある場合に前記推定並進が前記予想並進の前記上限と前記下限との間にある場合、前記推定姿勢を受け入れるように構成されている、または、前記車両が曲線道路上にある場合に前記推定並進が前記予想並進の前記上限と前記下限との間にあり、前記推定回転が前記予想回転の前記上限と前記下限との間にある場合、前記推定姿勢を受け入れるように構成されている。
予想並進の上限および/または予想並進の下限は、固定値または所定値であってもよい。代替的に、予想並進の上限および/または予想並進の下限は、予想並進および/または予想回転の関数とすることができる。同様に、予想回転の上限および/または予想回転の下限は、予想並進および/または予想回転の関数とすることができる。好ましくは、予想並進の上限および/または予想並進の下限は予想並進の関数であり、かつ/または予想回転の上限および/または予想回転の下限は予想回転の関数である。上限/下限と予想並進/回転との間の関数の代わりに、テーブルなどの他のタイプの関係を用いてもよい。
車両が直線で走行している場合、車両が直線道路を走行していることが検出され、および/または操舵角がゼロに等しいことが検出され、回転が存在しないと仮定される。この場合、決定規則部は、並進のみを参照する。言い換えれば、決定規則部は、推定並進が予想並進の上限と下限との間であるか否かなど、予想並進を考慮して推定姿勢を評価するのみである。
車両が直線で走行していない場合、車両が曲線道路を走行していることが検出され、および/または操舵角がゼロに等しくないことが検出され、回転が存在すると仮定される。この場合、決定規則部は、並進および回転の両方を参照する。言い換えれば、決定規則部は、予想並進および予想回転の両方を考慮して、推定姿勢を評価する。例えば、決定規則部は、推定並進が予想並進の上限と下限との間にあるか否か、および推定回転が予想回転の上限と下限との間にあるか否かの両方を評価する。
これらの条件が満たされる場合、規則決定部は、推定姿勢を受け入れ、推定姿勢は車両をナビゲートするために使用できるようになる。受け入れられた推定姿勢は、駆動装置に転送されてもよい。しかしながら、これらの条件が満たされない場合、規則決定部は、推定姿勢を除去する。
電磁センサユニットが異なるタイプのセンサを含む場合、推定姿勢を評価するための上述の方法は、これらの異なるタイプのセンサ全てに拡張され得る。このことは、推定姿勢が第1のタイプのセンサ(例えば、ステレオカメラ)、第2のタイプのセンサ(例えば、LiDAR装置)、および/または第3のタイプのセンサ(例えば、レーダ装置)によって生成された画像データに基づいて算出され得ることを意味する。したがって、上記で説明したように、予想姿勢を考慮して様々な推定姿勢が算出および評価され得る。上述の評価プロセスで受け入れられた様々な推定姿勢は、単一の推定姿勢を達成するために結合されてもよい。様々な推定姿勢の結合は、拡張されたカルマンフィルタリングの融合モジュールを使用して行われてもよい。線形二次推定(LQE)としても知られているカルマンフィルタリングは、統計および制御理論における異なる数値を結合するための公知のフィルタリング技術である。
自動モードおよび/または運転支援モードで車両を運転するためのコンピュータ実装された方法は、以下のステップを備える。
a)慣性関連データを慣性計測ユニットによって出力するステップ、
b)位置関連データをホイールオドメトリユニットによって出力するステップ、
c)第1画像データおよび第2画像データを電磁センサユニットによって出力するステップであって、前記第2画像データは前記第1画像データの前の画像データであるステップ、および
d)ビジュアルオドメトリ部によって、前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信し、前記第1画像データから抽出された第1特徴点と前記第2画像データから抽出された第2特徴点とを関連付け、前記慣性計測ユニットからの前記慣性関連データおよびホイールオドメトリからの前記位置関連データに基づいて、前記第1特徴点と前記第2特徴点との前記関連付けを評価することによって計算された前記車両の推定姿勢を出力するステップ。
a)慣性関連データを慣性計測ユニットによって出力するステップ、
b)位置関連データをホイールオドメトリユニットによって出力するステップ、
c)第1画像データおよび第2画像データを電磁センサユニットによって出力するステップであって、前記第2画像データは前記第1画像データの前の画像データであるステップ、および
d)ビジュアルオドメトリ部によって、前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信し、前記第1画像データから抽出された第1特徴点と前記第2画像データから抽出された第2特徴点とを関連付け、前記慣性計測ユニットからの前記慣性関連データおよびホイールオドメトリからの前記位置関連データに基づいて、前記第1特徴点と前記第2特徴点との前記関連付けを評価することによって計算された前記車両の推定姿勢を出力するステップ。
任意選択で、方法は、制御部によって、前記推定姿勢に基づいて、自動運転モードおよび/または支援運転モードで前記車両を運転するステップを追加的に含んでもよい。
駆動装置および車両に関する上記のコメント、注釈、および任意選択の実施形態は、自動モードおよび/または運転支援モードで車両を運転するためのコンピュータ実装された方法にも同様に適用される。本方法は、走行可能道路検出部、画像ベース走行可能道路検出部、融合部、および/または制御部の機能を実行するコンピュータによって実行されてもよい。
車両の自動運転および/または支援運転のための駆動装置は、第1入力ポートと、第2入力ポートと、第3入力ポートと、ビジュアルオドメトリ部と、を備える。第1入力ポートは、慣性計測ユニットによって測定された慣性関連データを受信するように構成されている。第2入力ポートは、ホイールオドメトリユニットによって測定された位置関連データを受信するように構成されている。第3入力ポートは、電磁センサユニットによる第1画像データ(または第1画像データのセット)および第2画像データ(または第1画像データのセット)を受信するように構成され、前記第2画像データは前記第1画像データの前の画像データである。ビジュアルオドメトリ部は、前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信するように構成され、かつ前記慣性関連データおよび前記位置関連データに基づいて算出された前記車両の推定姿勢を出力するように構成され、前記推定姿勢が推定回転および推定並進を含む。前記ビジュアルオドメトリ部は、前記慣性計測ユニットからの前記慣性データおよび前記ホイールオドメトリユニットからの前記位置関連データに基づいて算出される予想回転および予想並進を作成し、前記予想回転および前記予想並進に基づいて前記推定回転および前記推定並進を評価するように構成された決定規則部を含む。
任意選択で、駆動装置は、前記推定姿勢に基づいて、自動運転および/または支援運転のための駆動信号を生成するように構成された制御部を含んでもよい。
駆動装置および車両に関する上記のコメント、注釈、および任意選択の実施形態は、特に決定規則部に同様に適用される。
車両は、慣性関連データを出力するように構成された慣性計測ユニットと、位置関連データを出力するように構成されたホイールオドメトリユニットと、第1画像データおよび前記第1画像データの前の画像データである第2画像データを出力するように構成された電磁センサユニットと、ビジュアルオドメトリ部とを備える。ビジュアルオドメトリ部は、前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信するように構成され、かつ前記慣性関連データおよび前記位置関連データに基づいて算出された前記車両の推定姿勢を出力するように構成され、前記推定姿勢が推定回転および推定並進を含む。前記ビジュアルオドメトリ部は、前記慣性計測ユニットからの前記慣性データおよび前記ホイールオドメトリユニットからの前記位置関連データに基づいて算出される予想回転および予想並進を作成し、前記予想回転および前記予想並進に基づいて前記推定回転および前記推定並進を評価するように構成された決定規則部を含む。
任意選択で、車両は、前記推定姿勢に基づいて、自動運転モードおよび/または支援運転モードで前記車両を運転するように構成された制御部を含んでもよい。
任意選択の実施形態において、前記予想並進は、前記予想並進の上限と前記予想並進の下限とを含み、任意選択で、前記予想回転は、前記予想回転の上限と前記予想回転の下限とを含み、さらに任意選択で、前記決定規則部は、前記車両が直線道路上にある場合に前記推定並進が前記予想並進の前記上限と前記下限との間にある場合、前記推定姿勢を受け入れるように構成されている、または、前記車両が曲線道路上にある場合に前記推定並進が前記予想並進の前記上限と前記下限との間にあり、前記推定回転が前記予想回転の前記上限と前記下限との間にある場合、前記推定姿勢を受け入れるように構成されている。
自動モードおよび/または運転支援モードで車両を運転するためのコンピュータ実装された方法は、以下のステップを備える。
a)慣性関連データを慣性計測ユニットによって出力するステップ、
b)位置関連データをホイールオドメトリユニットによって出力するステップ、
c)第1画像データおよび第2画像データを電磁センサユニットによって出力するステップであって、前記第2画像データは前記第1画像データの前の画像データであるステップ、および
d)ビジュアルオドメトリ部によって、前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信し、前記慣性関連データおよび前記位置関連データに基づいて算出された前記車両の推定姿勢を出力するステップであって、前記推定姿勢が推定回転および推定並進を含むステップ。
前記推定姿勢を出力するステップは、決定規則部によって、前記慣性計測ユニットからの前記慣性データおよび前記ホイールオドメトリユニットからの前記位置関連データに基づいて算出される予想回転および予想並進を作成し、前記予想回転および前記予想並進に基づいて前記推定回転および前記推定並進を評価することを含む。
a)慣性関連データを慣性計測ユニットによって出力するステップ、
b)位置関連データをホイールオドメトリユニットによって出力するステップ、
c)第1画像データおよび第2画像データを電磁センサユニットによって出力するステップであって、前記第2画像データは前記第1画像データの前の画像データであるステップ、および
d)ビジュアルオドメトリ部によって、前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信し、前記慣性関連データおよび前記位置関連データに基づいて算出された前記車両の推定姿勢を出力するステップであって、前記推定姿勢が推定回転および推定並進を含むステップ。
前記推定姿勢を出力するステップは、決定規則部によって、前記慣性計測ユニットからの前記慣性データおよび前記ホイールオドメトリユニットからの前記位置関連データに基づいて算出される予想回転および予想並進を作成し、前記予想回転および前記予想並進に基づいて前記推定回転および前記推定並進を評価することを含む。
任意選択で、方法は、制御部によって、前記推定姿勢に基づいて、自動運転モードおよび/または支援運転モードで前記車両を運転するステップを追加的に含む。
本発明はさらに、プログラムがコンピュータによって実行されると、コンピュータに上述の方法のステップを実行させる命令を含むコンピュータプログラムに関する。
本発明はまた、コンピュータによって実行されると、コンピュータに上述の方法のステップを実行させる命令を含むコンピュータ可読記憶媒体に関する。
本発明の任意選択の実施形態を、添付の図面と併せて説明する。
図1は、任意の種類の自走式自動車とすることができ、好ましくは道路上を走行するように構成された車両10を示す。例えば、車両10は、車両10の車輪を駆動するためのエンジンおよび/または電気モータを備える。
車両10は、電磁センサユニット20、位置特定ユニット22、制御装置24、慣性計測ユニット26、ホイールオドメトリユニット28、および/または駆動装置30を含む。電磁センサユニット20、位置特定ユニット22、制御装置24、慣性計測ユニット26、ホイールオドメトリユニット28、および/または駆動装置30は、データまたは他のタイプの情報を交換するために、通信可能におよび/または電子的に互いに接続されている。
電磁センサユニット20は、1つ以上のカメラ、LiDAR装置、および/またはレーダ装置を含んでもよい。カメラは、任意選択で、ステレオカメラであってもよい。電磁センサユニット20は、車両10の周囲を撮像することができる。特に、電磁センサユニット20は、車両10の周囲の3D表現を提供するように構成されている。
電磁センサユニット20は、車両10の周囲の表現を画像データとして出力する。電磁センサユニット20は、任意選択で、車両10の周囲を周期的におよび/または連続的に撮像するように構成される。したがって、電磁センサユニット20は、それぞれの画像データが別の時点で撮影された複数の画像データを出力するように構成される。第1画像データは、第2画像データと比較して後の時点で撮影されてもよい。電磁センサユニット20は、車両10の座標系において周囲の同じ(角度の)部分を撮像するように構成される。電磁センサユニット20は、車両10上に静的に配置されてもよい。
位置特定ユニット22は、車両10の位置を判定するための装置であってもよい。位置特定ユニット22は、GPS(全地球測位システム)トランシーバとすることができる。位置特定ユニット22は、車両10の位置を位置特定データとして出力するように構成される。
制御装置24は、車両10を運転またはナビゲートするために制御することができる車両10の構成要素を含む。制御装置24は、車両10を走行可能な道路上で走行させるためのステアリング装置、スロットル装置(加速装置ともいう)、およびブレーキ装置を含んでもよい。
ステアリング装置は、車両10の向きまたは進行方向を調整するための車両10の一部とすることができる。スロットル装置もまた、モータまたはエンジンの速度を制御し、ひいては車両10の速度および加速度を制御するための車両10の一部であってよい。ブレーキ装置は、車両10の車輪またはタイヤの速度を緩めるための摩擦を提供することによって車両10を減速させるための車両10の一部とすることができる。ステアリング装置、スロットル装置、および破断装置は、制御部によって出力される信号に基づいて制御されてもよい。
慣性計測ユニット26は、加速度、回転(ヨー)、および/または速度変化など、慣性計測ユニット26が受ける力を測定するための装置である。慣性計測ユニット26は、車両10に固定して取り付けられてもよい。その場合、慣性計測ユニット26は、車両10の加速度、回転(ヨー)、および/または速度変化を測定するように構成される。慣性計測ユニット26は、測定値を慣性関連データとして出力する。
慣性計測ユニット26は、加速度計、ジャイロスコープ(ジャイロメータ)、および/または磁力計などの1つ以上のセンサを含んでもよい。慣性計測ユニット26は、その測定値を使用して、車両10の加速度、回転(ヨー)、および/または速度変化を判定することができるセンサを含む。ジャイロスコープは、微小電気機械システム(MEMS)のジャイロスコープを含んでもよい。
ホイールオドメトリユニット28は、車両10が走行した距離、車両10の速度、および/または車両10の車輪の傾きなど、車両10の動きを示すパラメータを測定するための装置である。ホイールオドメトリユニット28は、車両10の車輪の回転を判定するためのセンサ、車両10の車輪の傾きを判定するためのセンサ、および/または車両10のハンドルの位置を判定するためのセンサなど、1つ以上のセンサを含む。ホイールオドメトリユニット28は、測定値を位置関連データとして出力する。
駆動装置30は、複数のプロセッサ(図示せず)と記憶装置33とを含むコンピュータまたはコンピュータシステムとみなすことができる。駆動装置30は、記憶装置33に記憶され得る複数のアルゴリズムを実行するように構成されている。駆動装置30によって処理される複数のアルゴリズムは、車両10を自律的または半自律的にナビゲートすることを可能にする。駆動装置30は、車両10のオートパイロットおよび/または運転支援システムとみなされてもよい。
この目的のために、駆動装置30は、ビジュアルオドメトリ部31および/または制御部32に関連付けることができる様々な機能を実行することができる。これらの部品の各々は、車両10の自律的または半自律的ナビゲーションを達成するためのアルゴリズムを実行する駆動装置30の一部または機能ユニットとみなすことができる。したがって、部品31および/または32は、コンピュータソフトウェアの実装とみなすことができる。
部品31および/または32のためのアルゴリズムは、記憶装置33に記憶することができる。駆動装置30は、第1入力ポート34を介して慣性計測ユニット26から慣性関連データを受信することができる。同様に、駆動装置30は、第2入力ポート35を介してホイールオドメトリユニット28から位置関連データを受信することができる。駆動装置30は、第3入力ポート36を介して電磁センサユニット20から画像データを受信することができる。加えて、駆動装置30は、第4入力ポート(図示せず)を介して位置特定ユニット22から位置特定データを受信することができる。
第1入力ポート34、第2入力ポート35、および第3入力ポート36は、それぞれ、慣性計測ユニット26、ホイールオドメトリユニット28、および電磁センサユニット20と駆動装置30との通信を可能にするインターフェースとみなすことができる。
ビジュアルオドメトリ部31は、特徴生成および関連付け部31a、特徴点除去部31b、世界点除去部31c、および/または決定規則部31dを含むことができる。これらの部品の各々は、ビジュアルオドメトリ部31の一部または機能ユニットとみなすことができる。部品31a、31b、31c、および/または31dのためのアルゴリズムは、記憶装置33に記憶することができる。
特徴生成および関連付け部31aは、第1画像データおよび第2画像データを受信し、第1画像データ内の第1特徴点(または第1のキーポイント)および第2特徴データ内の第2特徴点(または第2のキーポイント)を識別または抽出する。これは、第2画像データ内の第2特徴点を識別または抽出し、続いて、第1画像データ内の同じ特徴点を探索することによって行うことができる。代替的に、特徴生成関連付け部31aは、第1画像データの特徴点および第2特徴データの特徴点を探索し、続いて、対応する特徴点、すなわち、同じ実世界特徴に対応する特徴点を関連付ける。好ましくは、特徴生成および関連付け部31aは、第1特徴点および第2特徴点の複数のペアを抽出する。特徴生成および関連付け部31aは、第1特徴点と第2特徴点とを関連付けるためのニューラルネットワーク(AI)または他のタイプのアルゴリズムを含んでもよい。
車両10の動きにより、第1特徴点は、第2特徴点と比較すると異なる画素位置にあり得る。この画素差は、車両10の動きに対応する。したがって、ビジュアルオドメトリ部31は、第1画像データおよび第2画像データから車両10の動きおよび/または車両10の姿勢を抽出することができる。例えば、ビジュアルオドメトリ部31は、第1特徴点および第2特徴点の複数のペアの関連付けに基づいて推定姿勢を算出または計算するためのニューラルネットワーク(AI)または他のタイプのアルゴリズムを含む。特に、ビジュアルオドメトリ部31は、車両10の推定姿勢を形成する車両10の推定並進および推定回転を算出または計算することができる。
理論的には、第1特徴点および第2特徴点のペアごとの画像座標系における第2特徴点に対する第1特徴点の並進に関する情報が、車両10の動きおよび/または車両10の姿勢の同じ推定をもたらすであろう。実際には、車両10の動きおよび/または車両10の姿勢の推定は、第1特徴点および第2特徴点のペアごとに異なる。推定姿勢の精度および/または位置を高める1つの方法は、車両10の実際の姿勢を示さない第1特徴点および第2特徴点のペアを除去することである。
第1実施形態では、特徴点除去部31bは、特徴点の画素位置と第2特徴点の画素位置との間の画素距離を算出する(逆の議論が第1特徴点についても機能するであろう)。例えば、画素位置は、第1特徴点および第2特徴点の画素位置に対応する画素座標を用いて算出される。このステップは、第1特徴点および第2特徴点のペアごとに繰り返される。
特徴点除去部31bは、慣性関連データおよび位置関連データを用いて、第2特徴点に基づいて第1投影特徴点を投影することもできる。慣性関連データおよび位置は、車両10の回転を示す回転データおよび車両10の並進を示す並進データを算出するために用いられる。この目的のために、特徴点除去部31bは、慣性関連データおよび/または位置関連データから回転データおよび並進データを算出または計算することができるニューラルネットワーク(AI)または他のタイプのアルゴリズムを含んでもよい。例えば、関数および/またはテーブルは、回転データおよび並進データを慣性関連データおよび/または位置関連データにリンクさせる。
回転データおよび並進データは、実世界座標系における車両10の動きを表す。回転データおよび並進データは、それから、特徴点除去部31bによって画像座標系に変換される。これは、ニューラルネットワーク(AI)または他のタイプのアルゴリズムによって行うことができる。例えば、カメラ投影行列Kを使用することができる。その結果、車両10の動きは、画像内の特徴点の動きに変換される。言い換えると、車両10の動きに対応する実世界距離/ベクトルは、画素距離/ベクトルに変換される。したがって、特徴点の動きを予測することができる。第2特徴点の予測は、第1投影特徴点をもたらす。
電磁センサユニット20の座標系が車両10の座標系と異なる場合、これらの2つの座標系の間の変換が(例えば、さらなる変換行列を使用して)上記の式に追加される必要がある。
この画素距離が特定の閾値を上回る場合、関連付けられた第1特徴点および第2特徴点のペアは除去され、推定姿勢の算出に寄与しない。第1特徴点、第1投影特徴点における第1特徴点の間の画素距離が閾値を下回る、関連付けられた第1特徴点および第2特徴点のペアが、推定姿勢を算出するために使用される。したがって、この方法により、推定姿勢の算出から、車両10の真の動きを表していない可能性が低い特徴点のペアを除外することが可能である。加えて、関連付けが正しくなかった、すなわち、第1特徴点および第2特徴点が同じ実世界特徴に関連していない第1特徴点および第2特徴点のペアを除去することが可能である。
特徴点除去部31bの機能は、図5のフロー図にも示されている。この方法は、画素距離を使用するので、画像の座標系において機能する。第1特徴点および第2特徴点の外れ値を除去するこの方法は、電磁センサユニット20の近距離場および遠距離場において機能する。
第2実施形態では、世界点除去部31cが、実世界座標系、例えば、車両10の座標系における第1特徴点および第2特徴点のペアにおける外れ値を除去する。この目的のために、世界点除去部31cは、第1特徴点と第2特徴点との間の深度における物理的距離を算出する。これは、上記で概説したように第1特徴点と第2特徴点との間の距離を算出し、その後、算出された距離を実世界または物理的距離に変換することによって行うことができる。代替的に、世界点除去部31cは、第1特徴点および第2特徴点を対応する実世界位置に変換し、続いて、実世界位置に対する物理的距離を算出する。画素座標系から実世界座標系への変換は、ニューラルネットワーク(AI)または決定論的アルゴリズムを使用して世界点除去部31cによって実行されてもよい。例えば、カメラ投影行列Kの逆行列およびステレオ視差推定を使用することができる。
物理的な深度は、実世界における2つの点を接続するz座標に対応し得る。z座標は、車両10の前方、すなわち、車両10が直進している場合は運転方向を指す車両10の座標系における座標であってもよい。深度は、車両10が直進する場合、すなわち、車両10の回転がゼロである場合、車両10の並進tWOと平行してもよい。
世界点除去部31cはまた、車両10の並進tWOの関数とすることができる上限UB(tWO)および下限LB(tWO)を算出する。例えば、車両10の並進tWOと上限UB(tWO)および下限LB(tWO)との間には、線形、指数関数的、および/またはべき乗則的な関係が存在する。代替的に、世界点除去部31cは、車両10の並進tWOを上限UB(tWO)および下限LB(tWO)にリンクさせるテーブルを含んでもよい。車両10の並進tWOは、ホイールオドメトリユニット28からの位置関連データを使用して算出される、車両10が走行すると予想される予想物理的距離に対応する。この目的のために、世界点除去部31cは、位置関連データを予想物理的距離、すなわち並進tWOにリンクさせるニューラルネットワーク(AI)および/または(決定論的)アルゴリズムを含む。
世界点除去部31cは、第1特徴点および第2特徴点の深度における物理的距離が上限UB(tWO)と下限LB(tWO)との間の範囲内にない場合、第1特徴点および第2特徴点のペアを除去する。これは、以下の式によって要約することができる。
世界点除去部31cの機能は、図6のフロー図にも示されている。この方法は、物理的距離を使用するので、車両10の座標系または実世界座標系において機能する。第1特徴点および第2特徴点の外れ値を除去するこの方法は、電磁センサユニット20の近距離場において特に良好に機能する。
決定規則部31dは、第1特徴点および第2特徴点のペアの除去に関するものではないが、上述のように複数の第1特徴点および第2特徴点上で算出される推定姿勢の評価に関連する。決定規則部31dは、予想回転および/または予想並進を含むことができる予想姿勢を算出または計算するように構成される。予想姿勢は慣性関連データおよび/または位置関連データに基づいて判定されるのに対し、推定姿勢は画像データに基づいて判定される。決定規則部31dは、位置関連データおよび/または慣性関連データに基づいて予想回転および/または予想並進を算出することを可能にするニューラルネットワーク(AI)および/または(決定論的)アルゴリズムを含んでもよい。好ましくは、予想回転は慣性関連データを使用して算出され、および/または予想並進は位置関連データを使用して算出される。
決定規則部31dは、予想回転RIMUおよび予想並進tWOの両方について上限および下限を算出または計算するようにさらに構成される。したがって、決定規則部31dは、並進に対する上限UB(tWO)および下限LB(tWO)ならびに回転に対する上限UB(RIMU)および下限LB(RIMU)を算出する。上限および下限は、上限および下限を予想回転RIMUおよび予想並進tWOにリンクさせる(数学)関数および/またはテーブルを使用して決定されてもよい。
車両10が直線道路を走行する場合、または操舵角がゼロであることが検出される場合、推定姿勢は、以下の式が満たされる場合に受け入れられる。
tVO < UB(tWO)
tVO > LB(tWO)
ここで、tVOは、上述したように画像データに基づいて算出することができる推定並進となる。
tVO < UB(tWO)
tVO > LB(tWO)
ここで、tVOは、上述したように画像データに基づいて算出することができる推定並進となる。
車両10が曲線道路を走行する場合、または操舵角がゼロに等しくないことが検出される場合、推定姿勢は、以下の式が満たされる場合に受け入れられる。
tVO < UB(tWO)
tVO > LB(tWO)
RVO < UB(RIMU)
RVO > LB(RIMU)
ここで、RVOは、上述したように画像データに基づいて算出することができる推定回転である。
tVO < UB(tWO)
tVO > LB(tWO)
RVO < UB(RIMU)
RVO > LB(RIMU)
ここで、RVOは、上述したように画像データに基づいて算出することができる推定回転である。
決定規則部31dは、このように、第1特徴点および第2特徴点の個々のペアではなく、推定姿勢を評価する。図7のフロー図には、決定規則部31dが動作する方法も示されている。
決定規則部31dは、電磁センサユニット20の異なるセンサからの画像データを使用して判定される推定姿勢を評価する。これは、電磁センサユニット20のそれぞれのセンサが、上記で概説した方法を使用して推定姿勢を算出するために使用される画像データを生成することを意味する。決定規則部31dは、電磁センサユニット20の異なるセンサからのそれぞれの推定姿勢が上記で概説した式を満たす場合、それらを受け入れる。
フィルタリング融合モジュール32aは、決定規則部31によって受け入れられた複数の推定姿勢を結合または融合する。したがって、フィルタリング融合モジュール32aは、決定規則部31によって受け入れられる全ての推定姿勢の情報を含む単一の推定姿勢を生成する。フィルタリング融合モジュール32aは、決定規則部31によって受け入れられる複数の推定姿勢を融合するためのカルマンフィルタを含んでもよい。この方法はまた、図8のフロー図に示されている。
制御部32は、ビジュアルオドメトリ部31によってまたはフィルタリング融合モジュール32aによって出力される推定姿勢に基づいて、車両10をナビゲートするための駆動信号を生成するために、公知のニューラルネットワークまたは他のタイプの公知の人工知能(AI)を含んでもよい。駆動システムは、自動運転および/または支援運転(半自動運転)のために使用されてもよい。制御部32は、駆動信号に基づいてステアリング装置、スロットル装置、および/またはブレーキ装置を制御する制御装置24に駆動信号を出力するための出力ポートを含むことができる。
車両10を自律的および/または半自律的にナビゲートする方法を図3と共に説明する。
電磁センサユニット20は、推定並進および推定回転を含む車両10の推定姿勢を求めるためにビジュアルオドメトリ部31が処理する画像データを出力する。この処理の詳細は上述されており、当技術分野で公知である。推定姿勢の正確さおよび精度を高めるために、ビジュアルオドメトリ部31は、慣性計測ユニット26によって出力された慣性関連データおよびホイールオドメトリユニット28によって出力された位置関連データも処理する。位置関連データおよび慣性関連データは、画像データ内の特徴点または主要な特徴を除去するために使用される。除去された特徴点は、推定姿勢を表さないとみなされる。これは、推定姿勢を判定するために使用される特徴点が、車両10の姿勢を判定するための他の手段、すなわち慣性計測ユニット26およびホイールオドメトリユニット28によって生成されるデータを考慮して評価されることを意味する。上述のように、特徴点の外れ値の除去は、画像データの座標系および実世界座標系の両方で行うことができる。さらに、位置特定ユニット22からの位置特定データもまた、推定姿勢を評価するために使用され得る。例えば、位置特定データは、慣性関連データおよび位置関連データを使用して生成された予想並進および予想回転に基づく推定姿勢の評価と同様の評価処理に供給することができる予想並進および予想回転を算出するために使用され得る。
後続のステップでは、予想姿勢に基づいて、推定姿勢が受け入れられるか、または除去される。詳細には、上述したように、予想姿勢を考慮して推定姿勢が受け入れられる範囲が決定される。上述のステップとは対照的に、推定姿勢自体が受け入れられるかまたは除去され、推定姿勢の算出に寄与する値ではない。ここでもまた、推定姿勢を受け入れるかまたは除去するために位置特定ユニット22からの位置特定データが使用されてもよく、すなわち、位置特定データに基づいて予想姿勢が算出されてもよい。推定姿勢の受け入れまたは除去は、電磁センサユニット20の異なるセンサから算出される推定姿勢ごとに行うことができる。言い換えれば、推定姿勢が予想姿勢を考慮して設定された境界内にある場合、電磁センサユニット20のセンサごとに推定姿勢が算出され、受け入れられる。
最後のステップでは、カルマンフィルタを使用して複数の受け入れられた推定姿勢が結合される。予想回転および予想並進ならびに位置特定データもまた、カルマンフィルタへの入力であってよい。単一の推定姿勢は、カルマンフィルタリング処理の結果である。
最終的な任意選択のステップにおいて、車両10は、単一の推定姿勢に基づいてナビゲートされる。
Claims (13)
- 車両(10)の自動運転および/または支援運転のための駆動装置であって、
慣性計測ユニット(26)によって測定された慣性関連データを受信するように構成された第1入力ポート(34)と、
ホイールオドメトリユニット(28)によって測定された位置関連データを受信するように構成された第2入力ポート(35)と、
電磁センサユニット(20)による第1画像データおよび第2画像データを受信するように構成され、前記第2画像データは前記第1画像データの前の画像データである第3入力ポート(36)と、
前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信するように構成され、かつ前記第1画像データから抽出された第1特徴点と前記第2画像データから抽出された第2特徴点とを関連付け、前記慣性計測ユニット(26)からの前記慣性関連データおよびホイールオドメトリからの前記位置関連データに基づいて、前記第1特徴点と前記第2特徴点との前記関連付けを評価することによって計算された前記車両(10)の推定姿勢を出力するように構成されたビジュアルオドメトリ部(31)と、
前記推定姿勢に基づいて、自動運転および/または支援運転のための駆動信号を生成するように構成された制御部(32)と、を備える、駆動装置。 - 慣性関連データを出力するように構成された慣性計測ユニット(26)と、
位置関連データを出力するように構成されたホイールオドメトリユニット(28)と、
第1画像データおよび前記第1画像データの前の画像データである第2画像データを出力するように構成された電磁センサユニット(20)と、
前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信するように構成され、かつ前記第1画像データから抽出された第1特徴点と前記第2画像データから抽出された第2特徴点とを関連付け、前記慣性計測ユニット(26)からの前記慣性関連データおよび前記ホイールオドメトリユニット(28)からの前記位置関連データに基づいて、前記第1特徴点と前記第2特徴点との前記関連付けを評価することによって計算された車両(10)の推定姿勢を出力するように構成されたビジュアルオドメトリ部(31)と、
前記推定姿勢に基づいて、自動運転モードおよび/または支援運転モードで前記車両(10)を運転するように構成された制御部(32)と、を備える、車両。 - 前記ビジュアルオドメトリ部(31)は、
前記第1特徴点および前記第2特徴点を生成し、前記第1特徴点と前記第2特徴点とを関連付けるように構成された特徴生成および関連付け部(31a)と、
前記慣性関連データおよび前記位置関連データに基づいて計算された回転データおよび並進データを使用することで前記第2特徴点から第1投影特徴点を投影するように構成され、かつ前記第1特徴点と前記第1投影特徴点との間の画素距離を算出して、前記第1特徴点と前記第2特徴点との関連付けの確実性を評価するように構成された特徴点除去部(31b)と、を含む、請求項1または2に記載の駆動装置または車両。 - 前記特徴点除去部(31b)は、前記画素距離が所定値よりも大きい場合、前記第1特徴点と前記第2特徴点との前記関連付けを除去するように構成されている、請求項3に記載の駆動装置または車両。
- 前記ビジュアルオドメトリ部(31)は、前記第1特徴点と前記第2特徴点との間の深度における物理的距離と、深度における予想物理的距離とを比較するように構成された世界点除去部(31c)をさらに含み、前記予想物理的距離は、前記ホイールオドメトリユニット(28)からの前記位置関連データに基づいて算出される、請求項1から4のいずれか一項に記載の駆動装置または車両。
- 前記世界点除去部(31c)は、前記予想物理的距離の上限および前記予想物理的距離の下限を算出し、前記深度における物理的距離が前記予想物理的距離の前記上限と前記予想物理的距離の前記下限との間にある場合、前記第1特徴点と前記第2特徴点との前記関連付けを受け入れるように構成されている、請求項5に記載の駆動装置または車両。
- 前記推定姿勢は、推定回転および推定並進を含み、
前記ビジュアルオドメトリ部(31)は、前記慣性計測ユニット(26)からの前記慣性関連データおよび前記ホイールオドメトリユニット(28)からの前記位置関連データに基づいて算出される予想回転および予想並進を作成するように構成され、かつ前記予想回転および前記予想並進に基づいて前記推定回転および前記推定並進を評価するように構成された決定規則部(31d)を含む、請求項1から6のいずれか一項に記載の駆動装置または車両。 - 前記予想並進は、前記予想並進の上限と前記予想並進の下限とを含み、
前記予想回転は、前記予想回転の上限と前記予想回転の下限とを含み、
前記決定規則部(31d)は、前記車両(10)が直線道路上にある場合に前記推定並進が前記予想並進の前記上限と前記下限との間にある場合、前記推定姿勢を受け入れるように構成されている、または、前記車両(10)が曲線道路上にある場合に前記推定並進が前記予想並進の前記上限と前記下限との間にあり、前記推定回転が前記予想回転の前記上限と前記下限との間にある場合、前記推定姿勢を受け入れるように構成されている、請求項7に記載の駆動装置または車両。 - 自動モードおよび/または運転支援モードで車両(10)を運転するためのコンピュータ実装された方法であって、
慣性関連データを慣性計測ユニット(26)によって出力するステップと、
位置関連データをホイールオドメトリユニット(28)によって出力するステップと、
第1画像データおよび第2画像データを電磁センサユニット(20)によって出力するステップであって、前記第2画像データは前記第1画像データの前の画像データであるステップと、
ビジュアルオドメトリ部(31)によって、前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信し、前記第1画像データから抽出された第1特徴点と前記第2画像データから抽出された第2特徴点とを関連付け、前記慣性計測ユニット(26)からの前記慣性関連データおよびホイールオドメトリからの前記位置関連データに基づいて、前記第1特徴点と前記第2特徴点との前記関連付けを評価することによって計算された前記車両(10)の推定姿勢を出力するステップと、
制御部(32)によって、前記推定姿勢に基づいて、自動運転モードおよび/または支援運転モードで前記車両(10)を運転するステップと、を備える、方法。 - 車両(10)の自動運転および/または支援運転のための駆動装置であって、
慣性計測ユニット(26)によって測定された慣性関連データを受信するように構成された第1入力ポート(34)と、
ホイールオドメトリユニット(28)によって測定された位置関連データを受信するように構成された第2入力ポート(35)と、
電磁センサユニット(20)による第1画像データおよび前記第1画像データの前の画像データである第2画像データを受信するように構成され、前記第2画像データは前記第1画像データの前の画像データである第3入力ポート(36)と、
前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信するように構成され、かつ前記慣性関連データおよび前記位置関連データに基づいて算出された前記車両(10)の推定姿勢を出力するように構成され、前記推定姿勢が推定回転および推定並進を含むビジュアルオドメトリ部(31)と、
前記推定姿勢に基づいて、自動運転および/または支援運転のための駆動信号を生成するように構成された制御部(32)と、を備え、
前記ビジュアルオドメトリ部(31)は、前記慣性計測ユニット(26)からの前記慣性データおよび前記ホイールオドメトリユニット(28)からの前記位置関連データに基づいて算出される予想回転および予想並進を作成し、前記予想回転および前記予想並進に基づいて前記推定回転および前記推定並進を評価するように構成された決定規則部(31d)を含む、駆動装置。 - 慣性関連データを出力するように構成された慣性計測ユニット(26)と、
位置関連データを出力するように構成されたホイールオドメトリユニット(28)と、
第1画像データおよび前記第1画像データの前の画像データである第2画像データを出力するように構成された電磁センサユニット(20)と、
前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信するように構成され、かつ前記慣性関連データおよび前記位置関連データに基づいて算出された車両(10)の推定姿勢を出力するように構成され、前記推定姿勢が推定回転および推定並進を含むビジュアルオドメトリ部(31)と、
前記推定姿勢に基づいて、自動運転モードおよび/または支援運転モードで前記車両(10)を運転するように構成された制御部(32)と、を備え、
前記ビジュアルオドメトリ部(31)は、前記慣性計測ユニット(26)からの前記慣性データおよび前記ホイールオドメトリユニット(28)からの前記位置関連データに基づいて算出される予想回転および予想並進を作成し、前記予想回転および前記予想並進に基づいて前記推定回転および前記推定並進を評価するように構成された決定規則部(31d)を含む、車両。 - 前記予想並進は、前記予想並進の上限と前記予想並進の下限とを含み、
前記予想回転は、前記予想回転の上限と前記予想回転の下限とを含み、
前記決定規則部(31d)は、前記車両(10)が直線道路上にある場合に前記推定並進が前記予想並進の前記上限と前記下限との間にある場合、前記推定姿勢を受け入れるように構成されている、または、前記車両(10)が曲線道路上にある場合に前記推定並進が前記予想並進の前記上限と前記下限との間にあり、前記推定回転が前記予想回転の前記上限と前記下限との間にある場合、前記推定姿勢を受け入れるように構成されている、請求項10または11に記載の駆動装置または車両。 - 自動モードおよび/または運転支援モードで車両(10)を運転するためのコンピュータ実装された方法であって、
慣性関連データを慣性計測ユニット(26)によって出力するステップと、
位置関連データをホイールオドメトリユニット(28)によって出力するステップと、
第1画像データおよび第2画像データを電磁センサユニット(20)によって出力するステップであって、前記第2画像データは前記第1画像データの前の画像データであるステップと、
ビジュアルオドメトリ部(31)によって、前記慣性関連データと、前記位置関連データと、前記第1画像データと、前記第2画像データとを受信し、前記慣性関連データおよび前記位置関連データに基づいて算出された前記車両(10)の推定姿勢を出力するステップであって、前記推定姿勢が推定回転および推定並進を含むステップと、
制御部(32)によって、前記推定姿勢に基づいて、自動運転モードおよび/または支援運転モードで前記車両(10)を運転するステップと、を備え、
前記推定姿勢を出力するステップは、決定規則部(31d)によって、前記慣性計測ユニット(26)からの前記慣性データおよび前記ホイールオドメトリユニット(28)からの前記位置関連データに基づいて算出される予想回転および予想並進を作成し、前記予想回転および前記予想並進に基づいて前記推定回転および前記推定並進を評価することを含む、方法。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP21386050.5 | 2021-08-11 | ||
| EP21386050.5A EP4134625A1 (en) | 2021-08-11 | 2021-08-11 | Drive device, vehicle, and method for automated driving and/or assisted driving |
| PCT/JP2022/006806 WO2023017624A1 (en) | 2021-08-11 | 2022-02-21 | Drive device, vehicle, and method for automated driving and/or assisted driving |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024526082A JP2024526082A (ja) | 2024-07-17 |
| JP7594691B2 true JP7594691B2 (ja) | 2024-12-04 |
Family
ID=77627080
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023576216A Active JP7594691B2 (ja) | 2021-08-11 | 2022-02-21 | 自動運転および/または支援運転のための駆動装置、車両、および方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20240271941A1 (ja) |
| EP (1) | EP4134625A1 (ja) |
| JP (1) | JP7594691B2 (ja) |
| DE (1) | DE112022002019T5 (ja) |
| WO (1) | WO2023017624A1 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN119618202B (zh) * | 2024-11-29 | 2025-10-21 | 深圳国创具身智能机器人有限公司 | 一种异构机器人的定位方法及相关设备 |
| CN119919275B (zh) * | 2024-12-31 | 2025-10-14 | 华中科技大学 | 一种类脑slam算法的动态可重构硬件加速方法及加速器 |
| CN119705499B (zh) * | 2025-01-20 | 2025-10-10 | 重庆长安汽车股份有限公司 | 自动驾驶车辆的横向控制方法、装置、设备及存储介质 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2015125299A1 (ja) | 2014-02-24 | 2015-08-27 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
| JP2015214282A (ja) | 2014-05-12 | 2015-12-03 | 株式会社デンソー | 運転支援装置 |
| WO2019130945A1 (ja) | 2017-12-27 | 2019-07-04 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び移動体 |
Family Cites Families (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11313684B2 (en) * | 2016-03-28 | 2022-04-26 | Sri International | Collaborative navigation and mapping |
| US10127461B2 (en) * | 2016-08-12 | 2018-11-13 | Here Global B.V. | Visual odometry for low illumination conditions using fixed light sources |
| US10390003B1 (en) * | 2016-08-29 | 2019-08-20 | Perceptln Shenzhen Limited | Visual-inertial positional awareness for autonomous and non-autonomous device |
| SG11201908974XA (en) * | 2017-03-29 | 2019-10-30 | Agency Science Tech & Res | Real time robust localization via visual inertial odometry |
| US10325411B1 (en) * | 2017-12-13 | 2019-06-18 | The Charles Stark Draper Laboratory, Inc. | Egocentric odometry system for maintaining pose alignment between real and virtual worlds |
| US11940277B2 (en) | 2018-05-29 | 2024-03-26 | Regents Of The University Of Minnesota | Vision-aided inertial navigation system for ground vehicle localization |
| US11340355B2 (en) | 2018-09-07 | 2022-05-24 | Nvidia Corporation | Validation of global navigation satellite system location data with other sensor data |
| KR102559203B1 (ko) | 2018-10-01 | 2023-07-25 | 삼성전자주식회사 | 포즈 정보를 출력하는 방법 및 장치 |
| WO2021150779A1 (en) * | 2020-01-21 | 2021-07-29 | Compound Eye Inc. | System and method for egomotion estimation |
-
2021
- 2021-08-11 EP EP21386050.5A patent/EP4134625A1/en not_active Withdrawn
-
2022
- 2022-02-21 JP JP2023576216A patent/JP7594691B2/ja active Active
- 2022-02-21 WO PCT/JP2022/006806 patent/WO2023017624A1/en not_active Ceased
- 2022-02-21 DE DE112022002019.9T patent/DE112022002019T5/de active Pending
- 2022-02-21 US US18/567,517 patent/US20240271941A1/en active Pending
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2015125299A1 (ja) | 2014-02-24 | 2015-08-27 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
| JP2015214282A (ja) | 2014-05-12 | 2015-12-03 | 株式会社デンソー | 運転支援装置 |
| WO2019130945A1 (ja) | 2017-12-27 | 2019-07-04 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及び移動体 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2024526082A (ja) | 2024-07-17 |
| DE112022002019T5 (de) | 2024-03-07 |
| WO2023017624A1 (en) | 2023-02-16 |
| US20240271941A1 (en) | 2024-08-15 |
| EP4134625A1 (en) | 2023-02-15 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111060094B (zh) | 车辆定位方法和装置 | |
| JP7082545B2 (ja) | 情報処理方法、情報処理装置およびプログラム | |
| KR102508843B1 (ko) | 서라운드 뷰 영상에서 차량의 자차 동작을 산정하는 방법 및 장치 | |
| US8213706B2 (en) | Method and system for real-time visual odometry | |
| JP7594691B2 (ja) | 自動運転および/または支援運転のための駆動装置、車両、および方法 | |
| US20200240790A1 (en) | Localization with Neural Network Based Image Registration of Sensor Data and Map Data | |
| EP3532869A1 (en) | Vision-inertial navigation with variable contrast tracking residual | |
| JP2020064056A (ja) | 位置推定装置及び方法 | |
| US9122278B2 (en) | Vehicle navigation | |
| US12236661B2 (en) | Method for generating 3D reference points in a map of a scene | |
| CN112068152A (zh) | 使用3d扫描仪同时进行2d定位和2d地图创建的方法和系统 | |
| CN118209101B (zh) | 一种应用于动态环境的多传感器融合slam方法及系统 | |
| CN116958452A (zh) | 三维重建方法和系统 | |
| JP7179687B2 (ja) | 障害物検知装置 | |
| WO2022062480A1 (zh) | 移动设备的定位方法和定位装置 | |
| JP7337617B2 (ja) | 推定装置、推定方法及びプログラム | |
| KR102506411B1 (ko) | 차량의 위치 및 자세 추정 방법, 장치 및 이를 위한 기록매체 | |
| Li et al. | Indoor localization for an autonomous model car: A marker-based multi-sensor fusion framework | |
| JP7302966B2 (ja) | 移動体 | |
| Sabry et al. | Ground vehicle monocular visual odometry | |
| JP7699241B2 (ja) | 自動運転および/または支援運転のための駆動装置、車両、および方法 | |
| RU2769918C1 (ru) | Способ позиционирования наземного транспортного средства | |
| US20250289131A1 (en) | System, method and non-transitory computer-readable storage device for autonomous navigation of autonomous robot | |
| Rampuria et al. | Iit bombay racing driverless: Autonomous driving stack for formula student ai | |
| Winkens et al. | Optical truck tracking for autonomous platooning |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231211 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241029 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241122 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7594691 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |