[go: up one dir, main page]

JP6926976B2 - Parking assistance device and computer program - Google Patents

Parking assistance device and computer program Download PDF

Info

Publication number
JP6926976B2
JP6926976B2 JP2017219960A JP2017219960A JP6926976B2 JP 6926976 B2 JP6926976 B2 JP 6926976B2 JP 2017219960 A JP2017219960 A JP 2017219960A JP 2017219960 A JP2017219960 A JP 2017219960A JP 6926976 B2 JP6926976 B2 JP 6926976B2
Authority
JP
Japan
Prior art keywords
vehicle
parking
feature points
specified
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017219960A
Other languages
Japanese (ja)
Other versions
JP2019089476A (en
Inventor
吉昭 今村
吉昭 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2017219960A priority Critical patent/JP6926976B2/en
Publication of JP2019089476A publication Critical patent/JP2019089476A/en
Application granted granted Critical
Publication of JP6926976B2 publication Critical patent/JP6926976B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両の駐車を支援する駐車支援装置及びコンピュータプログラムに関する。 The present invention relates to a parking assist device and a computer program that assist in parking a vehicle.

近年、駐車場における駐車操作の一部又は全部を自動で行う駐車支援に関する技術について各種提案されている。そのような駐車支援に関する技術では、例えば駐車の為のステアリング操作のみを自動で行うことも可能であるし、ブレーキ操作やアクセル操作も含めて自動で行うことも可能である。特に近年では、車両の自動運転走行に関する技術が向上するに従って、ユーザの負担を更に軽減する為に公道での走行に加えて駐車場内における入庫又は出庫の為の走行についても自動運転走行で行わせることが提案されている。そのような自動運転走行では、例えば空き駐車スペースへの走行、空き駐車スペースへの進入、駐車スペースからの退出、駐車場出口方面への走行等についても自動で行うことが可能となる。 In recent years, various technologies related to parking support that automatically performs a part or all of parking operations in a parking lot have been proposed. In such a technology related to parking assistance, for example, it is possible to automatically perform only the steering operation for parking, and it is also possible to automatically perform the braking operation and the accelerator operation. Especially in recent years, as the technology related to automatic driving of vehicles has improved, in order to further reduce the burden on the user, in addition to driving on public roads, driving for warehousing or leaving in the parking lot is also performed by automatic driving. Has been proposed. In such automatic driving, for example, traveling to an empty parking space, entering an empty parking space, exiting from a parking space, traveling toward a parking lot exit, and the like can be automatically performed.

上述した各種駐車支援を実施する際には、いずれにおいても駐車場内において空き状態にある駐車スペースを車両側で正確に検出することが重要である。ここで、空き状態にある駐車スペースを車両側で検出する手段の一つとして、車両に設置されたカメラ等の撮像装置によって撮像した撮像画像に基づいて検出する方法が挙げられる。例えば特開2015−170137号公報では、車両に搭載されたカメラで駐車場内を撮像した撮像画像を処理して、撮像画像中に含まれるエッジ画素のエッジ方向を検出し、判定領域内においてエッジ方向が予め定められた方向となるエッジ画素の数が閾値未満であれば、駐車スペースを空き状態と判定する技術について提案されている。 When implementing the various parking assistance described above, it is important for the vehicle to accurately detect the parking space that is vacant in the parking lot. Here, as one of the means for detecting the vacant parking space on the vehicle side, there is a method of detecting based on the captured image captured by an imaging device such as a camera installed in the vehicle. For example, in Japanese Patent Application Laid-Open No. 2015-170137, an image captured in a parking lot is processed by a camera mounted on a vehicle, the edge direction of an edge pixel included in the image is detected, and the edge direction is within the determination region. There has been proposed a technique for determining a parking space as an empty state when the number of edge pixels in a predetermined direction is less than the threshold value.

特開2015−170137号公報(第7−8頁、図6)Japanese Unexamined Patent Publication No. 2015-170137 (pages 7-8, FIG. 6)

しかしながら、上記特許文献1の技術ではエッジ画素の数をカウントする対象となる判定領域は、上記特許文献1の図6や図15に開示されているように駐車スペースの先端付近に設定される。従って、例えば小型の車両が駐車スペースの奥側に駐車している場合には、判定領域内で検出されるエッジ画素が少なくなり、空き状態にあると誤判定されてしまう虞があった。 However, in the technique of Patent Document 1, the determination region for counting the number of edge pixels is set near the tip of the parking space as disclosed in FIGS. 6 and 15 of Patent Document 1. Therefore, for example, when a small vehicle is parked in the back side of the parking space, the number of edge pixels detected in the determination area is reduced, and there is a risk that the vehicle may be erroneously determined to be in an empty state.

また、上記特許文献1の技術では2次元の画像上の点で判定を行っているので、駐車スペースの上方に梁等の障害物がある場合や、駐車スペースの左右に駐車している車の一部が境界線をはみ出している場合において、十分に自車両が駐車可能なスペースがあるにもかかわらず、判定領域内で検出されるエッジ画素が多くなることから空き状態にないと判定されてしまう問題もある。 Further, in the technique of Patent Document 1, since the determination is made by the point on the two-dimensional image, when there is an obstacle such as a beam above the parking space, or when the vehicle is parked on the left and right of the parking space. When a part of the vehicle extends beyond the boundary line, it is determined that the vehicle is not in an empty state because the number of edge pixels detected in the determination area increases even though there is sufficient space for the vehicle to park. There is also a problem that it ends up.

本発明は前記従来における問題点を解消するためになされたものであり、車両の現在位置周辺にある空き状態の駐車スペースを正確に検出することを可能とした駐車支援装置及びコンピュータプログラムを提供することを目的とする。 The present invention has been made to solve the above-mentioned conventional problems, and provides a parking support device and a computer program capable of accurately detecting an empty parking space around the current position of a vehicle. The purpose is.

前記目的を達成するため本発明に係る駐車支援装置は、車両周辺を車両に設置された撮像装置により連続的に撮像した撮像画像を連続撮像画像として取得する画像取得手段と、前記連続撮像画像に基づいて、車両周辺にある複数の特徴点について、前記複数の特徴点毎に前記連続撮像画像の撮像を開始した際の前記撮像装置の初期位置に対する相対的な3次元の位置座標を3次元空間上において特定する特徴点特定手段と、前記特徴点特定手段により特定された前記複数の特徴点の位置座標を、車両が現在位置する駐車場の地図に対する位置を示す3次元の位置座標に修正する座標修正手段と、前記位置座標の修正を行った後に、前記駐車場の地図に対する前記複数の特徴点の配置態様に基づいて、車両の現在位置周辺にある空き状態の駐車スペースを検出する駐車スペース検出手段と、を有する。 In order to achieve the above object, the parking support device according to the present invention includes an image acquisition means for continuously capturing images captured by an image pickup device installed in the vehicle around the vehicle and the continuously captured images. Based on this, for a plurality of feature points around the vehicle, the three-dimensional position coordinates relative to the initial position of the imaging device when the continuous imaging of the continuous captured image is started for each of the plurality of feature points is set in a three-dimensional space. The feature point identifying means specified above and the position coordinates of the plurality of feature points specified by the feature point identifying means are corrected to three-dimensional position coordinates indicating the position of the parking lot where the vehicle is currently located with respect to the map. A parking space that detects an empty parking space around the current position of the vehicle based on the coordinate correction means and the arrangement mode of the plurality of feature points on the map of the parking lot after the position coordinates are corrected. It has a detection means.

また、本発明に係るコンピュータプログラムは、駐車場内における車両の駐車支援を行う為のコンピュータプログラムである。具体的には、コンピュータを、車両周辺を車両に設置された撮像装置により連続的に撮像した撮像画像を連続撮像画像として取得する画像取得手段と、前記連続撮像画像に基づいて、車両周辺にある複数の特徴点について、前記複数の特徴点毎に前記連続撮像画像の撮像を開始した際の前記撮像装置の初期位置に対する相対的な3次元の位置座標を3次元空間上において特定する特徴点特定手段と、前記特徴点特定手段により特定された前記複数の特徴点の位置座標を、車両が現在位置する駐車場の地図に対する位置を示す3次元の位置座標に修正する座標修正手段と、前記位置座標の修正を行った後に、前記駐車場の地図に対する前記複数の特徴点の配置態様に基づいて、車両の現在位置周辺にある空き状態の駐車スペースを検出する駐車スペース検出手段と、して機能させる。 Further, the computer program according to the present invention is a computer program for assisting parking of a vehicle in a parking lot. Specifically, the computer is located in the vicinity of the vehicle based on an image acquisition means for continuously capturing an image captured by an imaging device installed in the vehicle around the vehicle as a continuously captured image and the continuously captured image. For a plurality of feature points, feature point identification that specifies, in the three-dimensional space, three-dimensional position coordinates relative to the initial position of the imaging device when the continuous imaging of the continuous captured image is started for each of the plurality of feature points. Means, coordinate correction means for correcting the position coordinates of the plurality of feature points specified by the feature point specifying means to three-dimensional position coordinates indicating the position of the parking lot where the vehicle is currently located with respect to the map, and the position. After correcting the coordinates, it functions as a parking space detecting means for detecting an empty parking space around the current position of the vehicle based on the arrangement mode of the plurality of feature points on the map of the parking lot. Let me.

前記構成を有する本発明に係る駐車支援装置及びコンピュータプログラムによれば、車両に設置された撮像装置により連続的に撮像した撮像画像に基づいて特定された相対的な特徴点の3次元点群を、実際の駐車場の地図と対応させることによって空き状態にある駐車スペースを検出するので、車両の現在位置周辺にある空き状態の駐車スペースを正確に検出することが可能となる。特に、3次元的に駐車スペースの空き状態を判断することが可能となるので、駐車スペースの一部のみに障害物が存在する場合や、駐車スペースの上方に障害物がある場合等において、従来に比べて車両の駐車が可能な駐車スペースか否かを正確に判断可能となる。 According to the parking support device and the computer program according to the present invention having the above configuration, a three-dimensional point cloud of relative feature points specified based on images continuously captured by an image pickup device installed in a vehicle is obtained. Since the vacant parking space is detected by associating it with the map of the actual parking lot, it is possible to accurately detect the vacant parking space around the current position of the vehicle. In particular, since it is possible to determine the vacancy state of the parking space three-dimensionally, when there is an obstacle only in a part of the parking space, or when there is an obstacle above the parking space, etc. Compared to the above, it is possible to accurately determine whether or not the parking space allows the vehicle to be parked.

本実施形態に係るナビゲーション装置を示したブロック図である。It is a block diagram which showed the navigation device which concerns on this embodiment. 駐車場の構造の一例を示した図である。It is a figure which showed an example of the structure of a parking lot. 本実施形態に係る駐車支援処理プログラムのフローチャートである。It is a flowchart of the parking support processing program which concerns on this embodiment. 撮像画像中に含まれる特徴点を示した図である。It is a figure which showed the feature point included in the captured image. vSLAMで生成される3次元点群が配置される3次元空間の座標系を示した図である。It is a figure which showed the coordinate system of the 3D space in which the 3D point cloud generated by vSLAM is arranged. vSLAMで生成される3次元点群の一例を示した図である。It is a figure which showed an example of the 3D point cloud generated by vSLAM. 駐車スペースの境界の端部が位置する範囲を示した図である。It is a figure which showed the range where the end of the boundary of a parking space is located. 修正後の最終的な3次元点群の一例を示した図である。It is a figure which showed an example of the final 3D point cloud after correction. 修正後の最終的な3次元点群の配置態様を示した図である。It is a figure which showed the arrangement mode of the final 3D point cloud after correction.

以下、本発明に係る駐車支援装置をナビゲーション装置1に具体化した一実施形態について図面を参照しつつ詳細に説明する。先ず、本実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は本実施形態に係るナビゲーション装置1を示したブロック図である。 Hereinafter, an embodiment in which the parking support device according to the present invention is embodied in the navigation device 1 will be described in detail with reference to the drawings. First, the schematic configuration of the navigation device 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a navigation device 1 according to the present embodiment.

図1に示すように本実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ユーザに対して車両周辺の地図や駐車の支援に関する案内画面等を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスや駐車の支援に関する案内等を出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、を有している。また、ナビゲーション装置1はCAN等の車載ネットワークを介して、ナビゲーション装置1の搭載された車両に対して設置された車外カメラ19や各種センサが接続されている。更に、ナビゲーション装置1の搭載された車両に対する各種制御を行う車両制御ECU20とも双方向通信可能に接続されている。また、駐車支援開始ボタン等の車両に搭載された各種操作ボタン21についても接続されている。 As shown in FIG. 1, the navigation device 1 according to the present embodiment includes a current position detection unit 11 that detects the current position of a vehicle on which the navigation device 1 is mounted, a data recording unit 12 in which various data are recorded, and a data recording unit 12. A navigation ECU 13 that performs various arithmetic processes based on the input information, an operation unit 14 that receives operations from the user, and a liquid crystal display that displays a map around the vehicle, a guidance screen for parking support, etc. to the user. 15, a speaker 16 that outputs voice guidance regarding route guidance, guidance regarding parking support, etc., a DVD drive 17 that reads a DVD as a storage medium, a probe center, a VICS (registered trademark: Vehicle Information and Communication System) center, etc. It has a communication module 18 that communicates with the information center of the above. Further, the navigation device 1 is connected to an external camera 19 and various sensors installed for the vehicle on which the navigation device 1 is mounted via an in-vehicle network such as CAN. Further, it is also connected to the vehicle control ECU 20 that performs various controls on the vehicle on which the navigation device 1 is mounted so as to be capable of bidirectional communication. In addition, various operation buttons 21 mounted on the vehicle such as the parking support start button are also connected.

以下に、ナビゲーション装置1が有する各構成要素について順に説明する。
現在位置検出部11は、GPS22、車速センサ23、ステアリングセンサ24、ジャイロセンサ25等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ23は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Hereinafter, each component of the navigation device 1 will be described in order.
The current position detection unit 11 includes a GPS 22, a vehicle speed sensor 23, a steering sensor 24, a gyro sensor 25, and the like, and can detect the current position, direction, vehicle running speed, current time, and the like of the vehicle. .. Here, in particular, the vehicle speed sensor 23 is a sensor for detecting the moving distance and the vehicle speed of the vehicle, generates a pulse according to the rotation of the driving wheel of the vehicle, and outputs the pulse signal to the navigation ECU 13. Then, the navigation ECU 13 calculates the rotation speed and the moving distance of the drive wheels by counting the generated pulses. It is not necessary for the navigation device 1 to include all of the above four types of sensors, and the navigation device 1 may include only one or a plurality of of these sensors.

また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や駐車場地図DB32や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12をハードディスクの代わりにフラッシュメモリやメモリーカードやCDやDVD等の光ディスクを有しても良い。また、地図情報DB31や駐車場地図DB32は外部のサーバに格納させ、ナビゲーション装置1が通信により取得する構成としても良い。 Further, the data recording unit 12 reads a hard disk (not shown) as an external storage device and a recording medium, a map information DB 31 and a parking lot map DB 32 recorded on the hard disk, a predetermined program, and the like, and also reads predetermined data on the hard disk. It is equipped with a recording head (not shown) that is a driver for writing data. The data recording unit 12 may have a flash memory, a memory card, or an optical disk such as a CD or DVD instead of the hard disk. Further, the map information DB 31 and the parking lot map DB 32 may be stored in an external server and acquired by the navigation device 1 by communication.

ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ、ノード点に関するノードデータ、経路の探索や変更に係る処理に用いられる探索データ、施設に関する施設データ、地図を表示するための地図表示データ、各交差点に関する交差点データ、地点を検索するための検索データ等が記憶された記憶手段である。 Here, the map information DB 31 is, for example, link data related to a road (link), node data related to a node point, search data used for processing related to route search or change, facility data related to a facility, and a map for displaying a map. It is a storage means that stores display data, intersection data for each intersection, search data for searching a point, and the like.

一方、駐車場地図DB32は、全国にある各駐車場の地図に関する情報が記憶された記憶手段である。尚、駐車場地図DB32に記憶される駐車場の地図は基本的に2次元の地図とするが、3次元の地図としても良い。尚、駐車場の地図には、駐車場の全体形状に加えて、駐車場内に配置された通路や駐車スペースに関する情報(例えば、位置、形状、勾配等)が含まれる。また、特に駐車スペースを特定する情報としては、駐車スペースを区画する境界(例えば白線や壁)の位置や形状、駐車スペース毎の幅を特定する情報についても含まれる。但し、駐車スペースの幅については駐車場地図DB32には含まずに、駐車スペースの境界の位置から算出するようにしても良い。 On the other hand, the parking lot map DB 32 is a storage means for storing information on maps of each parking lot in the whole country. The parking lot map stored in the parking lot map DB 32 is basically a two-dimensional map, but a three-dimensional map may be used. The map of the parking lot includes information on passages and parking spaces arranged in the parking lot (for example, position, shape, slope, etc.) in addition to the overall shape of the parking lot. In particular, the information for specifying the parking space includes information for specifying the position and shape of the boundary (for example, a white line or a wall) that divides the parking space, and the width of each parking space. However, the width of the parking space may not be included in the parking lot map DB 32 and may be calculated from the position of the boundary of the parking space.

また、駐車場地図DB32には、駐車場内の駐車スペース判定領域35を特定する情報についても含まれる。ここで、駐車スペース判定領域35とは、駐車場内において特に車両が空き状態の駐車スペースの検出を行う対象となる領域であり、図2に示すように駐車場36において車両が通行可能な通路上であって、且ついずれかの駐車スペース37へと進入する駐車操作を開始することが可能な領域が該当する。例えば駐車スペース37の進入口に接する通路が駐車スペース判定領域35となる。そして、ナビゲーション装置1は、後述のように車両が駐車スペース判定領域35内に位置する間において継続的に空き状態の駐車スペースの検出を行う。 In addition, the parking lot map DB 32 also includes information for identifying the parking space determination area 35 in the parking lot. Here, the parking space determination area 35 is an area in the parking lot where the vehicle is particularly targeted for detecting an empty parking space, and as shown in FIG. 2, on the passage through which the vehicle can pass in the parking lot 36. However, the area in which the parking operation for entering any of the parking spaces 37 can be started is applicable. For example, the passage in contact with the entrance of the parking space 37 is the parking space determination area 35. Then, the navigation device 1 continuously detects the vacant parking space while the vehicle is located in the parking space determination area 35 as described later.

尚、駐車場の領域、駐車場内にある通路、駐車スペース判定領域35、駐車スペース、境界の各位置は、それぞれ緯度経度によって特定され、駐車場地図DB32に格納される。また、ナビゲーション装置1は、予め全ての駐車場の地図を駐車場地図DB32に格納しても良いし、車両が駐車場へ進入する際に外部のサーバから進入する駐車場の地図を通信により取得し、駐車場地図DB32に格納する構成としても良い。 Each position of the parking lot area, the passage in the parking lot, the parking space determination area 35, the parking space, and the boundary is specified by the latitude and longitude and stored in the parking lot map DB 32. Further, the navigation device 1 may store the map of all the parking lots in the parking lot map DB 32 in advance, or obtains the map of the parking lot entering from an external server when the vehicle enters the parking lot by communication. However, it may be configured to be stored in the parking lot map DB 32.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の駐車支援処理プログラム(図3参照)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を有する。例えば、画像取得手段は、車両周辺を車両に設置された車外カメラ19により連続的に撮像した撮像画像を連続撮像画像として取得する。特徴点特定手段は、連続撮像画像に基づいて、車両周辺にある複数の特徴点について、複数の特徴点毎に連続撮像画像の撮像を開始した際の車外カメラ19の初期位置に対する相対的な3次元の位置座標を3次元空間上において特定する。座標修正手段は、特徴点特定手段により特定された複数の特徴点の位置座標を、車両が現在位置する駐車場の地図に対する位置を示す3次元の位置座標に修正する。駐車スペース検出手段は、位置座標の修正を行った後に、駐車場の地図に対する複数の特徴点の配置態様に基づいて、車両の現在位置周辺にある空き状態の駐車スペースを検出する。 On the other hand, the navigation ECU (electronic control unit) 13 is an electronic control unit that controls the entire navigation device 1, and is a computing device, a CPU 41 as a control device, and a working memory when the CPU 41 performs various arithmetic processes. In addition to being used as a RAM 42 for storing route data and the like when a route is searched, a control program, and a ROM 43 and a ROM 43 in which a parking support processing program (see FIG. 3) described later is recorded are read. It is provided with an internal storage device such as a flash memory 44 for storing the program. The navigation ECU 13 has various means as a processing algorithm. For example, the image acquisition means acquires captured images continuously captured by an external camera 19 installed in the vehicle as a continuous captured image. Based on the continuously captured images, the feature point identifying means is relative to the initial position of the external camera 19 when the continuous imaging of the plurality of feature points around the vehicle is started for each of the plurality of feature points. Specify the position coordinates of the dimension in the three-dimensional space. The coordinate correction means corrects the position coordinates of the plurality of feature points specified by the feature point specifying means into three-dimensional position coordinates indicating the position of the parking lot where the vehicle is currently located with respect to the map. After correcting the position coordinates, the parking space detecting means detects an empty parking space around the current position of the vehicle based on the arrangement mode of the plurality of feature points on the map of the parking lot.

操作部14は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)から構成される。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14は液晶ディスプレイ15の前面に設けたタッチパネルを有しても良い。また、マイクと音声認識装置を有しても良い。 The operation unit 14 is operated when inputting a starting point as a traveling start point and a destination as a traveling end point, and is composed of a plurality of operation switches (not shown) such as various keys and buttons. Then, the navigation ECU 13 controls to execute various corresponding operations based on the switch signals output by pressing each switch or the like. The operation unit 14 may have a touch panel provided on the front surface of the liquid crystal display 15. It may also have a microphone and a voice recognition device.

また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、案内経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。また、本実施形態では後述の駐車支援を行う場合には、駐車支援に関する案内についても表示する。尚、液晶ディスプレイ15の代わりに、HUDやHMDを用いても良い。 In addition, the liquid crystal display 15 displays a map image including roads, traffic information, operation guidance, operation menus, key guidance, guidance information along the guidance route, news, weather forecast, time, mail, TV program, and the like. NS. Further, in the present embodiment, when the parking support described later is performed, the guidance regarding the parking support is also displayed. A HUD or HMD may be used instead of the liquid crystal display 15.

また、スピーカ16は、ナビゲーションECU13からの指示に基づいて案内経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。また、本実施形態では後述の駐車支援を行う場合には、駐車支援に関する音声案内についても出力する。 Further, the speaker 16 outputs voice guidance for guiding the traveling along the guidance route and traffic information guidance based on the instruction from the navigation ECU 13. Further, in the present embodiment, when the parking support described later is performed, the voice guidance regarding the parking support is also output.

ここで、本実施形態では、車両が駐車する際の駐車支援として、ユーザの運転操作によらず車両がナビゲーション装置1側で設定された経路に沿って自動的に駐車スペースへの駐車操作を行う自動駐車が可能である。尚、手動で駐車を行うか上記自動駐車により駐車を行うかについてはユーザの操作により選択可能である。従って、本実施形態では車両が前述した駐車場内の駐車スペース判定領域35(図2参照)を走行する間において、ナビゲーション装置1は車両の現在位置に加えて自車周辺にある空き状態の駐車スペースを随時検出する。そして、空き状態の駐車スペースを検出した場合であって且つユーザが自動駐車を選択した場合に、空き状態の駐車スペースへの進入経路を設定し、設定された経路に沿って空き状態の駐車スペースへと進入するようにステアリング、駆動源、ブレーキ等の車両制御が自動で行われる。尚、ステアリングのみの制御を行い、アクセル、シフト位置、ブレーキの操作はユーザ側で行わせることとしても良い。また、空き状態の駐車スペースへ駐車する為の駐車操作の案内(例えばステアリングの操作位置、操作角度、停止、発進)のみをナビゲーション装置1で行い、車両に関する操作(ステアリング操作含む)は全てユーザ側で行わせることとしても良い。 Here, in the present embodiment, as parking assistance when the vehicle is parked, the vehicle automatically parks in the parking space along the route set on the navigation device 1 side regardless of the driving operation of the user. Automatic parking is possible. It should be noted that the user can select whether to park manually or by the above-mentioned automatic parking. Therefore, in the present embodiment, while the vehicle is traveling in the parking space determination area 35 (see FIG. 2) in the parking lot described above, the navigation device 1 is in addition to the current position of the vehicle and is an empty parking space around the own vehicle. Is detected at any time. Then, when a vacant parking space is detected and the user selects automatic parking, an approach route to the vacant parking space is set, and the vacant parking space is set along the set route. Vehicle control such as steering, drive source, and brake is automatically performed so as to enter the vehicle. It should be noted that only the steering may be controlled, and the accelerator, shift position, and brake may be operated by the user. In addition, only the guidance of parking operation for parking in an empty parking space (for example, steering operation position, operation angle, stop, start) is performed by the navigation device 1, and all operations related to the vehicle (including steering operation) are performed on the user side. It is also possible to let it be done at.

また、駐車時のみではなく通常走行時においても自動運転による走行を行うこととしても良い。その場合には、目的地となる駐車場をナビゲーション装置1に対して設定すれば、出発地の走行開始から目的地となる駐車場内での駐車スペースへの駐車までを自動運転で行うことも可能である。 Further, the vehicle may be driven by automatic driving not only during parking but also during normal driving. In that case, if the destination parking lot is set for the navigation device 1, it is possible to automatically drive from the start of traveling at the departure point to the parking in the parking space in the destination parking lot. Is.

また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。尚、DVDドライブ17に替えてメモリーカードを読み書きする為のカードスロットを設けても良い。 The DVD drive 17 is a drive capable of reading data recorded on a recording medium such as a DVD or a CD. Then, based on the read data, music and video are reproduced, the map information DB 31 is updated, and the like. A card slot for reading and writing a memory card may be provided instead of the DVD drive 17.

また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された交通情報、プローブ情報、天候情報等を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。また、車車間で通信を行う車車間通信装置や路側機との間で通信を行う路車間通信装置も含む。 Further, the communication module 18 is a communication device for receiving traffic information, probe information, weather information, etc. transmitted from a traffic information center, for example, a VICS center, a probe center, etc., and corresponds to, for example, a mobile phone or a DCM. .. It also includes a vehicle-to-vehicle communication device that communicates between vehicles and a road-to-vehicle communication device that communicates with a roadside unit.

また、車外カメラ19は、例えばCCD等の固体撮像素子を用いたカメラにより構成され、車両のフロントバンパの上方やルームミラーの裏側に取り付けられるとともに光軸方向を水平より所定角度下方に向けて設置される。そして、車外カメラ19は、車両が駐車場内を走行する場合において、車両の進行方向前方を撮像する。尚、車外カメラ19は静止画像を撮像するスチルカメラであっても良いし、動画像を撮像するビデオカメラであっても良い。但し、スチルカメラである場合には、所定間隔で連続して画像を撮像するようにする。また、ナビゲーション装置1は車外カメラ19で連続的に撮像された撮像画像(動画像も含む)に対して画像処理を行うことによって、後述のように車両の周辺にある空き状態の駐車スペースを検出する。尚、車外カメラ19は車両前方以外に後方や側方に配置するように構成しても良い。 Further, the vehicle exterior camera 19 is composed of a camera using a solid-state image sensor such as a CCD, and is mounted above the front bumper of the vehicle or behind the rearview mirror, and is installed with the optical axis direction directed downward by a predetermined angle from the horizontal. Will be done. Then, the outside camera 19 images the front of the vehicle in the traveling direction when the vehicle travels in the parking lot. The external camera 19 may be a still camera that captures a still image, or may be a video camera that captures a moving image. However, in the case of a still camera, images are continuously captured at predetermined intervals. Further, the navigation device 1 detects an empty parking space around the vehicle as described later by performing image processing on the captured images (including moving images) continuously captured by the external camera 19. do. The external camera 19 may be arranged so as to be arranged behind or to the side of the vehicle in addition to the front of the vehicle.

また、車両制御ECU20は、ナビゲーション装置1が搭載された車両の制御を行う電子制御ユニットである。また、車両制御ECU20にはステアリング、ブレーキ、アクセル等の車両の各駆動部と接続されており、本実施形態では特に車両において駐車支援が開始された後に、各駆動部を制御することにより上述した車両の自動駐車を実施する。 Further, the vehicle control ECU 20 is an electronic control unit that controls the vehicle on which the navigation device 1 is mounted. Further, the vehicle control ECU 20 is connected to each drive unit of the vehicle such as steering, brake, accelerator, etc., and in the present embodiment, the above-mentioned is described by controlling each drive unit particularly after the parking support is started in the vehicle. Carry out automatic parking of vehicles.

ここで、ナビゲーションECU13は、駐車支援開始後にCANを介して車両制御ECU20に対して駐車支援に関する指示信号を送信する。そして、車両制御ECU20は受信した指示信号に応じて自動駐車を実施する。尚、指示信号の内容は、自車両の現在位置、駐車対象となる駐車スペースの位置、駐車スペースへの進入経路、駐車支援の開始、中止、変更等を指示する情報である。尚、ナビゲーションECU13でなく車両制御ECU20が進入経路を設定する構成としても良い。その場合には、車両制御ECU20はナビゲーション装置1から進入経路の設定に必要な情報を取得するように構成する。 Here, the navigation ECU 13 transmits an instruction signal regarding parking support to the vehicle control ECU 20 via the CAN after the parking support is started. Then, the vehicle control ECU 20 automatically parks in response to the received instruction signal. The content of the instruction signal is information for instructing the current position of the own vehicle, the position of the parking space to be parked, the approach route to the parking space, the start, stop, change, etc. of the parking support. The vehicle control ECU 20 may be configured to set the approach route instead of the navigation ECU 13. In that case, the vehicle control ECU 20 is configured to acquire information necessary for setting the approach route from the navigation device 1.

続いて、上記構成を有する本実施形態に係るナビゲーション装置1においてCPU41が実行する駐車支援処理プログラムについて図3に基づき説明する。図3は本実施形態に係る駐車支援処理プログラムのフローチャートである。ここで、駐車支援処理プログラムは、車両のACC電源(accessory power supply)がONされた後に実行され、駐車場で車両が駐車を行う際の支援を行うプログラムである。尚、以下の図3にフローチャートで示されるプログラムは、ナビゲーション装置1が備えているRAM42やROM43に記憶されており、CPU41により実行される。 Subsequently, a parking support processing program executed by the CPU 41 in the navigation device 1 according to the present embodiment having the above configuration will be described with reference to FIG. FIG. 3 is a flowchart of the parking support processing program according to the present embodiment. Here, the parking support processing program is a program that is executed after the ACC power supply (accessory power supply) of the vehicle is turned on to support the vehicle when parking in the parking lot. The program shown in the flowchart in FIG. 3 below is stored in the RAM 42 or ROM 43 included in the navigation device 1 and is executed by the CPU 41.

先ず、運転支援処理プログラムでは、ステップ(以下、Sと略記する)1において、CPU41は現在位置検出部11により検出した車両の現在位置を取得する。尚、車両の現在位置の検出では、GPS22、車速センサ23、ジャイロセンサ25等の各種センサを複合的に用い、より高精度に車両の現在位置を検出するのが望ましい。また、前記S1で取得する車両の位置は緯度経度(絶対座標)とする。 First, in the driving support processing program, in step 1 (hereinafter abbreviated as S) 1, the CPU 41 acquires the current position of the vehicle detected by the current position detection unit 11. In detecting the current position of the vehicle, it is desirable to use various sensors such as GPS 22, the vehicle speed sensor 23, and the gyro sensor 25 in combination to detect the current position of the vehicle with higher accuracy. Further, the position of the vehicle acquired in S1 is the latitude / longitude (absolute coordinates).

次に、S2においてCPU41は、前記S1で取得した車両の現在位置と、駐車場地図DB32に記憶された駐車場の地図とを比較し、車両がいずれかの駐車場内に位置するか否かを判定する。尚、駐車場地図DB32には、全国の各駐車場の領域を特定する緯度経度(例えば駐車場の四隅の緯度経度)に関する情報が格納されている。 Next, in S2, the CPU 41 compares the current position of the vehicle acquired in S1 with the map of the parking lot stored in the parking lot map DB 32, and determines whether or not the vehicle is located in any of the parking lots. judge. The parking lot map DB 32 stores information on latitude and longitude (for example, latitude and longitude of the four corners of the parking lot) that specify the area of each parking lot nationwide.

そして、車両がいずれかの駐車場内に位置すると判定された場合(S2:YES)には、S3へと移行する。それに対して、車両が駐車場内に位置しないと判定された場合(S2:NO)には、車両に対する駐車支援を行うことなく当該駐車支援処理プログラムを終了する。 Then, when it is determined that the vehicle is located in any of the parking lots (S2: YES), the process proceeds to S3. On the other hand, when it is determined that the vehicle is not located in the parking lot (S2: NO), the parking support processing program is terminated without providing parking support for the vehicle.

S3においてCPU41は、車外カメラ19により連続的に撮像した撮像画像(以下、連続撮像画像という)に基づいて、“(A)車両周辺にある特徴点の位置”と、“(B)連続撮像画像を撮像する間の車外カメラ19の位置”について夫々特定し、特定した各位置を示す点を同じ3次元空間上にプロット(生成)する。尚、連続撮像画像は、車外カメラ19がビデオカメラである場合には必ずしも連続するフレームである必要はなく、一定のフレーム間隔の画像であっても良い。3次元空間上において前記S3で生成された点の集合を、以下では3次元点群という。以下にS3の処理についてより詳細に説明する。 In S3, the CPU 41 describes "(A) the position of the feature point around the vehicle" and "(B) the continuously captured image" based on the captured images (hereinafter referred to as "continuously captured images") continuously captured by the external camera 19. The positions of the external cameras 19 during the imaging of the image are specified, and the points indicating the specified positions are plotted (generated) in the same three-dimensional space. When the camera outside the vehicle 19 is a video camera, the continuously captured images do not necessarily have to be continuous frames, and may be images at regular frame intervals. The set of points generated in S3 in the three-dimensional space is hereinafter referred to as a three-dimensional point cloud. The processing of S3 will be described in more detail below.

ここで、『特徴点』とは際立って検出できる画像上の点であり、具体的には輝度エッジの角(コーナー)が該当する。例えば、図4に示すように、駐車場内で車外カメラ19により撮像された撮像画像51には、多数の特徴点53が含まれている。車両を構成する各パーツ(バンパー、ナンバープレート、サイドミラー、タイヤ、ホイール等)の角部、車止めの角部、路面に描かれた線や文字の端部、路面の段差、路面上の汚れ等が特徴点53に該当する。また、本実施形態では公知のvSLAM(visual SLAM)と呼ばれる手法を用いることによって、連続撮像画像から車両周辺にある上記特徴点53を3次元の位置座標で特定する。但し、vSLAMで特定される位置座標は相対的な位置座標となり、具体的には連続撮像画像の撮像を開始した際の車外カメラ19の初期位置に対する相対的な3次元の位置座標で特定される。例えば、図5に示すように連続撮像画像の撮像を開始した際の車外カメラ19の初期位置を基準とした3次元座標系により特定される。そして、CPU41は、特定された位置座標に特徴点53をプロット(生成)する。尚、座標の単位はdotとなる。但し、車両周辺の特徴点53を3次元的に特定可能であれば、vSLAM以外の手法を用いても良い。 Here, the "feature point" is a point on the image that can be detected conspicuously, and specifically, the corner of the luminance edge corresponds to the point. For example, as shown in FIG. 4, the captured image 51 captured by the outside camera 19 in the parking lot includes a large number of feature points 53. Corners of each part (bumper, license plate, side mirrors, tires, wheels, etc.) that make up the vehicle, corners of the bollard, edges of lines and letters drawn on the road surface, steps on the road surface, dirt on the road surface, etc. Corresponds to feature point 53. Further, in the present embodiment, by using a known method called vSLAM (visual SLAM), the feature point 53 around the vehicle is specified by three-dimensional position coordinates from the continuously captured images. However, the position coordinates specified by vSLAM are relative position coordinates, and specifically, they are specified by three-dimensional position coordinates relative to the initial position of the external camera 19 when the continuous imaging image is started to be captured. .. For example, as shown in FIG. 5, it is specified by a three-dimensional coordinate system based on the initial position of the external camera 19 when the continuous imaging image is started to be captured. Then, the CPU 41 plots (generates) the feature points 53 at the specified position coordinates. The unit of coordinates is dot. However, if the feature point 53 around the vehicle can be specified three-dimensionally, a method other than vSLAM may be used.

また、前記S3では上記特徴点53の位置座標の特定と並行して、同じくvSLAMを用いて連続撮像画像を撮像する間の車外カメラ19の位置座標及び方位(光軸方向)についても特定される。連続撮像画像を撮像する間の車外カメラ19の位置座標及び方位は、連続撮像画像の撮像を開始した際の車外カメラ19の初期位置及び初期方位に対する相対的な3次元の位置座標及び角度で特定される。特に、車外カメラ19の位置座標は、上記特徴点53と同じく図5に示すように連続撮像画像の撮像を開始した際の車外カメラ19の初期位置を基準とした3次元座標系により特定される。そして、特徴点53と同一の3次元空間上(3次元座標系)で、特定された位置座標に車外カメラ19の位置をプロット(生成)する。尚、座標の単位はdotとなる。S3の処理は車両が駐車場内に位置する間において継続して行われる。 Further, in S3, in parallel with the specification of the position coordinates of the feature point 53, the position coordinates and the orientation (optical axis direction) of the external camera 19 during the continuous acquisition of the captured image using vSLAM are also specified. .. The position coordinates and orientation of the external camera 19 during the continuous acquisition of the captured image are specified by the three-dimensional position coordinates and angles relative to the initial position and initial orientation of the external camera 19 when the continuous imaging image is started to be captured. Will be done. In particular, the position coordinates of the outside camera 19 are specified by a three-dimensional coordinate system based on the initial position of the outside camera 19 when the continuous acquisition of the captured image is started as shown in FIG. 5 as in the feature point 53. .. Then, the position of the outside camera 19 is plotted (generated) on the specified position coordinates on the same three-dimensional space (three-dimensional coordinate system) as the feature point 53. The unit of coordinates is dot. The processing of S3 is continuously performed while the vehicle is located in the parking lot.

そして、図6は前記S3で最終的に生成される3次元点群の一例を示した図である。薄いグレーの点が車両周辺にある特徴点53を示し、黒の点が連続撮像画像を撮像する間の車外カメラ19の位置54を示している。図6に示す例では車外カメラ19(即ち車両)がα方向に移動することによって、α方向に沿って車外カメラ19の撮像範囲内にある特徴点53が特定されている。尚、3次元点群は3次元空間上に配置され、上述したように連続撮像画像の撮像を開始した際の車外カメラ19の初期位置を基準とした3次元座標系により位置座標が特定されている。 FIG. 6 is a diagram showing an example of the three-dimensional point cloud finally generated in S3. The light gray dots indicate the feature points 53 around the vehicle, and the black dots indicate the position 54 of the outside camera 19 while capturing the continuously captured images. In the example shown in FIG. 6, the feature point 53 within the imaging range of the outside camera 19 is specified along the α direction by moving the outside camera 19 (that is, the vehicle) in the α direction. The three-dimensional point cloud is arranged in the three-dimensional space, and the position coordinates are specified by the three-dimensional coordinate system based on the initial position of the external camera 19 when the continuous imaging image is started to be captured as described above. There is.

続いて、S4においてCPU41は、前記S1で取得した車両の現在位置と、駐車場地図DB32に記憶された駐車場の地図とを比較し、車両が駐車場内の特に駐車スペース判定領域35に位置するか否かを判定する。尚、駐車スペース判定領域35は前述したように駐車場内のいずれかの駐車スペースへと進入する駐車操作を開始することが可能な領域が該当する(図2参照)。尚、駐車場地図DB32には、全国の駐車場毎に駐車スペース判定領域35を特定する緯度経度(例えば駐車スペース判定領域35の四隅の緯度経度)に関する情報が格納されている。 Subsequently, in S4, the CPU 41 compares the current position of the vehicle acquired in S1 with the map of the parking lot stored in the parking lot map DB 32, and the vehicle is located in the parking lot, particularly in the parking space determination area 35. Judge whether or not. As described above, the parking space determination area 35 corresponds to an area where a parking operation for entering any parking space in the parking lot can be started (see FIG. 2). The parking lot map DB 32 stores information on the latitude and longitude (for example, the latitude and longitude of the four corners of the parking space determination area 35) that specifies the parking space determination area 35 for each parking lot nationwide.

そして、車両が駐車場内の特に駐車スペース判定領域35に位置すると判定された場合(S4:YES)には、S5へと移行する。それに対して、車両が駐車スペース判定領域35外に位置すると判定された場合(S4:NO)には、車両に対する駐車支援を行うことなく当該駐車支援処理プログラムを終了する。 Then, when it is determined that the vehicle is located in the parking space determination area 35 in particular (S4: YES), the process proceeds to S5. On the other hand, when it is determined that the vehicle is located outside the parking space determination area 35 (S4: NO), the parking support processing program is terminated without providing parking assistance to the vehicle.

S5においてCPU41は、現在の車外カメラ19の位置を算出する。具体的には、前記S1で取得した最新の車両の現在位置の緯度経度と、車両に対する車外カメラ19の設置位置を特定する情報とに基づいて、3次元の絶対座標で現在の車外カメラ19の位置を算出する。具体的には、(緯度、経度、高さ(標高))を算出する。尚、車両に対する車外カメラ19の設置位置を特定する情報は、予めデータ記録部12に格納されている。また、前記S5では現在の車外カメラ19の絶対方位についても同様に算出される。 In S5, the CPU 41 calculates the current position of the external camera 19. Specifically, based on the latitude and longitude of the latest vehicle current position acquired in S1 and the information for identifying the installation position of the vehicle exterior camera 19 with respect to the vehicle, the current vehicle exterior camera 19 has three-dimensional absolute coordinates. Calculate the position. Specifically, (latitude, longitude, height (elevation)) is calculated. Information for specifying the installation position of the external camera 19 with respect to the vehicle is stored in the data recording unit 12 in advance. Further, in S5, the absolute orientation of the current external camera 19 is also calculated in the same manner.

続いて、S6においてCPU41は、先ず前記S5で算出した現在の車外カメラ19の位置から撮像範囲内で最も近い位置にある駐車スペース(以下、近接駐車スペースという)を、駐車場地図DB32から読み出した駐車場の地図に基づいて特定する。例えば、図7に示すように車両55が駐車スペースの前方を走行する場合には、車外カメラ19の位置から撮像範囲内で最も近い位置にある駐車スペース56が近接駐車スペースとなる。次に、CPU41は、特定された近接駐車スペースの幅方向の一辺の境界(以下、第1境界という)と他辺の境界(以下、第2境界という)との配置間隔、即ち“近接駐車スペースの幅”を同じく駐車場地図DB32から取得する。第1境界及び第2境界は、白線等の路面上に描かれた線の場合もあるし、壁や柱などの構造物の場合もある。尚、駐車場地図DB32には、予め駐車場毎且つ駐車スペース毎に駐車場内での駐車スペースの配置や駐車スペースの幅に関する情報が格納されている。但し、駐車スペースの幅については、駐車場地図DB32に格納された第1境界と第2境界の位置から算出するようにしても良い。 Subsequently, in S6, the CPU 41 first reads out the parking space (hereinafter, referred to as a proximity parking space) closest to the current position of the external camera 19 calculated in S5 within the imaging range from the parking lot map DB 32. Identify based on the parking map. For example, when the vehicle 55 travels in front of the parking space as shown in FIG. 7, the parking space 56 closest to the position of the external camera 19 within the imaging range is the proximity parking space. Next, the CPU 41 has an arrangement interval between the boundary of one side (hereinafter referred to as the first boundary) and the boundary of the other side (hereinafter referred to as the second boundary) in the width direction of the specified proximity parking space, that is, "proximity parking space". Width ”is also obtained from the parking lot map DB32. The first boundary and the second boundary may be lines drawn on the road surface such as white lines, or may be structures such as walls and pillars. The parking lot map DB 32 stores information regarding the arrangement of parking spaces and the width of parking spaces in each parking lot and each parking space in advance. However, the width of the parking space may be calculated from the positions of the first boundary and the second boundary stored in the parking lot map DB 32.

その後、S7においてCPU41は、近接駐車スペースの第1境界及び第2境界の端部が位置する範囲を、駐車場地図DB32から読みたした駐車場の地図に基づいて特定する。具体的には第1境界及び第2境界の端部を中心とした所定距離(例えば30cm)四方の範囲を特定する。例えば図7に示す例では、近接駐車スペースである駐車スペース56の幅方向の左側にある第1境界57の端部が位置する範囲58と、右側にある第2境界59の端部が位置する範囲60とが夫々特定される。尚、前記S7では前記S3で生成された3次元点群と同様に、連続撮像画像の撮像を開始した際の車外カメラ19の初期位置に対する相対的な3次元の位置座標で該当する範囲を特定するのが望ましい。 After that, in S7, the CPU 41 specifies the range where the ends of the first boundary and the second boundary of the proximity parking space are located based on the parking lot map read from the parking lot map DB 32. Specifically, a range of a predetermined distance (for example, 30 cm) square centered on the ends of the first boundary and the second boundary is specified. For example, in the example shown in FIG. 7, the range 58 in which the end of the first boundary 57 on the left side in the width direction of the parking space 56, which is a close parking space, is located, and the end of the second boundary 59 on the right side are located. A range of 60 is specified, respectively. In S7, as in the case of the three-dimensional point cloud generated in S3, the corresponding range is specified by the three-dimensional position coordinates relative to the initial position of the external camera 19 when the continuous imaging image is started to be captured. It is desirable to do.

次に、S8においてCPU41は、前記S3で生成された3次元点群の内、近接駐車スペースの第1境界の端部を示す特徴点の点群と、第2境界の端部を示す特徴点の点群とを夫々抽出する。具体的には前記S7で特定された範囲内に位置する特徴点の点群が抽出される。 Next, in S8, the CPU 41 has a point cloud of feature points indicating the end of the first boundary of the proximity parking space and a feature point of the feature points of the second boundary of the three-dimensional point cloud generated in S3. Each point cloud is extracted. Specifically, a point cloud of feature points located within the range specified in S7 is extracted.

続いて、S9においてCPU41は、先ず前記S8で抽出された近接駐車スペースの第1境界の端部を示す特徴点の点群の内から一の特徴点をサンプリングする。同じく、前記S8で抽出された近接駐車スペースの第2境界の端部を示す特徴点の点群の内から一の特徴点をサンプリングする。そして、サンプリングされた2つの特徴点の位置座標の間隔(以下、特徴点座標間隔という)を算出する。上述したように前記S3で生成される特徴点の位置座標の単位はdotであるので、特徴点座標間隔についてもdotで算出される。次に、CPU41は、前記S6で取得された第1境界と第2境界の配置間隔(駐車スペースの幅)と、上記特徴点座標間隔とを比較し、3次元点群の配置された3次元空間のスケール(より具体的には座標系のスケール)を車両が位置する駐車場の地図のスケールに対応させる為のスケーリング係数K[m/dot]を算出する。具体的には、前記S6で取得された第1境界と第2境界の配置間隔(駐車スペースの幅)をW[m]、特徴点座標間隔をL[dot]とすると、以下の式(1)によりスケーリング係数K[m/dot]が算出される。
K=W/L・・・・(1)
Subsequently, in S9, the CPU 41 first samples one feature point from the point cloud of the feature points indicating the end of the first boundary of the proximity parking space extracted in S8. Similarly, one feature point is sampled from the point cloud of the feature points indicating the end of the second boundary of the proximity parking space extracted in S8. Then, the distance between the position coordinates of the two sampled feature points (hereinafter referred to as the feature point coordinate distance) is calculated. As described above, the unit of the position coordinates of the feature points generated in S3 is dot, so the feature point coordinate intervals are also calculated by dot. Next, the CPU 41 compares the arrangement interval (width of the parking space) between the first boundary and the second boundary acquired in S6 with the coordinate interval of the feature points, and three-dimensionally arranges the three-dimensional point cloud. The scaling coefficient K [m / dot] for making the scale of space (more specifically, the scale of the coordinate system) correspond to the scale of the map of the parking lot where the vehicle is located is calculated. Specifically, assuming that the arrangement interval (width of the parking space) between the first boundary and the second boundary acquired in S6 is W [m] and the feature point coordinate interval is L [dot], the following equation (1) ) Calculates the scaling coefficient K [m / dot].
K = W / L ... (1)

その後、S10においてCPU41は、前記S3で生成された3次元点群の内、最後に特定(最も新しく特定)された車外カメラ19の位置と、該位置から撮像範囲内で最も近い位置にある駐車スペースの境界の端部を示す特徴点の点群を、前記S9で算出されたスケーリング係数Kを用いてスケーリングする。具体的には、各点群の3次元座標の各値に対してスケーリング係数Kを乗じ、乗じた後の値をスケーリング後の各点群の3次元座標とする。尚、スケーリング後の3次元座標は、車両が位置する駐車場の地図のスケールに対応させたスケールの3次元空間(即ち3次元座標系)における位置座標となる。尚、スケーリングされた後の座標の単位は、dotから車両が位置する駐車場の地図のスケールに対応した実距離であるメートル[m]となる。 After that, in S10, the CPU 41 parks at the position of the last specified (most recently specified) external camera 19 in the three-dimensional point cloud generated in S3 and the position closest to the position within the imaging range. The point cloud of the feature points indicating the end of the boundary of the space is scaled using the scaling coefficient K calculated in S9. Specifically, each value of the three-dimensional coordinates of each point cloud is multiplied by the scaling coefficient K, and the value after the multiplication is used as the three-dimensional coordinates of each scaled point cloud. The three-dimensional coordinates after scaling are the position coordinates in the three-dimensional space (that is, the three-dimensional coordinate system) of the scale corresponding to the scale of the map of the parking lot where the vehicle is located. The unit of the coordinates after scaling is meters [m], which is the actual distance corresponding to the scale of the map of the parking lot where the vehicle is located from the dot.

また、前記S3で生成された3次元点群の内、最後に特定(最も新しく特定)された車外カメラ19の位置は、前記S5で算出される現在の車外カメラ19の位置に相当するので、該位置から撮像範囲内で最も近い位置にある駐車スペースの境界の端部を示す特徴点の点群は、前記S8で抽出される点群と同一となる。 Further, since the position of the last specified (most recently specified) out-of-vehicle camera 19 in the three-dimensional point cloud generated in S3 corresponds to the current position of the out-of-vehicle camera 19 calculated in S5, The point cloud of the feature points indicating the end of the boundary of the parking space closest to the position within the imaging range is the same as the point cloud extracted in S8.

その後、S11においてCPU41は、前記S10でスケーリングされた後の車外カメラ19の位置と、同じく前記S10でスケーリングされた後の駐車スペースの境界の端部を示す特徴点の各座標値を比較し、高さ方向(路面に対して鉛直方向)の差分を算出する。尚、スケーリング後の座標の単位はメートル[m]であるので、算出される差分も単位はメートル[m]となる。ここで、算出される座標値の高さ方向の差分は、スケーリング後の3次元点群に基づいて算出された地表から車外カメラ19の位置までの高さに相当する。 After that, in S11, the CPU 41 compares the position of the external camera 19 after being scaled in S10 with each coordinate value of the feature point indicating the end of the boundary of the parking space also after being scaled in S10. Calculate the difference in the height direction (vertical direction with respect to the road surface). Since the unit of the coordinates after scaling is meters [m], the unit of the calculated difference is also meters [m]. Here, the difference in the height direction of the calculated coordinate values corresponds to the height from the ground surface to the position of the external camera 19 calculated based on the scaled three-dimensional point cloud.

次に、S12においてCPU41は、データ記録部12から車外カメラ19の地表からの設置高さの規定値(設計値)[m]を読み出す。その後、前記S11で算出した地表から車外カメラ19の位置までの高さとデータ記録部12から読み出した規定値とを比較し、一致しているか否かを判定する。尚、一致とは両値が完全に同一となる場合に加えて、両値の間の差分が微小な場合についても誤差を考慮して一致するとみなすのが望ましい。 Next, in S12, the CPU 41 reads out a specified value (design value) [m] of the installation height of the external camera 19 from the ground surface from the data recording unit 12. After that, the height from the ground surface calculated in S11 to the position of the external camera 19 is compared with the specified value read from the data recording unit 12, and it is determined whether or not they match. In addition to the case where both values are completely the same, it is desirable to consider the case where the difference between the two values is small as a match in consideration of the error.

そして、前記S11で算出した地表から車外カメラ19の位置までの高さとデータ記録部12から読み出した規定値が一致したと判定された場合(S12:YES)には、前記S9で算出されたスケーリング係数Kは正しいと推定し、S14へと移行する。それに対して、前記S11で算出した地表から車外カメラ19の位置までの高さとデータ記録部12から読み出した規定値が一致しないと判定された場合(S12:NO)には、前記S9で算出されたスケーリング係数Kが正しくないと推定し、S13へと移行する。 Then, when it is determined that the height from the ground surface calculated in S11 to the position of the external camera 19 and the specified value read from the data recording unit 12 match (S12: YES), the scaling calculated in S9 is performed. It is estimated that the coefficient K is correct, and the process proceeds to S14. On the other hand, when it is determined that the height from the ground surface to the position of the external camera 19 calculated in S11 and the specified value read from the data recording unit 12 do not match (S12: NO), it is calculated in S9. It is estimated that the scaling coefficient K is not correct, and the process proceeds to S13.

S13においてCPU41は、前記S9で2つの点群から夫々サンプリングされた2つの特徴点を、同じ点群内の他の特徴点に変更する。その後、S9へと戻り、新たにサンプリングされた特徴点に基づいてサンプリング係数を算出する。そして、前記S11で算出した地表から車外カメラ19の位置までの高さとデータ記録部12から読み出した規定値が一致するまで前記S9〜S13の処理を繰り返し行う。 In S13, the CPU 41 changes the two feature points sampled from the two point clouds in S9 to other feature points in the same point cloud. After that, the process returns to S9, and the sampling coefficient is calculated based on the newly sampled feature points. Then, the processes of S9 to S13 are repeated until the height from the ground surface calculated in S11 to the position of the external camera 19 and the specified value read from the data recording unit 12 match.

一方、S14においてCPU41は、前記S3で生成された全ての3次元点群を、前記S9で算出されたスケーリング係数Kを用いてスケーリングする。具体的には、全ての3次元点群の3次元座標の各値に対してスケーリング係数Kを乗じ、乗じた後の値をスケーリング後の3次元点群の3次元座標とする。尚、スケーリング後の3次元座標は、車両が位置する駐車場の地図のスケールに対応させたスケールの3次元空間(即ち3次元座標系)における位置座標となる。尚、スケーリングされた後の座標の単位は、dotから車両が位置する駐車場の地図のスケールに対応した実距離であるメートル[m]となる。 On the other hand, in S14, the CPU 41 scales all the three-dimensional point clouds generated in S3 by using the scaling coefficient K calculated in S9. Specifically, each value of the 3D coordinates of all the 3D point clouds is multiplied by the scaling coefficient K, and the value after the multiplication is used as the 3D coordinates of the scaled 3D point cloud. The three-dimensional coordinates after scaling are the position coordinates in the three-dimensional space (that is, the three-dimensional coordinate system) of the scale corresponding to the scale of the map of the parking lot where the vehicle is located. The unit of the coordinates after scaling is meters [m], which is the actual distance corresponding to the scale of the map of the parking lot where the vehicle is located from the dot.

続いて、S15においてCPU41は、前記S14でスケーリングされた後の3次元点群の内、最後に特定(最も新しく特定)された車外カメラ19の位置が、前記S5で算出された車外カメラ19の現在位置と一致するように、スケーリング後の3次元点群(カメラ位置も特徴点も含む)を移動させる。更に、同じく最後に特定(最も新しく特定)された車外カメラ19の方位が、前記S5で算出された車外カメラ19の現在方位と一致するように、スケーリング後の3次元点群(カメラ位置も特徴点も含む)を回転させる。 Subsequently, in S15, the CPU 41 determines that the position of the last specified (most recently specified) outside camera 19 in the three-dimensional point cloud after being scaled in S14 is the position of the outside camera 19 calculated in S5. The scaled 3D point cloud (including the camera position and feature points) is moved so as to match the current position. Further, the three-dimensional point cloud (camera position is also characterized) after scaling so that the orientation of the vehicle exterior camera 19 also last specified (most recently identified) matches the current orientation of the vehicle exterior camera 19 calculated in S5. (Including points) is rotated.

尚、3次元点群の移動及び回転は、例えば3次元点群の各座標を座標変換行列で変換することによって行い、変換後の座標を移動及び回転後の3次元点群の座標とする。ここで、座標変換行列はxyz方向の各移動量と回転量に基づいて導出される。即ち、CPU41は、スケーリングされた後の3次元点群の内、最後に特定(最も新しく特定)された車外カメラ19の位置を、前記S5で算出された車外カメラ19の現在位置に一致させる為に必要なxyz方向の各移動量と、同じく車外カメラ19の現在方位に一致させる為に必要な回転量とを算出し、算出された各値から座標変換行列を導出する。尚、3次元点群の移動及び回転は、座標変換行列を用いる以外の方法で行っても良い。 The movement and rotation of the three-dimensional point cloud are performed, for example, by converting each coordinate of the three-dimensional point cloud with a coordinate conversion matrix, and the converted coordinates are used as the coordinates of the three-dimensional point cloud after the movement and rotation. Here, the coordinate transformation matrix is derived based on each movement amount and rotation amount in the xyz direction. That is, in order for the CPU 41 to match the position of the last specified (most recently specified) out-of-vehicle camera 19 in the scaled three-dimensional point cloud with the current position of the out-of-vehicle camera 19 calculated in S5. The amount of movement in the xyz direction required for the above and the amount of rotation required to match the current orientation of the external camera 19 are calculated, and a coordinate transformation matrix is derived from each of the calculated values. The movement and rotation of the three-dimensional point cloud may be performed by a method other than using the coordinate transformation matrix.

上述したS5〜S15の処理によって修正された後の最終的な3次元点群の位置座標は、車両が現在位置する駐車場の地図に対する3次元点群の位置を示す絶対的な3次元の位置座標となる。 The final position coordinates of the three-dimensional point cloud after being corrected by the processing of S5 to S15 described above are absolute three-dimensional positions indicating the position of the three-dimensional point cloud with respect to the map of the parking lot where the vehicle is currently located. It becomes the coordinates.

図8は上述したS5〜S15の処理によって修正された後の最終的な3次元点群の一例を示した図である。特に、図8では車両が位置する駐車場の地図61と組み合わせた状態を示す。
薄いグレーの点が車両周辺にある特徴点53を示し、黒の点が連続撮像画像を撮像する間の車外カメラ19の位置54を示している。上述したS5〜S15の処理によって最終的に修正された後の3次元点群の位置座標は、車両が現在位置する駐車場の地図に対する3次元点群の位置を示す絶対的な3次元の位置座標となる。従って、図8に示すように駐車場の地図61において特徴点が位置する実際の地点に3次元点群の特徴点53が位置し、駐車場の地図61において車外カメラ19が撮像中に位置した実際の地点に3次元点群の車外カメラ19の位置54が位置する。
FIG. 8 is a diagram showing an example of the final three-dimensional point cloud after being modified by the processing of S5 to S15 described above. In particular, FIG. 8 shows a state in which the vehicle is combined with the map 61 of the parking lot where the vehicle is located.
The light gray dots indicate the feature points 53 around the vehicle, and the black dots indicate the position 54 of the outside camera 19 while capturing the continuously captured images. The position coordinates of the three-dimensional point cloud after being finally modified by the above-mentioned processes of S5 to S15 are absolute three-dimensional positions indicating the position of the three-dimensional point cloud with respect to the map of the parking lot where the vehicle is currently located. It becomes the coordinates. Therefore, as shown in FIG. 8, the feature point 53 of the three-dimensional point cloud is located at the actual point where the feature point is located on the map 61 of the parking lot, and the outside camera 19 is located during imaging on the map 61 of the parking lot. The position 54 of the vehicle exterior camera 19 of the three-dimensional point cloud is located at the actual point.

続いて、S16においてCPU41は、上述したS5〜S15の処理によって修正された後の最終的な3次元点群の内、空き状態の検出対象となる駐車スペース(例えば現在の車外カメラ19の位置から撮像範囲内で最も近い位置にある駐車スペース)に含まれる特徴点の点群の数をカウントする。具体的には、検出対象となる駐車スペースの領域を、路面に平行な2次元の座標系(xy座標)で特定し、該領域にxy座標が含まれる特徴点の数をカウントする。但し、特徴点の数をカウントする際には、路面からの高さが所定距離(例えば10cm)以上の特徴点のみを対象とするのが望ましい。路面の汚れや段差を示す特徴点を排除する為である。また、屋内の駐車場では路面からの高さが所定距離(例えば2m)以下の特徴点のみを対象とするのが望ましい。天井の梁や照明を示す特徴点を排除する為である。 Subsequently, in S16, the CPU 41 performs the parking space (for example, from the current position of the external camera 19) to be detected in the vacant state in the final three-dimensional point cloud after being corrected by the processing of S5 to S15 described above. The number of point clouds of feature points included in the parking space closest to the imaging range) is counted. Specifically, the area of the parking space to be detected is specified by a two-dimensional coordinate system (xy coordinates) parallel to the road surface, and the number of feature points including the xy coordinates in the area is counted. However, when counting the number of feature points, it is desirable to target only the feature points whose height from the road surface is a predetermined distance (for example, 10 cm) or more. This is to eliminate the characteristic points indicating dirt and steps on the road surface. Further, in an indoor parking lot, it is desirable to target only feature points whose height from the road surface is a predetermined distance (for example, 2 m) or less. This is to eliminate the feature points that indicate the beams and lighting of the ceiling.

その後、S17においてCPU41は、前記S16でカウントされた特徴点の点群の数が閾値未満であるか否か判定する。尚、前記S17で判定基準となる閾値は適宜変更可能であるが、例えば10個とする。 After that, in S17, the CPU 41 determines whether or not the number of point clouds of the feature points counted in S16 is less than the threshold value. The threshold value used as the determination criterion in S17 can be changed as appropriate, but is set to, for example, 10.

そして、前記S16でカウントされた特徴点の点群の数が閾値未満であると判定された場合(S17:YES)には、S18へと移行する。それに対して、前記S16でカウントされた特徴点の点群の数が閾値以上であると判定された場合(S17:NO)には、S20へと移行する。 Then, when it is determined that the number of the point cloud of the feature points counted in S16 is less than the threshold value (S17: YES), the process proceeds to S18. On the other hand, when it is determined that the number of point clouds of the feature points counted in S16 is equal to or greater than the threshold value (S17: NO), the process proceeds to S20.

S18においてCPU41は、検出対象となる駐車スペースには、他車両やその他の障害物が存在せず空いている状態(駐車可能な状態)にあると判定する。 In S18, the CPU 41 determines that the parking space to be detected is in a vacant state (parkable state) without the presence of other vehicles or other obstacles.

その後、S19においてCPU41は、空いている状態にあると判定された駐車スペースに対する駐車支援を行う。例えば、ユーザが自動駐車を選択した場合には、車両の現在位置から空いている状態にあると判定された駐車スペースへの進入経路を設定する。更にCANを介して車両制御ECU20に対して駐車支援に関する指示信号を送信することによって、設定された経路に沿って空き状態の駐車スペースへと進入するようにステアリング、駆動源、ブレーキ等の車両制御を自動で行う。また、自動運転走行を行う車両については、ユーザの指示を条件とせずに自動駐車を開始することも可能である。 After that, in S19, the CPU 41 provides parking support for the parking space determined to be vacant. For example, when the user selects automatic parking, an approach route to a parking space determined to be vacant from the current position of the vehicle is set. Further, by transmitting an instruction signal regarding parking assistance to the vehicle control ECU 20 via the CAN, vehicle control such as steering, drive source, and brake is performed so as to enter an empty parking space along a set route. Is done automatically. Further, for a vehicle that performs automatic driving, it is possible to start automatic parking without a condition of a user's instruction.

尚、ステアリングのみの制御を行い、アクセル、シフト位置、ブレーキの操作はユーザ側で行わせることとしても良い。また、空き状態にあると判定された駐車スペースへ駐車する為の駐車操作の案内(例えばステアリングの操作位置、操作角度、停止、発進)のみを行い、車両に関する操作(ステアリング操作含む)は全てユーザ側で行わせることとしても良い。 It should be noted that only the steering may be controlled, and the accelerator, shift position, and brake may be operated by the user. In addition, only guidance on parking operations (for example, steering operation position, operation angle, stop, start) for parking in a parking space determined to be vacant is performed, and all operations related to the vehicle (including steering operation) are performed by the user. It may be done on the side.

一方、S20においてCPU41は、検出対象となる駐車スペースには、他車両やその他の障害物が存在しており空いていない状態(駐車不能な状態)にあると判定する。そして、駐車支援を行うことなく当該駐車支援処理プログラムを終了する。尚、その後に車両が駐車場内で走行を続けることによって、特徴点の検出範囲や空き状態の検出対象となる駐車スペースも順次変化する。そして、空いている状態にある駐車スペースを検出した時点で駐車スペースに対する駐車支援が行われることとなる(S19)。 On the other hand, in S20, the CPU 41 determines that the parking space to be detected is in a non-vacant state (parking impossible state) due to the existence of other vehicles and other obstacles. Then, the parking support processing program is terminated without providing parking support. After that, as the vehicle continues to run in the parking lot, the detection range of the feature points and the parking space for which the vacant state is detected will gradually change. Then, when a vacant parking space is detected, parking support is provided for the parking space (S19).

ここで、図9は上述したS5〜S15の処理によって修正された後の最終的な3次元点群を高さ方向(z軸方向)から視認した際の配置態様を示した図である。特に、図9では車両が位置する駐車場の地図61と組み合わせた状態を示す。
薄いグレーの点が車両周辺にある特徴点53を示し、黒の点が連続撮像画像を撮像する間の車外カメラ19の位置54を示している。図9に示す例では駐車スペース65や駐車スペース67内には多数の特徴点53が配置されている。一方、駐車スペース66内には特徴点53がほとんど配置されていない。従って、駐車スペース65や駐車スペース67は“空いていない状態”と判定され、一方の駐車スペース66は“空いている状態”と判定される。そして、空いている状態にあると判定された駐車スペース66に対する駐車支援が行われることとなる。
Here, FIG. 9 is a diagram showing an arrangement mode when the final three-dimensional point cloud after being modified by the above-mentioned processing of S5 to S15 is visually recognized from the height direction (z-axis direction). In particular, FIG. 9 shows a state in which the vehicle is combined with the map 61 of the parking lot where the vehicle is located.
The light gray dots indicate the feature points 53 around the vehicle, and the black dots indicate the position 54 of the outside camera 19 while capturing the continuously captured images. In the example shown in FIG. 9, a large number of feature points 53 are arranged in the parking space 65 and the parking space 67. On the other hand, the feature points 53 are hardly arranged in the parking space 66. Therefore, the parking space 65 and the parking space 67 are determined to be "not vacant", while the parking space 66 is determined to be "vacant". Then, parking support is provided for the parking space 66 determined to be in the vacant state.

以上詳細に説明した通り、本実施形態に係るナビゲーション装置1、ナビゲーション装置1で実行されるコンピュータプログラムでは、車両周辺を車外カメラ19により連続的に撮像した撮像画像を連続撮像画像に基づいて、車両周辺にある複数の特徴点について、複数の特徴点毎に連続撮像画像の撮像を開始した際の車外カメラ19の初期位置に対する相対的な3次元の位置座標を3次元空間上において特定し(S3)、特定された複数の特徴点の位置座標を、車両が現在位置する駐車場の地図に対する位置を示す3次元の位置座標に修正し(S5〜S15)、修正を行った後に、駐車場の地図に対する複数の特徴点の配置態様に基づいて、車両の現在位置周辺にある空き状態の駐車スペースを検出する(S16〜S18)ので、車両の現在位置周辺にある空き状態の駐車スペースを正確に検出することが可能となる。特に、3次元的に駐車スペースの空き状態を判断することが可能となるので、駐車スペースの一部のみに障害物が存在する場合や、駐車スペースの上方に障害物がある場合等において、従来に比べて車両の駐車が可能な駐車スペースか否かを正確に判断可能となる。 As described in detail above, in the navigation device 1 and the computer program executed by the navigation device 1 according to the present embodiment, the captured images of the periphery of the vehicle continuously captured by the vehicle exterior camera 19 are continuously captured by the vehicle exterior camera 19 based on the continuously captured images of the vehicle. For a plurality of feature points in the vicinity, the three-dimensional position coordinates relative to the initial position of the external camera 19 when the continuous imaging of the continuous captured image is started for each of the plurality of feature points are specified in the three-dimensional space (S3). ), The position coordinates of the specified plurality of feature points are corrected to three-dimensional position coordinates indicating the position of the parking lot where the vehicle is currently located with respect to the map (S5 to S15). Since the vacant parking space around the current position of the vehicle is detected (S16 to S18) based on the arrangement mode of the plurality of feature points on the map, the vacant parking space around the current position of the vehicle is accurately detected. It becomes possible to detect. In particular, since it is possible to determine the vacancy state of the parking space three-dimensionally, when there is an obstacle only in a part of the parking space, or when there is an obstacle above the parking space, etc. Compared to the above, it is possible to accurately determine whether or not the parking space allows the vehicle to be parked.

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態では、駐車に係る車両操作の一部及び全部を自動で行う自動駐車に関する機能を有する車両に適用することを前提としているが、自動駐車を行う機能を有しない車両に適用することも可能である。その場合には、例えば前記S18及びS20で判定された駐車スペースの空き状態をユーザに対して案内するようにする。
It should be noted that the present invention is not limited to the above-described embodiment, and it goes without saying that various improvements and modifications can be made without departing from the gist of the present invention.
For example, in the present embodiment, it is assumed that the application is applied to a vehicle having a function related to automatic parking in which a part or all of the vehicle operation related to parking is automatically performed, but the present embodiment is applied to a vehicle not having the function to perform automatic parking. It is also possible. In that case, for example, the vacancy state of the parking space determined in S18 and S20 is guided to the user.

また、本実施形態ではスケーリング係数Kを算出する際に、特に駐車スペースの境界の配置間隔を用いているが、駐車スペースの境界以外の地物の配置間隔を用いても良い。但し、その配置間隔が駐車場地図DB32に格納される、或いは駐車場地図DB32から算出可能な地物とする。例えば、車止めの配置間隔としても良い。 Further, in the present embodiment, when calculating the scaling coefficient K, the arrangement interval of the boundary of the parking space is particularly used, but the arrangement interval of the feature other than the boundary of the parking space may be used. However, the arrangement interval is stored in the parking lot map DB 32, or is a feature that can be calculated from the parking lot map DB 32. For example, it may be the arrangement interval of the bollard.

また、本実施形態では、車両に搭載されたナビゲーション装置1によって駐車支援処理プログラム(図3参照)を実行することとしているが、ナビゲーション装置1以外の車載器や車両制御ECU20が実行しても良い。また、図3に示す各ステップの処理の一部または全部を外部サーバが行い、ナビゲーション装置1は処理結果(駐車スペースの空き状態)のみを外部サーバから取得するようにしても良い。 Further, in the present embodiment, the parking support processing program (see FIG. 3) is executed by the navigation device 1 mounted on the vehicle, but an on-board unit other than the navigation device 1 or the vehicle control ECU 20 may execute the program. .. Further, the external server may perform a part or all of the processing of each step shown in FIG. 3, and the navigation device 1 may acquire only the processing result (empty state of the parking space) from the external server.

また、本発明に係る駐車支援装置を具体化した実施例について上記に説明したが、駐車支援装置は以下の構成を有することも可能であり、その場合には以下の効果を奏する。 Further, although the embodiment in which the parking support device according to the present invention is embodied has been described above, the parking support device can also have the following configurations, and in that case, the following effects are obtained.

例えば、第1の構成は以下のとおりである。
車両(55)周辺を車両に設置された撮像装置(19)により連続的に撮像した撮像画像を連続撮像画像として取得する画像取得手段(41)と、前記連続撮像画像に基づいて、車両周辺にある複数の特徴点(53)について、前記複数の特徴点毎に前記連続撮像画像の撮像を開始した際の前記撮像装置の初期位置に対する相対的な3次元の位置座標を3次元空間上において特定する特徴点特定手段(41)と、前記特徴点特定手段により特定された前記複数の特徴点の位置座標を、車両が現在位置する駐車場の地図(61)に対する位置を示す3次元の位置座標に修正する座標修正手段(41)と、前記位置座標の修正を行った後に、前記駐車場の地図に対する前記複数の特徴点の配置態様に基づいて、車両の現在位置周辺にある空き状態の駐車スペースを検出する駐車スペース検出手段(41)と、を有する
上記構成を有する駐車支援装置によれば、車両に設置された撮像装置により連続的に撮像した撮像画像に基づいて特定された相対的な特徴点の3次元点群を、実際の駐車場の地図と対応させることによって空き状態にある駐車スペースを検出するので、車両の現在位置周辺にある空き状態の駐車スペースを正確に検出することが可能となる。特に、3次元的に駐車スペースの空き状態を判断することが可能となるので、駐車スペースの一部のみに障害物が存在する場合や、駐車スペースの上方に障害物がある場合等において、従来に比べて車両の駐車が可能な駐車スペースか否かを正確に判断可能となる。
For example, the first configuration is as follows.
An image acquisition means (41) that continuously acquires an image captured by an imaging device (19) installed in the vehicle around the vehicle (55) as a continuous image, and the area around the vehicle based on the continuously captured image. For a plurality of feature points (53), the three-dimensional position coordinates relative to the initial position of the imaging device when the imaging of the continuous captured image is started for each of the plurality of feature points is specified in the three-dimensional space. The three-dimensional position coordinates indicating the positions of the feature point identifying means (41) and the plurality of feature points specified by the feature point identifying means with respect to the map (61) of the parking lot where the vehicle is currently located. After correcting the position coordinates, the vacant parking around the current position of the vehicle is based on the arrangement mode of the plurality of feature points on the map of the parking lot. According to the parking support device having the above configuration having the parking space detecting means (41) for detecting the space, the relative image identified based on the captured images continuously captured by the imaging device installed in the vehicle. Since the vacant parking space is detected by associating the three-dimensional point group of the feature points with the map of the actual parking lot, it is possible to accurately detect the vacant parking space around the current position of the vehicle. It will be possible. In particular, since it is possible to determine the vacancy state of the parking space three-dimensionally, when there is an obstacle only in a part of the parking space, or when there is an obstacle above the parking space, etc. Compared to the above, it is possible to accurately determine whether or not the parking space allows the vehicle to be parked.

また、第2の構成は以下のとおりである。
前記特徴点(53)を特定した同一の3次元空間上において、前記連続撮像画像の撮像を行う間の前記撮像装置(19)の位置を、前記撮像装置の初期位置に対する相対的な3次元の位置座標で特定する撮像位置特定手段(41)と、前記駐車場の地図(61)に対する前記撮像装置の現在位置を示す位置座標を取得する絶対位置取得手段(41)と、を有し、前記座標修正手段(41)は、前記撮像位置特定手段により最後に特定された前記撮像装置の位置が前記撮像装置の現在位置と一致するように、前記撮像位置特定手段により特定された前記撮像装置の位置と前記特徴点特定手段により特定された前記特徴点の位置とを一体に移動させることによって、前記複数の特徴点の位置座標を修正する。
上記構成を有する駐車支援装置によれば、撮像装置との相対的な位置関係によって特定されている特徴点の位置座標を、絶対的な位置座標が得られている撮像装置の現在位置を基準とした座標へと変換することによって、実際の駐車場の地図と対応させた絶対的な位置座標へと修正することが可能となる。
The second configuration is as follows.
In the same three-dimensional space in which the feature point (53) is specified, the position of the image pickup device (19) during the acquisition of the continuously captured image is three-dimensional relative to the initial position of the image pickup device. It has an imaging position specifying means (41) specified by position coordinates and an absolute position acquiring means (41) for acquiring position coordinates indicating the current position of the imaging device with respect to the map (61) of the parking lot. The coordinate correction means (41) is the image pickup device specified by the image pickup position specifying means so that the position of the image pickup device last specified by the image pickup position specifying means coincides with the current position of the image pickup device. By integrally moving the position and the position of the feature point specified by the feature point specifying means, the position coordinates of the plurality of feature points are corrected.
According to the parking support device having the above configuration, the position coordinates of the feature points specified by the relative positional relationship with the image pickup device are referred to the current position of the image pickup device for which the absolute position coordinates are obtained. By converting to the coordinates, it is possible to correct the coordinates to the absolute position coordinates corresponding to the map of the actual parking lot.

また、第3の構成は以下のとおりである。
前記連続撮像画像の撮像を行う間の前記撮像装置(19)の方位を、前記撮像装置の初期位置での方位に対する相対的な角度で特定する撮像方位特定手段(41)と、前記撮像装置の現在方位を絶対方位により取得する絶対方位取得手段(41)と、を有し、前記座標修正手段は、前記撮像方位特定手段により最後に特定された前記撮像装置の方位が前記撮像装置の現在方位と一致するように、前記撮像位置特定手段により特定された前記撮像装置の位置と前記特徴点特定手段により特定された前記特徴点の位置とを一体に回転させることによって、前記複数の特徴点の位置座標を修正する。
上記構成を有する駐車支援装置によれば、撮像装置との相対的な位置関係によって特定されている特徴点の位置座標を、絶対的な位置座標及び方位が得られている撮像装置の現在位置及び方位を基準とした座標へと変換することによって、実際の駐車場の地図と対応させた絶対的な位置座標へと修正することが可能となる。
The third configuration is as follows.
An imaging orientation specifying means (41) that specifies the orientation of the imaging apparatus (19) during imaging of the continuously captured image by an angle relative to the orientation at the initial position of the imaging apparatus, and the imaging apparatus. It has an absolute azimuth acquisition means (41) for acquiring the current azimuth by an absolute azimuth, and in the coordinate correction means, the azimuth of the imaging device last specified by the imaging azimuth specifying means is the current azimuth of the imaging device. By integrally rotating the position of the imaging device specified by the imaging position specifying means and the position of the feature point specified by the feature point specifying means so as to coincide with, the plurality of feature points Correct the position coordinates.
According to the parking support device having the above configuration, the position coordinates of the feature points specified by the relative positional relationship with the image pickup device, the current position of the image pickup device in which the absolute position coordinates and the orientation are obtained, and the current position of the image pickup device and the orientation are obtained. By converting the coordinates to the coordinates based on the orientation, it is possible to correct the coordinates to the absolute position coordinates corresponding to the map of the actual parking lot.

また、第4の構成は以下のとおりである。
車両周辺にある第1の地物(57)と第2の地物(59)の配置間隔に関する情報を取得する情報取得手段(41)と、前記特徴点特定手段(41)により特定された前記複数の特徴点(53)の内、前記第1の地物を示す特徴点と前記第2の地物を示す特徴点の位置座標の間隔を取得する座標間隔取得手段(41)と、前記座標修正手段(41)は、前記情報取得手段により取得した配置間隔と前記座標間隔取得手段により取得した位置座標の間隔とを比較し、前記3次元空間のスケールを車両が位置する駐車場の地図(61)のスケールに対応させることによって、前記複数の特徴点の位置座標を修正する。
上記構成を有する駐車支援装置によれば、地物の配置間隔と対応する特徴点の配置間隔とを比較することによって、撮像装置との相対的な位置関係によって特定されており、実際のスケールとは異なるスケールで定義されている特徴点の位置座標を、実際の駐車場の地図と対応させたスケールに基づく位置座標へと修正することが可能となる。
The fourth configuration is as follows.
The information acquisition means (41) for acquiring information on the arrangement interval between the first feature (57) and the second feature (59) around the vehicle, and the feature point identification means (41) identified by the information acquisition means (41). Of the plurality of feature points (53), the coordinate interval acquisition means (41) for acquiring the distance between the position coordinates of the feature point indicating the first feature and the feature point indicating the second feature, and the coordinates. The correction means (41) compares the arrangement interval acquired by the information acquisition means with the interval of the position coordinates acquired by the coordinate interval acquisition means, and maps the parking lot where the vehicle is located on the scale of the three-dimensional space (41). By making it correspond to the scale of 61), the position coordinates of the plurality of feature points are corrected.
According to the parking support device having the above configuration, it is specified by the relative positional relationship with the imaging device by comparing the arrangement interval of the feature with the arrangement interval of the corresponding feature points, and it is different from the actual scale. Can modify the position coordinates of feature points defined on different scales to the position coordinates based on the scale corresponding to the map of the actual parking lot.

また、第5の構成は以下のとおりである。
前記第1の地物は駐車スペースの幅方向の一辺の境界を示す第1の境界(57)であって、前記第2の地物は前記駐車スペースの幅方向の他辺の境界を示す第2の境界(59)であって、前記情報取得手段(41)は、前記第1の境界と前記第2の境界の配置間隔として前記駐車スペースの幅を取得し、前記座標間隔取得手段(41)は、前記第1の境界の端部を示す特徴点と前記第2の境界の端部を示す特徴点の位置座標の間隔を取得する。
上記構成を有する駐車支援装置によれば、地物として特に駐車スペースの境界の配置間隔と対応する特徴点の配置間隔とを比較することによって、撮像装置との相対的な位置関係によって特定されており、実際のスケールとは異なるスケールで定義されている特徴点の位置座標を、実際の駐車場の地図と対応させたスケールに基づく位置座標へと修正することが可能となる。
The fifth configuration is as follows.
The first feature is the first boundary (57) indicating the boundary of one side in the width direction of the parking space, and the second feature is the boundary of the other side in the width direction of the parking space. In the boundary (59) of 2, the information acquisition means (41) acquires the width of the parking space as the arrangement interval between the first boundary and the second boundary, and the coordinate interval acquisition means (41). ) Acquires the distance between the position coordinates of the feature point indicating the end of the first boundary and the feature point indicating the end of the second boundary.
According to the parking support device having the above configuration, it is specified by the relative positional relationship with the image pickup device by comparing the arrangement interval of the boundary of the parking space and the arrangement interval of the corresponding feature points as a feature. Therefore, it is possible to correct the position coordinates of the feature points defined on a scale different from the actual scale to the position coordinates based on the scale corresponding to the map of the actual parking lot.

また、第6の構成は以下のとおりである。
前記撮像位置特定手段(41)により特定された前記撮像装置(19)の位置の路面からの高さを規定値と比較する比較手段(41)を有し、前記座標修正手段(41)は、前記3次元空間のスケールを、前記撮像画像の位置の路面からの高さが前記規定値と一致するスケールとする。
上記構成を有する駐車支援装置によれば、特に路面からの高さの値が規定値として正確に取得できる撮像装置の位置を用いてスケールを調整するので、実際の駐車場の地図と対応させたスケールに基づく位置座標へと正確に修正することが可能となる。
The sixth configuration is as follows.
The coordinate correction means (41) has a comparison means (41) for comparing the height from the road surface of the position of the image pickup device (19) specified by the image pickup position specifying means (41) with a specified value. The scale of the three-dimensional space is a scale in which the height of the position of the captured image from the road surface matches the specified value.
According to the parking support device having the above configuration, the scale is adjusted by using the position of the image pickup device, which can accurately acquire the height value from the road surface as a specified value, so that it corresponds to the map of the actual parking lot. It is possible to accurately correct the position coordinates based on the scale.

また、第7の構成は以下のとおりである。
前記駐車スペース検出手段(41)は、路面からの高さが所定距離以上の特徴点(53)の配置態様に基づいて、車両の現在位置周辺にある空き状態の駐車スペースを検出する。
上記構成を有する駐車支援装置によれば、路面の汚れや段差を示す特徴点を排除することが可能となり、駐車スペース内に車両の駐車を妨げる障害物が存在するか否かを正確に判定することが可能となる。
The seventh configuration is as follows.
The parking space detecting means (41) detects an empty parking space around the current position of the vehicle based on the arrangement mode of the feature points (53) whose height from the road surface is at least a predetermined distance.
According to the parking support device having the above configuration, it is possible to eliminate the feature points indicating dirt and steps on the road surface, and it is possible to accurately determine whether or not there is an obstacle in the parking space that hinders the parking of the vehicle. It becomes possible.

1 ナビゲーション装置
13 ナビゲーションECU
19 車外カメラ
32 駐車場地図DB
35 駐車スペース判定領域
41 CPU
42 RAM
43 ROM
53 特徴点
54 車外カメラの位置
55 車両
61 駐車場の地図
1 Navigation device 13 Navigation ECU
19 Outside camera 32 Parking lot map DB
35 Parking space judgment area 41 CPU
42 RAM
43 ROM
53 Feature points 54 Position of camera outside the vehicle 55 Vehicle 61 Map of parking lot

Claims (8)

車両周辺を車両に設置された撮像装置により連続的に撮像した撮像画像を連続撮像画像として取得する画像取得手段と、
前記連続撮像画像に基づいて、車両周辺にある複数の特徴点について、前記複数の特徴点毎に前記連続撮像画像の撮像を開始した際の前記撮像装置の初期位置に対する相対的な3次元の位置座標を3次元空間上において特定する特徴点特定手段と、
前記特徴点特定手段により特定された前記複数の特徴点の位置座標を、車両が現在位置する駐車場の地図に対する位置を示す3次元の位置座標に修正する座標修正手段と、
前記位置座標の修正を行った後に、前記駐車場の地図に対する前記複数の特徴点の配置態様に基づいて、車両の現在位置周辺にある空き状態の駐車スペースを検出する駐車スペース検出手段と、を有する駐車支援装置。
An image acquisition means for acquiring an image taken continuously by an image pickup device installed in the vehicle around the vehicle as a continuous image, and an image acquisition means.
Based on the continuously captured images, with respect to the plurality of feature points around the vehicle, the three-dimensional positions relative to the initial position of the imaging device when the imaging of the continuously captured images is started for each of the plurality of feature points. A feature point identification means for specifying coordinates in a three-dimensional space,
Coordinate correction means for correcting the position coordinates of the plurality of feature points specified by the feature point specifying means to three-dimensional position coordinates indicating the position of the parking lot where the vehicle is currently located with respect to the map.
After correcting the position coordinates, a parking space detecting means for detecting an empty parking space around the current position of the vehicle based on the arrangement mode of the plurality of feature points on the map of the parking lot. Parking support device to have.
前記特徴点を特定した同一の3次元空間上において、前記連続撮像画像の撮像を行う間の前記撮像装置の位置を、前記撮像装置の初期位置に対する相対的な3次元の位置座標で特定する撮像位置特定手段と、
前記駐車場の地図に対する前記撮像装置の現在位置を示す位置座標を取得する絶対位置取得手段と、を有し、
前記座標修正手段は、
前記撮像位置特定手段により最後に特定された前記撮像装置の位置が前記撮像装置の現在位置と一致するように、前記撮像位置特定手段により特定された前記撮像装置の位置と前記特徴点特定手段により特定された前記特徴点の位置とを一体に移動させることによって、前記複数の特徴点の位置座標を修正する請求項1に記載の駐車支援装置。
Imaging in which the position of the imaging device during the imaging of the continuously captured image is specified by the three-dimensional position coordinates relative to the initial position of the imaging device in the same three-dimensional space in which the feature points are specified. Positioning means and
It has an absolute position acquisition means for acquiring position coordinates indicating the current position of the image pickup device with respect to the map of the parking lot.
The coordinate correction means
The position of the image pickup device and the feature point identification means specified by the image pickup position specifying means so that the position of the image pickup device finally specified by the image pickup position specifying means coincides with the current position of the image pickup device. The parking support device according to claim 1, wherein the position coordinates of the plurality of feature points are corrected by integrally moving the positions of the specified feature points.
前記連続撮像画像の撮像を行う間の前記撮像装置の方位を、前記撮像装置の初期位置での方位に対する相対的な角度で特定する撮像方位特定手段と、
前記撮像装置の現在方位を絶対方位により取得する絶対方位取得手段と、を有し、
前記座標修正手段は、
前記撮像方位特定手段により最後に特定された前記撮像装置の方位が前記撮像装置の現在方位と一致するように、前記撮像位置特定手段により特定された前記撮像装置の位置と前記特徴点特定手段により特定された前記特徴点の位置とを一体に回転させることによって、前記複数の特徴点の位置座標を修正する請求項2に記載の駐車支援装置。
An imaging orientation specifying means for specifying the orientation of the imaging device during the acquisition of the continuously captured images by an angle relative to the orientation at the initial position of the imaging device .
It has an absolute azimuth acquisition means for acquiring the current azimuth of the image pickup apparatus by an absolute azimuth.
The coordinate correction means
The position of the imaging device and the feature point identifying means specified by the imaging position specifying means so that the orientation of the imaging device finally identified by the imaging orientation identifying means matches the current orientation of the imaging device. The parking support device according to claim 2, wherein the position coordinates of the plurality of feature points are corrected by integrally rotating the positions of the specified feature points.
車両周辺にある第1の地物と第2の地物の配置間隔に関する情報を取得する情報取得手段と、
前記特徴点特定手段により特定された前記複数の特徴点の内、前記第1の地物を示す特徴点と前記第2の地物を示す特徴点の位置座標の間隔を取得する座標間隔取得手段と、
前記座標修正手段は、前記情報取得手段により取得した配置間隔と前記座標間隔取得手段により取得した位置座標の間隔とを比較し、前記3次元空間のスケールを車両が位置する駐車場の地図のスケールに対応させることによって、前記複数の特徴点の位置座標を修正する請求項2又は請求項3に記載の駐車支援装置。
An information acquisition means for acquiring information on the arrangement interval between the first feature and the second feature around the vehicle, and
Coordinate interval acquisition means for acquiring the distance between the position coordinates of the feature point indicating the first feature and the feature point indicating the second feature among the plurality of feature points specified by the feature point specifying means. When,
The coordinate correction means compares the arrangement interval acquired by the information acquisition means with the interval of the position coordinates acquired by the coordinate interval acquisition means, and scales the three-dimensional space on the scale of the map of the parking lot where the vehicle is located. The parking support device according to claim 2 or 3, wherein the position coordinates of the plurality of feature points are corrected by corresponding to the above.
前記第1の地物は駐車スペースの幅方向の一辺の境界を示す第1の境界であって、
前記第2の地物は前記駐車スペースの幅方向の他辺の境界を示す第2の境界であって、
前記情報取得手段は、前記第1の境界と前記第2の境界の配置間隔として前記駐車スペースの幅を取得し、
前記座標間隔取得手段は、前記第1の境界の端部を示す特徴点と前記第2の境界の端部を示す特徴点の位置座標の間隔を取得する請求項4に記載の駐車支援装置。
The first feature is a first boundary indicating the boundary of one side in the width direction of the parking space.
The second feature is a second boundary indicating the boundary of the other side in the width direction of the parking space.
The information acquisition means acquires the width of the parking space as an arrangement interval between the first boundary and the second boundary.
The parking support device according to claim 4, wherein the coordinate interval acquisition means acquires the distance between the position coordinates of the feature point indicating the end of the first boundary and the position coordinates of the feature point indicating the end of the second boundary.
前記撮像位置特定手段により特定された前記撮像装置の位置の路面からの高さを規定値と比較する比較手段を有し、
前記座標修正手段は、前記3次元空間のスケールを、前記撮像画像の位置の路面からの高さが前記規定値と一致するスケールとする請求項4又は請求項5に記載の駐車支援装置。
It has a comparison means for comparing the height of the position of the imaging device specified by the imaging position specifying means from the road surface with a specified value.
The parking support device according to claim 4 or 5, wherein the coordinate correction means sets the scale of the three-dimensional space to a scale at which the height of the position of the captured image from the road surface matches the specified value.
前記駐車スペース検出手段は、路面からの高さが所定距離以上の特徴点の配置態様に基づいて、車両の現在位置周辺にある空き状態の駐車スペースを検出する請求項1乃至請求項6のいずれかに記載の駐車支援装置。 Any of claims 1 to 6, wherein the parking space detecting means detects an empty parking space around the current position of the vehicle based on an arrangement mode of feature points whose height from the road surface is a predetermined distance or more. Parking support device described in Crab. コンピュータを、
車両周辺を車両に設置された撮像装置により連続的に撮像した撮像画像を連続撮像画像として取得する画像取得手段と、
前記連続撮像画像に基づいて、車両周辺にある複数の特徴点について、前記複数の特徴点毎に前記連続撮像画像の撮像を開始した際の前記撮像装置の初期位置に対する相対的な3次元の位置座標を3次元空間上において特定する特徴点特定手段と、
前記特徴点特定手段により特定された前記複数の特徴点の位置座標を、車両が現在位置する駐車場の地図に対する位置を示す3次元の位置座標に修正する座標修正手段と、
前記位置座標の修正を行った後に、前記駐車場の地図に対する前記複数の特徴点の配置態様に基づいて、車両の現在位置周辺にある空き状態の駐車スペースを検出する駐車スペース検出手段と、
して機能させる為のコンピュータプログラム。
Computer,
An image acquisition means for acquiring an image taken continuously by an image pickup device installed in the vehicle around the vehicle as a continuous image, and an image acquisition means.
Based on the continuously captured images, with respect to the plurality of feature points around the vehicle, the three-dimensional positions relative to the initial position of the imaging device when the imaging of the continuously captured images is started for each of the plurality of feature points. A feature point identification means for specifying coordinates in a three-dimensional space,
Coordinate correction means for correcting the position coordinates of the plurality of feature points specified by the feature point specifying means to three-dimensional position coordinates indicating the position of the parking lot where the vehicle is currently located with respect to the map.
A parking space detecting means for detecting an empty parking space around the current position of the vehicle based on the arrangement mode of the plurality of feature points on the map of the parking lot after the correction of the position coordinates.
A computer program to make it work.
JP2017219960A 2017-11-15 2017-11-15 Parking assistance device and computer program Active JP6926976B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017219960A JP6926976B2 (en) 2017-11-15 2017-11-15 Parking assistance device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017219960A JP6926976B2 (en) 2017-11-15 2017-11-15 Parking assistance device and computer program

Publications (2)

Publication Number Publication Date
JP2019089476A JP2019089476A (en) 2019-06-13
JP6926976B2 true JP6926976B2 (en) 2021-08-25

Family

ID=66835667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017219960A Active JP6926976B2 (en) 2017-11-15 2017-11-15 Parking assistance device and computer program

Country Status (1)

Country Link
JP (1) JP6926976B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7212486B2 (en) * 2018-09-26 2023-01-25 フォルシアクラリオン・エレクトロニクス株式会社 position estimator
JP7318377B2 (en) * 2019-07-10 2023-08-01 株式会社Soken Object detection device
JP7151654B2 (en) 2019-07-26 2022-10-12 トヨタ自動車株式会社 Search device, learning device, search system, search program, and learning program
JP7298435B2 (en) * 2019-10-11 2023-06-27 株式会社デンソー Vehicle surroundings monitoring device and vehicle surroundings monitoring method
CN111739335B (en) * 2020-04-26 2021-06-25 智慧互通科技股份有限公司 A method and device for parking detection based on visual difference
CN112037531B (en) * 2020-09-11 2021-06-01 江苏小白兔智造科技有限公司 Intelligent parking method without parking hall based on vehicle type
CN113052141A (en) * 2021-04-26 2021-06-29 超级视线科技有限公司 Method and device for detecting parking position of vehicle
DE102021205593B3 (en) 2021-06-01 2022-10-13 Continental Autonomous Mobility Germany GmbH Method and system for correcting a position of at least one feature in an environment of an ego vehicle
JP7340802B2 (en) * 2021-09-30 2023-09-08 パナソニックIpマネジメント株式会社 Parking support device, parking support method, and vehicle
CN115457760B (en) * 2022-08-03 2023-09-01 北京云星宇交通科技股份有限公司 Method and device for identifying and binding license plate and berth of vehicle
CN115372899B (en) * 2022-08-24 2024-10-01 深圳市鼎飞技术有限公司 Method for realizing positioning in no-signal area based on TOF technology
CN115762217A (en) * 2022-10-10 2023-03-07 内蒙古巨宇测绘有限公司 Underground parking space navigation method and system based on three-dimensional image
CN116434589A (en) * 2023-02-27 2023-07-14 珠海市魅族科技有限公司 Intelligent vehicle searching method, device, equipment and storage medium

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4333112A1 (en) * 1993-09-29 1995-03-30 Bosch Gmbh Robert Method and device for parking a vehicle
JP4670463B2 (en) * 2005-04-28 2011-04-13 アイシン・エィ・ダブリュ株式会社 Parking space monitoring device
DE102005026386A1 (en) * 2005-06-02 2006-12-07 Volkswagen Ag Free space e.g. parking space, determining method for motor vehicle, involves executing signal run time measurement to measure objects in vicinity of vehicle, and combining object probability distribution with hindrance distribution
JP4687395B2 (en) * 2005-11-02 2011-05-25 株式会社エクォス・リサーチ Parking control device
JP2007213143A (en) * 2006-02-07 2007-08-23 Hitachi Ltd Bottom rubbing avoidance assist device
DE102014111126A1 (en) * 2014-08-05 2016-02-11 Valeo Schalter Und Sensoren Gmbh Method for generating an environment map of an environmental area of a motor vehicle, driver assistance system and motor vehicle
JP6514624B2 (en) * 2015-11-02 2019-05-15 クラリオン株式会社 Obstacle detection device

Also Published As

Publication number Publication date
JP2019089476A (en) 2019-06-13

Similar Documents

Publication Publication Date Title
JP6926976B2 (en) Parking assistance device and computer program
JP6658905B2 (en) Travel support device and computer program
JP5569365B2 (en) Guide device, guide method, and guide program
US11511627B2 (en) Display device and computer program
JP5798392B2 (en) Parking assistance device
EP3708466B1 (en) Parking assistance device and parking assistance method
JP4421549B2 (en) Driving assistance device
CN111028534B (en) Parking space detection method and device
JP2013154730A (en) Apparatus and method for processing image, and parking support system
JP2006298115A (en) Driving-support method and driving-support device
JP2007320433A (en) Parking guidance device
JP2009211624A (en) Driving support device, driving support method, and computer program
JP2007315956A (en) Map creation method, guiding method and navigation device for parking lot
JP4968369B2 (en) In-vehicle device and vehicle recognition method
JP5134608B2 (en) Vehicle periphery display device, vehicle periphery display method and program
JP2010012838A (en) Parking assisting device and parking assisting method
JP2025031822A (en) Parking assistance method and parking assistance device
JP5573266B2 (en) Vehicle object image recognition apparatus, vehicle object image recognition method, and computer program
JP2009009368A (en) Road-surface indication recognition system
JP4687381B2 (en) Vehicle recognition method and in-vehicle device
JP2007122395A (en) Method and device for determining change of direction
WO2023248468A1 (en) Parking assisting method and parking assistance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20210423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210719

R150 Certificate of patent or registration of utility model

Ref document number: 6926976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150