[go: up one dir, main page]

JP2016176769A - 情報処理装置、及び、車両位置検出方法 - Google Patents

情報処理装置、及び、車両位置検出方法 Download PDF

Info

Publication number
JP2016176769A
JP2016176769A JP2015056157A JP2015056157A JP2016176769A JP 2016176769 A JP2016176769 A JP 2016176769A JP 2015056157 A JP2015056157 A JP 2015056157A JP 2015056157 A JP2015056157 A JP 2015056157A JP 2016176769 A JP2016176769 A JP 2016176769A
Authority
JP
Japan
Prior art keywords
vehicle
image data
road
information
calculated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015056157A
Other languages
English (en)
Inventor
紹男 住澤
Suguo Sumisawa
紹男 住澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2015056157A priority Critical patent/JP2016176769A/ja
Priority to US15/556,116 priority patent/US20180045516A1/en
Priority to EP16765066.2A priority patent/EP3279611A4/en
Priority to PCT/JP2016/058501 priority patent/WO2016148237A1/ja
Publication of JP2016176769A publication Critical patent/JP2016176769A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車両の道路上の位置を、より高い精度で算出する。【解決手段】車載ナビゲーション装置1は、車両の外を撮影して得られた撮影画像データを取得し、撮影画像データに、道路標識の画像データである対象画像データが含まれる場合、対象画像データに基づいて、道路標識に対する車両の相対位置を算出し、算出した相対位置に基づいて、車両の道路上の位置を検出する制御部10を備える。【選択図】図1

Description

本発明は、車両の位置を検出する技術に関する。
本技術分野の背景技術として、特許文献1には、「推測航法を利用して車両の現在地を検出して、車両の現在地情報を管理し、前記推測航法を利用して左右方向の移動量を積算し、その移動量と道路のレーン幅とを比較して現在地情報のレーン移動を検出することにより、現在地検出手段により推測航法を利用して車両の現在地を検出し、レーン移動検出手段によりレーン移動を検出して、レーン位置を含む車両の現在地情報を現在地情報管理手段により管理する。」と記載されている。
特開2006−189325号公報
しかしながら、特許文献1に記載された技術は、積算した車両の移動量を利用して車両の現在位置を検出するため、車両の走行距離が長くなると、検出した車両の位置と、実際の車両の位置との誤差が大きくなるという問題がある。
本発明は、上述した事情に鑑みてなされたものであり、車両の道路上の位置を、より高い精度で算出することを目的とする。
上記目的を達成するために、本発明は、車両に搭載された情報処理装置において、車両の外を撮影して得られた撮影画像データを取得し、前記撮影画像データに、所定の対象物の画像データである対象画像データが含まれる場合、前記対象画像データに基づいて、前記対象物に対する前記車両の相対位置を算出し、算出した前記相対位置に基づいて、前記車両の道路上の位置を検出する制御部を備えることを特徴とする。
また、本発明の情報処理装置は、前記制御部は、記憶された前記対象画像データに対応する画像データと前記撮影画像データとの比較結果に基づいて、前記撮影画像データに前記対象画像データが含まれるか否かを判別することを特徴とする。
また、本発明の情報処理装置は、前記対象物の位置を示す情報、及び、前記対象物と道路との関係を示す情報を含む道路情報を記憶する記憶部を備え、前記制御部は、算出した前記相対位置、及び、前記記憶部が記憶する前記道路情報に基づいて、前記車両の道路上の位置を算出することを特徴とする。
また、本発明の情報処理装置は、前記制御部は、前記相対位置として、前記車両の進行方向に交わる方向における前記車両と前記対象物との離間距離である直角方向離間距離を算出し、算出した前記直角方向離間距離、及び、前記記憶部が記憶する前記道路情報に基づいて、前記車両の道路上の位置を算出することを特徴とする。
また、本発明の情報処理装置は、前記道路情報は、道路が有する車線の幅に関する情報、及び、前記対象物と道路との離間距離に関する情報を含み、前記制御部は、算出した前記直角方向離間距離、及び、前記記憶部が記憶する前記道路情報に基づいて、前記車両が走行している車線を特定することを特徴とする。
また、本発明の情報処理装置は、前記対象物は、道路標識を含むことを特徴とする。
また、本発明の情報処理装置は、撮影機能を有する撮影装置が接続可能なインターフェースを備え、前記制御部は、前記インターフェースを介して前記撮影装置から前記撮影画像データを受信して取得することを特徴とする。
また、上記目的を達成するために、本発明の車両位置検出方法は、制御部により、車両の外を撮影して得られた撮影画像データを取得し、前記撮影画像データに、所定の対象物の画像データである対象画像データが含まれる場合、前記対象画像データに基づいて、前記対象物に対する前記車両の相対位置を算出し、算出した前記相対位置に基づいて、前記車両の道路上の位置を検出することを特徴とする。
また、本発明の車両位置検出方法は、前記対象画像データに対応する画像データを記憶し、記憶した前記対象画像データに対応する画像データと前記撮影画像データとの比較結果に基づいて、前記撮影画像データに前記対象画像データが含まれるか否かを判別することを特徴とする。
また、本発明の車両位置検出方法は、算出した前記相対位置、及び、前記対象物の位置を示す情報及び前記対象物と道路との関係を示す情報を含む道路情報に基づいて、前記車両の道路上の位置を算出することを特徴とする。
また、本発明の車両位置検出方法は、前記相対位置として、前記車両の進行方向に交わる方向における前記車両と前記対象物との離間距離である直角方向離間距離を算出し、算出した前記直角方向離間距離、及び、前記記憶部が記憶する前記道路情報に基づいて、前記車両の道路上の位置を算出することを特徴とする。
また、本発明の車両位置検出方法は、算出した前記直角方向離間距離、及び、道路が有する車線の幅に関する情報及び前記対象物と道路との離間距離に関する情報を含む前記道路情報に基づいて、前記車両が走行している車線を特定することを特徴とする。
また、上記目的を達成するために、本発明は、車両に搭載された車載装置とネットワークを介して通信可能に接続された情報処理装置において、前記車載装置から、前記車両の外を撮影して得られた撮影画像データを取得し、前記撮影画像データに、所定の対象物の画像データである対象画像データが含まれる場合、前記対象画像データに基づいて、前記対象物に対する前記車両の相対位置を算出し、算出した前記相対位置に基づいて、前記車両の道路上の位置を検出し、検出結果を前記車載装置に通知する制御部を備えることを特徴とする。
本発明によれば、車両の道路上の位置を、より高い精度で算出できる。
第1実施形態に係る車載ナビゲーション装置の機能的構成を示すブロック図。 走行レーンと、車両と、道路標識との関係を示す図。 車載ナビゲーション装置の動作を示すフローチャート。 撮影画像データの一例を示す図。 道路情報データのデータ構造を示す図。 第2実施形態に係る車載ナビゲーション装置の動作を示すフローチャート。 走行レーンと、車両と、道路標識との関係を示す図。 第3実施形態に係る車載ナビゲーション装置の動作を示すフローチャート。 走行レーンと、車両と、道路標識との関係を示す図。 第4実施形態に係る車両位置検出システムの構成を示す図。
以下、図面を参照して本発明の実施形態について説明する。
<第1実施形態>
図1は、第1実施形態に係る車載ナビゲーション装置1(情報処理装置)の機能的構成を示すブロック図である。
車載ナビゲーション装置1は、車両に搭載される装置であり、車両の現在位置を検出する自車位置検出を行う機能、地図を表示して、表示した地図上に車両の現在位置を表示する地図表示を行う機能、目的地までの経路を探索する経路探索を行う機能、及び、地図を表示して、地図上に目的地までの経路を表示し、目的地までの経路を案内する経路案内を行う機能を備える。
以下、車載ナビゲーション装置1が搭載された車両を「自車両」と表現する。
図1に示すように、車載ナビゲーション装置1は、制御部10と、タッチパネル11と、記憶部12と、GPSユニット13と、相対方位検出ユニット14と、インターフェース15と、車速取得部16と、を備える。
制御部10は、CPUや、ROM、RAM、その他の周辺回路等を備え、車載ナビゲーション装置1の各部を制御する。制御部10は、例えば、CPUが、ROMに記憶された制御プログラムを読み出して実行する等、ハードウェアとソフトウェアとの協働により、車載ナビゲーション装置1の各部を制御する。
タッチパネル11は、表示パネル111と、タッチセンサー112とを備える。表示パネル111は、液晶表示パネルや、有機ELパネル等の表示装置を備え、制御部10の制御に従って、各種画像を表示する。タッチセンサー112は、表示パネル111に重ねて配置され、ユーザのタッチ操作を検出し、タッチ操作を示す信号を制御部10に出力する。制御部10は、タッチセンサー112から入力された信号に基づいて、ユーザのタッチ操作に対応する処理を実行する。
記憶部12は、不揮発性メモリーを備え、各種データを記憶する。
記憶部12は、地図データ121を記憶する。
地図データ121は、パーセルデータを含む。パーセルデータは、上述した地図表示や、経路案内で利用されるデータであり、道路の形状の描画に係る道路描画データや、地形等の背景の描画に係る背景描画データ、行政区画等の文字列の描画に係る文字列描画データ等の地図の表示に係る描画データを含む。なお、前記道路描画データは、交差点等の道路網における結線点に対応するノードに関する情報を有するノード情報や、ノードとノードとの間に形成される道路に対応するリンクに関する情報を有するリンク情報、経路案内のために必要な情報をさらに含んでいる。
また、地図データ121は、リージョンデータを含む。リージョンデータは、上述した経路探索で利用されるデータであり、交差点等の道路網における結線点に対応するノードに関する情報を有するノード情報や、ノードとノードとの間に形成される道路に対応するリンクに関する情報を有するリンク情報等、経路探索のために必要な情報を含む。
また、地図データ121は、道路情報データ1211を含む。道路情報データ1211については、後述する。
GPSユニット13は、図示せぬGPSアンテナを介してGPS衛星からのGPS電波を受信し、GPS電波に重畳されたGPS信号から、自車両の現在位置と進行方向とを演算により取得する。GPSユニット13は、取得結果を制御部10に出力する。
相対方位検出ユニット14は、ジャイロセンサと、加速度センサとを備える。ジャイロセンサは、例えば振動ジャイロにより構成され、自車両の相対的な方位(例えば、ヨー軸方向の旋回量)を検出する。加速度センサは、自車両に作用する加速度(例えば、進行方向に対する自車両の傾き)を検出する。相対方位検出ユニット14は、ジャイロセンサ、及び、加速度センサの検出結果を制御部10に出力する。
車速取得部16は、例えば、車速パルスを検出するセンサと接続され、当該センサから入力される車速パルスに基づいて自車両の車速を検出し、また例えば、ECU(Engine Contorol Unit)と通信して、ECUから車速に関する情報を取得して自車両の車速を検出する。車速取得部16は、検出結果を制御部10に出力する。制御部10は、車速取得部16からの入力に基づいて、自車両の車速を検出する。
制御部10は、自車位置検出を行う場合、GPSユニット13及び相対方位検出ユニット14からの入力、車速取得部16からの入力に基づいて検出した自車両の車速等の自車両の状態、及び、地図データ121に基づいて自車両の現在位置を推定し、適宜、後述する方法で推定した現在位置を補正して、自車両の現在位置を検出する。
また、制御部10は、地図表示を行う場合、検出した自車両の現在位置を、タッチパネル11に表示した地図上に表示する。
また、制御部10は、経路探索を行う場合、地図データ121に基づいて、検出した現在位置から、ユーザに設定された目的地に至る経路を探索する。
また、制御部10は、経路案内を行う場合、目的地までの経路を地図上に示しつつ、現出した自車両の現在位置を地図上に表示し、経路を案内する。
インターフェース15は、外部装置が接続され、制御部10の制御に従って、所定のプロトコルに従って、接続された外部装置と通信する。本実施形態では、インターフェース15に外部装置として車載カメラ20(撮影装置)が接続される。
車載カメラ20は、自車両の前方を撮影する2つの撮影部を有するステレオカメラである。2つの撮影部のレンズ機構は、自車両のフロントガラスの内側で、自車両の前後方向に直交する方向である左右方向に離間して配置されている。2つの撮影部のそれぞれは、所定の周期で同期をとって撮影を実行する。車載カメラ20は、2つの撮影部の撮影結果に基づいて2つの撮影画像データを生成し、生成した2つの撮影画像データを、インターフェース15を介して制御部10に出力する。
ところで、上述したように、本実施形態に係る車載ナビゲーション装置1は、自車両の現在位置を検出する自車位置検出を行う機能を有する。
そして、自車位置検出について、走行中の道路における自車両の現在位置をできるだけ高い精度で検出したいとするニーズがある。特に、自車位置検出について、走行中の道路が複数の車線を有する場合において、複数の車線のうち、どの車線を自車両が走行しているかをできるだけ高い精度で検出したいとするニーズがある。自車両が走行している車線(以下、「走行車線」という。)を高い精度で検出することにより、地図表示に際し、ユーザに、自車両が走行中の車線をより正確に報知でき、また、経路案内に際し、探索した経路をスムーズに走行するための車線の変更等を的確に報知でき、ユーザの利便性が向上する。
以上を踏まえ、車載ナビゲーション装置1は、以下の方法で自車両が走行している車線を検出する。
図2は、自車両が所定の走行レーンを走行している場合において、当該走行レーンと、自車両の現在位置である位置P1、及び、後述する処理で自車両の位置の検出に利用する道路標識(以下、単に「道路標識」という。)の位置である位置P2との関係の一例を示す図である。
また、図3は、自車両が走行している車線を検出するときの車載ナビゲーション装置1の動作を示すフローチャートである。
以下で図3のフローチャートを用いて説明する処理は、走行レーンの形状が図2に例示した走行レーンに準じた形状であり、また、走行レーンと、自車両の現在位置、及び、道路標識の位置との関係が、図2に例示する関係に準じたものであることを前提とする。
すなわち、走行レーンは、複数の車線(図2の例では、第1車線S1〜第5車線S5の5つの車線)を有することを前提とする。
また、走行レーンは、自車両の現在位置(図2の例では、位置P1)から、進行方向に向かって、少なくとも道路標識の位置(図2の例では、位置P2)までは屈曲することなく直線的に延びており、車線の数に変化がなく、各車線の幅に略変化がないことを前提とする。
また、走行レーンに含まれる車線のうち、進行方向に向かって最も左側の車線(図2の例では、第1車線S1)の左側には、当該車線に沿って路側帯(図2の例では、路側帯R1)が延在することを前提とする。
また、道路標識の位置(図2の例では、位置P2)は、自車両の位置(図2の例では、位置P1)から進行方向に向かって左斜め前方であって、自車両に搭載された車載カメラ20により撮影可能な位置であることを前提とする。
以下の説明では、自車両の進行方向に交わる方向を「直角方向」(図2の例では、直角方向Y1)という。
図3に示すように、車載ナビゲーション装置1の制御部10は、車載カメラ20が出力した撮影画像データを取得する(ステップSA1)。
上述したように、車載カメラ20は、2つの撮影部で同期をとって所定の周期で自車両の前方を撮影し、撮影結果に基づく撮影画像データを制御部10に出力する。従って、制御部10は、ステップSA1の処理を車載カメラ20が撮影画像データを出力する周期に対応する周期で実行し、ステップSA1の処理の実行(撮影画像データの取得)をトリガーとして、ステップSA2以下の処理を実行する。
次いで、制御部10は、ステップSA1で取得した撮影画像データを分析し、撮影画像データに、最高速度(制限速度、規制速度)を示す道路標識(以下、「最高速度道路標識」という。)の画像の画像データである対象画像データが含まれているか否かを判別する(ステップSA2)。以下、ステップSA2の処理について詳述する。
なお、制御部10は、2台のステレオカメラから同期をとって入力される撮影画像データのうち、いずれか一方の撮影画像データを用いて、ステップSA2の処理を実行する。
図4は、撮影画像データの一例を、説明に適した態様で模式的に示す図である。
本実施形態において、撮影画像データは、色に関する情報(例えば、RGBの各色の色成分を所定階調の階調値で表す情報)を有するドットが、所定の解像度に対応してドットマトリックス状に配置された画像データである。
ここで、地図データ121は、最高速度ごとの最高速度道路標識のそれぞれについて、パターンマッチングでテンプレートとして用いる画像データ(以下、「テンプレート画像データ」という。)を有する。テンプレート画像データは、「記憶された対象画像データに対応する画像データ」に相当する。ステップSA2において、制御部10は、地図データ121が有するテンプレート画像データを用いたパターンマッチングを行って、撮影画像データに、対象画像データが含まれているか否かを判別する。
図4の例では、領域A1は、最高速度が50km/hであることを示す最高速度道路標識の画像の画像データであり、当該領域A1に対応する画像データが、対象画像データに相当する。従って、制御部10は、ステップSA1において図4の撮影画像データを取得した場合、ステップSA2において最高速度が50km/hであることを示す最高速度道路標識の画像のテンプレートに係るテンプレート画像データを用いたパターンマッチングにより、撮影画像データに対象画像データが含まれていると判別する。
なお、ステップSA2において、撮影画像データに対象画像データが含まれているか否かの判別の精度、及び、後述する標識車両間距離の算出の精度を向上するため、制御部10は、撮影画像データに含まれていた対象画像データのサイズが所定の閾値以上の場合に、撮影画像データに対象画像データが含まれると判別するようにしてもよい。
なお、撮影画像データに、対象画像データが含まれているか否かを判別する方法は、パターンマッチングを用いた方法に限らず、どのような方法であってもよい。
ステップSA2において、撮影画像データに、対象画像データが含まれていないと判別した場合(ステップSA2:NO)、制御部10は、処理を終了する。
ステップSA2において、撮影画像データに対象画像データが含まれていると判別した場合(ステップSA2:YES)、制御部10は、対象画像データに基づいて、撮影された道路標識(最高速度道路標識)を認識する(ステップSA3)。
具体的には、ステップSA3において、制御部10は、対象画像データを分析し、対象画像データに対応する道路標識の種類を取得する。例えば、制御部10は、パターンマッチング等の方法により、対象画像データに対応する道路標識に含まれる文字列や、図形を特定する。ここで、地図データ121は、道路標識の種類ごとに、道路標識に含まれる文字列や図形と、道路標識の種類とを対応付ける情報を有する。制御部10は、当該情報に基づいて、特定した文字列や、図形に対応する道路標識の種類を取得する。
なお、道路標識の種類を特定する方法は、道路標識に含まれる文字列や、図形に基づく方法に限らず、どのような方法であってもよい。例えば、道路標識の種類を特定する方法は、道路標識の形状や、色等を反映して道路標識の種類を特定する方法であってもよい。
続くステップSA4で、制御部10は、対象画像データに対応する道路標識と、自車両との離間距離(以下、「標識車両間距離」という。図2の例では、標識車両間距離A)を算出する。
例えば、制御部10は、車載カメラ20から入力された2つの撮影部の2つの撮影画像データにおける対象画像データの位置の差(視差)を利用した既存の画像処理により、標識車両間距離を算出する。
なお、標識車両間距離の算出方法は、例示した方法に限らず、どのような方法であってもよい。例えば、制御部10は、撮影画像データにおける対象画像データのサイズに基づく所定の手段により、標識車両間距離を算出してもよい。
続くステップSA5で、制御部10は、自車両の進行方向に向かって延びる仮想直線(図2の例では、仮想直線KT1)と、自車両と道路標識とを結ぶ仮想直線(図2の例では、仮想直線KT2)との角度(以下、「標識車両間角度」という。図2の例では、角度θ)を算出する。
例えば、制御部10は、ステップSA4で算出した標識車両間距離と、車載カメラ20から入力された2つの撮影部の2つの撮影画像データにおける対象画像データの位置と、撮影画像データにおける車線の境界を示す白線の向きとに基づく既存の画像処理により、標識車両間角度を算出する。
なお、標識車両間角度の算出方法は、例示した方法に限らず、どのような方法であってもよい。
続くステップSA6で、制御部10は、自車両の現在位置(図2の例では、位置P1)と、道路標識の位置(図2の例では、位置P2)との、直角方向(図4の例では、直角方向Y1)における距離(以下、「直角方向離間距離」という。図4の例では、直角方向離間距離B。)を算出する。以下、ステップSA6の処理について詳述する。
制御部10は、ステップSA4で算出した標識車両間距離、及び、ステップSA5で算出した標識車両間角度に基づいて、以下の数式M1によって、直角方向離間距離を算出する。
(式M1):直角方向離間距離=標識車両間距離・sin(標識車両間角度)
次いで、制御部10は、GPSユニット13、相対方位検出ユニット14、及び、車速取得部16からの入力に基づいて、自車両の現在位置を検出する(ステップSA7)。
以下の説明では、GPSユニット13、及び、相対方位検出ユニット14からの入力に基づいて検出される自車両の現在位置を「推定現在位置」と表現する。推定現在位置は、GPSユニット13からの入力を利用して算出されるため、GPSに由来する誤差が生じる場合があり、推定現在位置に基づいて、走行車線を検出するのは適切ではない。また、推定現在位置は、自車両の現在位置を、経度、及び、緯度によって表すものである。
次いで、制御部10は、道路情報データ1211を参照する(ステップSA8)。
道路情報データ1211は、地図データ121に基づく地図に表示される道路標識(地図データ121で管理する道路標識)のそれぞれについて、レコードを有するデータベースである。
図5は、道路情報データ1211の1件のレコードのデータ構造を示す図である。
図5に示すように、道路情報データ1211の1件のレコードは、標識情報J1と、対応道路情報J2とを有する。
標識情報J1は、道路標識に関する情報であり、道路標識を一意に識別するための標識IDJ11と、道路標識の種類を示す標識種類情報J12と、道路標識の位置(経度、及び、緯度で表される位置)を示す標識位置情報J13と有する。
対応道路情報J2は、道路標識が設けられた道路に関する情報である。なお、道路標識が設けられた道路とは、当該道路標識が示す規則に従った走行が求められる片側の道路を意味する。
対応道路情報J2は、道路のリンクIDJ21(上述したリージョンデータ、又は、パーセルデータのリンク情報において、リンクごとに割り振られた識別情報)と、道路の車線数を示す車線数情報J22と、道路標識が設けられた道路の車線のうち進行方向に向かって最も左側の車線の左端と、道路標識の位置との離間距離(以下、「標識道路離間距離」という。)を示す道路離間情報J23と、を有する。また、対応道路情報J2は、道路が有するn(ただし、nは、「1」以上の整数)個の車線ごとに、車線の幅を示す第1車線幅情報J241〜第n車線幅情報J24nを有する。以下の説明では、n個の車線について、進行方向に向かって最も左側の車線から順番に、第1車線、第2車線、・・・、第n車線と表現する。
道路情報データ1211の各レコードが有する情報は、「道路情報」に相当する。
また、道路離間情報J23は、「対象物と道路との離間距離に関する情報」に相当する。
続くステップSA9で、制御部10は、道路情報データ1211が有するレコードの中から、対象画像データに対応する道路標識のレコードを特定する。以下、ステップSA9の処理について詳述する。
ステップSA9において、制御部10は、道路情報データ1211が有する各レコードのうち、道路情報データ1211の標識位置情報J13が示す位置と、ステップSA7で検出した推定現在位置とが所定の関係にあるレコードを抽出する。
道路情報データ1211の標識位置情報J13が示す位置と、ステップSA7で検出した推定現在位置とが所定の関係にあるとは、標識位置情報J13が示す位置が、推定現在位置を起点とした車載カメラ20の撮影範囲内にあることをいう。
抽出したレコードが1つの場合、制御部10は、抽出されたレコードを、対象画像データに対応する道路標識のレコードとして、特定する。
一方、抽出されるレコードが複数ある場合が生じ得る。この場合、制御部10は、抽出した複数のレコードのうち、標識種類情報J12が示す道路標識の種類が、ステップSA3で取得した対象画像データに対応する道路標識の種類と一致するレコードを、対象画像データに対応する道路標識のレコードとして、特定する。
ここで、通常、同一の種類の道路標識は、一定以上の距離、離間して配置される。従って、上記方法で、対応するレコードを特定することにより、対象画像データに対応する道路標識のレコードを、適切に、特定できる。
続くステップSA10において、制御部10は、ステップSA9で特定したレコードに基づいて、道路離間情報J23、及び、第1車線幅情報J241〜第n車線幅情報J24nを取得する。
次いで、制御部10は、ステップSA6で算出した直角方向離間距離と、ステップSA10で取得した道路離間情報J23、及び、第1車線幅情報J241〜第n車線幅情報J24nに基づいて、自車両が走行している車線(走行車線)を特定する(ステップSA11)。以下、ステップSA11の処理について詳述する。
ここで、自車両が走行している車線は、直角方向離間距離と、標識道路離間距離、及び、道路が有する各車線の幅との関係により、特定可能である。
すなわち、直角方向離間距離と、標識道路離間距離と、道路(走行レーン)が有する第1車線〜第n車線の幅とは、以下の関係にある。「標識道路離間距離+第1車線の幅+・・・+第(m−1)車線の幅<直角方向離間距離<標識道路離間距離+第1車線の幅+・・・+第m車線の幅」(ただし、mは、「1」以上の整数。)。この場合、自車両が走行している車線(走行車線)は、第m車線である。
例えば、図2の場合、直角方向離間距離Cと、標識道路離間距離H1、及び、道路(走行レーン)が有する第1車線S1〜第5車線S5の幅L1〜幅L5とは、以下の関係にある。「標識道路離間距離H1+幅L1+幅L2<直角方向離間距離C<標識道路離間距離H1+幅L1+幅L2+幅L3」。そして、この場合、自車両が走行している車線は、第3車線S3である。
以上を踏まえ、ステップSA11において、制御部10は、直角方向離間距離と、標識道路離間距離、及び、道路が有する各車線の幅との関係に基づいて、自車両が走行している車線(走行車線)を特定する。
以上、自車両が走行している車線を検出(特定)するときの車載ナビゲーション装置1の動作を説明した。
ここで、上記の説明では、制御部10は、標識車両間角度、標識車両間距離、及び、直角方向離間距離を算出した。
そして、標識車両間角度、及び、標識車両間距離が定まれば、道路標識に対する自車両の位置が定まるため、標識車両間角度、及び、標識車両間距離は、「道路標識(対象物)に対する自車両(車両)の相対位置」に相当する。
同様に、直角方向離間距離が定まれば、道路標識に対する直角方向における自車両の位置が定まるため、直角方向離間距離は、「道路標識(対象物)に対する自車両(車両)の相対位置」に相当する。
また、上述した実施形態では、制御部10は、算出した標識車両間角度、標識車両間距離、及び、直角方向離間距離を用いて、自車両が走行する車線を検出していた。しかしながら、これら相対位置は、自車両の検出に際し、他の方法で使用可能である。
例えば、制御部10は、標識車両間角度、及び、標識車両間距離に基づいて、道路標識に対する自車両の相対位置を検出できる。従って、制御部10は、道路標識の地図上の位置を取得することにより、自車両の地図上の位置を検出できる。そして、標識車両間角度、及び、標識車両間距離に基づいて検出した自車両の地図上の位置により、例えば、GPSユニット13等からの入力により検出した推定現在位置を補正すれば、より高い精度で、自車両の位置を検出できる。
また、自動運転システム(完全な自動運転に係るシステムだけでなく、所定の場合に自動運転を支援するシステムを含む。)では、自車両の位置を高い精度で検出することが求められるが、自車両の位置の検出に際し、算出した標識車両間角度、標識車両間距離、及び、直角方向離間距離を用いることにより、より高い精度で、自車両の位置を検出できる。
以上説明したように、本実施形態に係る車載ナビゲーション装置1(情報処理装置)は、自車両(車両)の外を撮影して得られた撮影画像データを取得し、撮影画像データに、道路標識(所定の対象物)の画像データである対象画像データが含まれる場合、対象画像データに基づいて、道路標識に対する車両の相対位置(標識車両間角度と標識車両間距離との組み合わせ、又は、直角方向離間距離)を算出し、算出した相対位置に基づいて、車両の道路上の位置を検出する制御部10を備える。
この構成によれば、撮影画像データに含まれる対象画像データに基づいて、道路標識に対する自車両の相対位置を算出し、算出した相対位置に基づいて、自車両の道路上の位置が検出されるため、例えば、積算した車両の移動量を利用して車両の現在位置を検出する場合と比較して、車両の走行距離の長距離化に伴う位置検出の誤差が生じず、高い精度で車両の道路上の位置を算出できる。
また、本実施形態では、車載ナビゲーション装置1は、道路標識の位置を示す情報、及び、道路標識と道路との関係を示す情報を含む道路情報を有する道路情報データ1211記憶する記憶部12を備える。
そして、制御部10は、算出した相対位置(標識車両間角度と標識車両間距離との組み合わせ、又は、直角方向離間距離)、及び、記憶部12が記憶する道路情報データ1211に基づいて、自車両の道路上の位置を算出する。
この構成によれば、制御部10は、道路情報データ1211が有する道路情報を利用して、算出した相対位置に基づいて、高い精度で自車両の道路上の位置を検出できる。
また、本実施形態では、制御部10は、相対位置として、直角方向(自車両の進行方向に交わる方向)における自車両と道路標識との離間距離である直角方向離間距離を算出し、算出した直角方向離間距離、及び、道路情報データ1211に基づいて、自車両の道路上の位置を算出する。
この構成によれば、制御部10は、道路情報データ1211が有する道路情報を利用して、算出した直角方向離間距離に基づいて、高い精度で自車両の道路上の位置を検出する。
また、本実施形態では、道路情報データ1211の道路情報は、第1車線幅情報J241〜第n車線幅情報J24n(道路が有する車線の幅に関する情報)、及び、道路離間情報J23(対象物と道路との離間距離に関する情報)を含む。
そして、制御部10は、算出した直角方向離間距離、及び、道路情報データ1211に基づいて、自車両が走行している車線を特定する。
この構成によれば、道路情報データ1211が有する道路情報を利用して、算出した直角方向離間距離に基づいて、高い精度で自車両の道路上の位置を検出する。
<第2実施形態>
次に、第2実施形態について説明する。
以下の説明において、第1実施形態で説明した構成要素と同一の構成要素については、同一の符号を付与し、その詳細な説明を省略する。
また、第2実施形態では、走行レーンの形状、及び、走行レーンと自車両の現在位置及び道路標識の位置との関係について、第1実施形態に係る前提と同様の前提であるものとする。
図6は、本実施形態に係る車載ナビゲーション装置1が、自車両が走行している車線を検出するときの動作を示すフローチャートである。
図7は、本実施形態に係る車載ナビゲーション装置1の処理を説明するため、走行レーンと、道路標識の位置と、自車両の位置との関係を示す図である。
本実施形態に係る車載装置は、第1実施形態で図3のフローチャートを用いて説明した処理のうち、ステップSA4〜ステップSA6の処理について、異なる処理を実行する。これを踏まえ、図6のフローチャートにおいて、図3と同一の処理が行われるステップについては、同一の符号を振り、その説明を省略する。そして、以下では、図3のステップSA4〜SA6の処理に代えて行われるステップSB1〜SB5の処理を説明する。
図6に示すように、ステップSB1において、制御部10は、第1実施形態で説明した方法と同様の方法で、標識車両間角度を算出する。
図7の例では、ステップSB1の処理を実行するタイミング時の自車両の位置は、位置Q1であり、道路標識の位置は、位置Q2であり、ステップSB1において、制御部10は、標識車両間角度として、角度θ1を算出する。
次いで、制御部10は、ステップSB1の処理を実行したタイミングから、自車両が、一定距離以上、走行したか否かを監視する(ステップSB2)。ステップSB2における一定距離以上を走行したことの検出は、厳密な検出である必要はなく、例えば、車速と走行時間との関係で一定距離以上を走行した可能性が高い状況であれば、一定距離以上、走行したと判別してよい。
ステップSB1の処理を実行したタイミングから、自車両が、一定距離以上、走行した場合(ステップSB2:YES)、制御部10は、その時点での自車両の現在位置(以下、「第2現在位置」という。図7の例では、位置Q3。)に基づく第2標識車両間角度を算出する(ステップSB3)。
第2標識車両間角度は、自車両の進行方向に向かって延びる仮想直線(図7の例では、仮想直線KT3)と、自車両の第2現在位置(図7の例では、位置Q3)と道路標識の位置(図7の例では、位置Q2)とを結ぶ仮想直線(図2の例では、仮想直線KT4)との角度である。図7の例では、第2標識車両間角度は、角度θ2である。
ステップSB3において、制御部10は、上述した第1実施形態で説明した標識車両間角度を算出する方法と同様の方法で、第2標識車両間角度を算出する。
次いで、制御部10は、ステップSB1の処理を実行したタイミング時の自車両の位置(図7の例では、位置Q1。)と、ステップSB3の処理を実行したタイミング時の自車両の位置(図7の例では、位置Q3)との距離(以下、「車両走行距離」という。図7の例では、車両走行距離E)を算出する(ステップSB4)。
ステップSB4において、例えば、制御部10は、GPSユニット13、及び、相対方位検出ユニット14からの入力に基づいて、ステップSB1の処理を実行したタイミング時の自車両の推定現在位置と、ステップSB3の処理を実行したタイミング時の自車両の推定現在位置とを検出し、適宜、走行時の車速の状況等を反映した補正を行って、車両走行距離を算出する。また例えば、制御部10は、ステップSB1の処理を実行したタイミング時に車載カメラ20が行った撮影に基づく撮影画像データにおける所定のオブジェクト(道路標識であってもよい。)の画像、及び、ステップSB3の処理を実行したタイミング時に車載カメラ20が行った撮影に基づく撮影画像データにおける当該所定のオブジェクトの画像の変化の態様に基づいて、車両走行距離を算出する。
車両走行距離を算出する方法は、例示した方法に限らず、どのような方法であってもよい。
次いで、制御部10は、ステップSB1で算出した標識車両間角度(図7の例では、角度θ1)、ステップSB3で算出した第2標識車両間角度(図7の例では、角度θ2)、及び、ステップSB4で算出した車両走行距離(図7の例では、車両走行距離E)に基づいて、直角方向離間距離(図7の例では、直角方向離間距離C)を算出する(ステップSB5)。
ここで、第2現在位置(図7の例では、位置Q3)と、第2現在位置を通り、自車両の進行方向に向かって延びる仮想直線(図7の例では、仮想直線KT3)及び道路標識の位置(図7の例では、位置Q2)を通り、直角方向に向かって延びる仮想直線(図7の例では、仮想直線KT5)の交点との距離を「対応距離」(図7の例では、対応距離x。)とすると、以下の式が成り立つ。
(式M2):tan(標識車両間角度)=直角方向離間距離/(車両走行距離+対応距離)
(式M3):tan(第2標識車両間角度)=直角方向離間距離/対応距離
従って、直角方向離間距離は、以下の式M4によって算出できる。
(式M4):直角方向離間距離=(車両走行距離・tan(標識車両間角度)・tan(第2標識車両間角度))/(tan(第2標識車両間角度)−tan(標識車両間角度))
以上を踏まえ、図7の例の場合、以下の式が成り立つ。
(式M2´):tanθ1=直角方向離間距離C/(車両走行距離E+対応距離x)
(式M3´):tanθ2=直角方向離間距離C/対応距離x
そして、直角方向離間距離Cは、以下の式M4´によって算出できる。
(式M4´):直角方向離間距離C=(車両走行距離E・tanθ1・tanθ2)/(tanθ2−tanθ1)
ステップSB5において、制御部10は、上述した式M4を用いて、直角方向離間距離を算出する。
以上、本実施形態に係る車載ナビゲーション装置1の制御部10が、自車両の位置(走行している車線)を検出する際の動作について説明した。本実施形態で説明した処理を行えば、第1実施形態と同様、より高い精度での自車両の位置の検出が可能となる。
なお、本実施形態では、自車両の現在位置を頂点とする角度(標識車両間角度、第2標識車両間角度)の算出を2回行っていたが、これを自車両の走行に応じて、3回以上、実行し、算出した各角度に基づいて、上述した方法に対応する方法で、自車両の道路標識に対する相対位置(直角方向離間距離)を算出する構成であってもよい。この構成によれば、より高い精度で、相対位置を算出できる。
また、上述した実施形態では、車載カメラ20は自車両の前方を撮影し、制御部10は自車両の前方の撮影結果に基づく撮影画像データに基づいて、自車両の道路標識に対する相対位置を算出した。一方で、車載カメラ20が、自車両の側方や、後方を撮影可能な位置に設けてあれば、制御部10は、上述した方法により、自車両の側方や、後方の撮影結果に基づく撮影画像データに基づいて、自車両の道路標識に対する相対位置を算出することが可能である。
<第3実施形態>
次いで、第3実施形態について説明する。
以下の説明において、第1実施形態で説明した構成要素と同一の構成要素については、同一の符号を付与し、その詳細な説明を省略する。
上述した第1実施形態、及び、第2実施形態では、少なくとも自車両の現在位置から、道路標識まで、道路(走行レーン)が屈曲していないことを前提とした。一方、本実施形態では、自車両の現在位置から、道路標識までの間で道路(走行レーン)が屈曲している場合の車載ナビゲーション装置1の動作について説明する。
図8は、本実施形態に係る車載ナビゲーション装置1の動作を示すフローチャートである。
図9は、自車両が所定の走行レーンを走行している場合において、当該走行レーンと、自車両の現在位置である位置Z1、及び、自車両の位置の検出に利用する道路標識の位置である位置Z2との関係の一例を示す図である。
車載ナビゲーション装置1は、図8に示すフローチャートの処理を、以下の場合に実行する。すなわち、車載ナビゲーション装置1の制御部10は、撮影画像データに、道路標識の画像に係る対象画像データが含まれている場合、所定の手段で、自車両の現在位置から、道路標識までの間で道路が屈曲しているか否かを判別する。例えば、制御部10は、自車両が走行する道路(走行レーン)のリンク情報を取得し、リンク情報と、自車両の位置、及び、道路標識の位置との関係に基づいて、自車両の現在位置から、道路標識までの間で道路が屈曲しているか否かを判別する。道路が屈曲しているか否かを判別する方法は、例示した方法に限らず、どのような方法であってもよい。
そして、制御部10は、自車両の現在位置から、道路標識までの間で道路が屈曲していると判別した場合、図8のフローチャートの処理を実行する。
以下の図8のフローチャートの開始時点では、制御部10は、図3のフローチャートのステップSA1、及び、ステップSA3に対応する処理を実行しているものとする。
図8に示すように、車載ナビゲーション装置1の制御部10は、第1実施形態で説明した方法と同様の方法で、撮影画像データに含まれる道路標識の画像に係る対象画像データに基づいて、標識車両間距離(図9の例では、標識車両間距離F。)、及び、標識車両間角度(図9の例では、角度θ3。)を算出する(ステップSC1)。
次いで、制御部10は、道路情報データ1211を参照し、上述した第1実施形態で説明した方法と同様の方法で、態様画像データに対応する道路標識のレコードを特定し、特定したレコードが有する標識位置情報J13を取得する(ステップSC2)。上述したように、標識位置情報J13は、道路標識の位置(経度、及び、緯度で表される位置。地図データ121に基づく地図が展開される所定の座標系における座標であってもよい。)を示す情報である。
次いで、制御部10は、ステップSC2で取得した標識位置情報J13が示す道路標識の位置(図9の例では、位置Z2)と、ステップSC1で算出した標識車両間距離(図9の例では、標識車両間距離F。)、及び、標識車両間角度(図9の例では、角度θ3。)に基づいて、自車両の現在位置(図9の例では位置Z1)を算出する(ステップSC3)。
標識車両間距離、及び、標識車両間角度が定まることにより、道路標識に対する自車両の相対位置が定まるため、道路標識の位置が定まることにより、自車両の現在位置が定まる。
次いで、制御部10は、地図データ121を参照し、自車両が走行する道路(走行レーン)の中心線に関する情報(以下、「中心線情報」という。)を取得する(ステップSC4)。
本実施形態において、道路の中心線とは、車道において、進行方向が相対する走行レーンを含めた道路幅全体に対して直角方向の中心をたどる線のことであり、図9の例では、中心線TSである。地図データ121では、地図上の中心線を、中心線に沿った直線(以下、「単位直線」という。)の集合体として管理する。例えば、図9の例では、中心線TSは、単位直線TS1、及び、単位直線TS2として管理される。そして、地図データ121は、単位直線のそれぞれについて、一方の端の地図上の位置と、他方の端の地図上の位置とを含む単位直線情報を有する。
ステップSC4において、制御部10は、中心線情報として、自車両の位置の側方に位置する単位直線(図9の例では、単位直線TS1)の単位直線情報を取得する。
次いで、制御部10は、ステップSC4で取得した単位直線情報が示す単位直線に対して、自車両の現在位置から垂線をおろした場合の、自車両の現在位置と、当該垂線及び当該単位直線の交点との長さ(図9の例では、長さN2)を算出する(ステップSC5)。
次いで、制御部10は、道路情報データ1211を参照し、走行中の道路の第1車線幅情報J241〜第n車線幅情報J24nを取得する(ステップSC6)。
次いで、制御部10は、ステップSC4で取得した中心線情報(単位直線情報)、ステップSC5で算出した垂線の長さ、及び、ステップSC6で取得した第1車線幅情報J241〜第n車線幅情報J24nに基づいて、自車両が走行している車線を特定する(ステップSC7)。
ここで、道路では、中心線から、進行方向に向かって左の方向に向かって、連続して車線が設けられる。従って、道路に設けられた各車線の幅、及び、中心線と自車両の現在位置との距離が定まれば、自車両が位置する車線が定まる。
以上を踏まえ、ステップSC7において、制御部10は、垂線と、中心線との交点の地図上の位置を算出し、当該位置と、垂線の長さと、車線の幅との関係に基づいて、自車両が走行している車線を特定する。
以上、本実施形態に係る車載ナビゲーション装置1の制御部10が、自車両の位置(走行している車線)を検出する際の動作について説明した。本実施形態で説明した処理を行えば、第1実施形態や、第2実施形態と同様、より高い精度での自車両の位置の検出が可能となる。
<第4実施形態>
次いで、第4実施形態について説明する。
以下の説明において、第1実施形態で説明した構成要素と同一の構成要素については、同一の符号を付与し、その詳細な説明を省略する。
図10は、第4実施形態に係る車両位置検出システム2を示す図である。
上述した第1〜第3実施形態では、車両に搭載された装置が、自車両の現在地の検出に係る処理を実行した。一方で、本実施形態では、当該処理を、車両に搭載された装置とネットワークNを介して通信可能な制御サーバー3が実行する。
本実施形態では、制御サーバー3が、「情報処理装置」として機能する。
図10に示すように、車両には、本実施形態に係る車載装置1bが搭載される。本実施形態に係る車載装置1bには、車載カメラ20が接続される。
車載装置1bは、インターネットを含んで構成されたネットワークNを介して制御サーバー3と通信可能に接続される。車載装置1bにネットワークNにアクセスする機能を設け、車載装置1bがネットワークNに直接アクセスする構成であってもよく、車載装置1bとネットワークNへアクセスする機能を有する端末(例えば、車両の搭乗者が所有する携帯電話)とを近距離無線通信や有線通信、その他の通信方式で接続し、車載装置1bが端末を介してネットワークNにアクセスする構成であってもよい。
車載装置1bは、車載カメラ20から入力された撮影画像データを、ネットワークNを介して、車載ナビゲーション装置1に送信する機能を有する。
制御サーバー5は、CPUや、ROM、RAM、その他の周辺回路等を備え、プログラムを読み出して実行する等のハードウェアとソフトウェアとの協働により、制御サーバー5の各部を制御するサーバー制御部6を備える。
サーバー制御部6は、「制御部」として機能する。
サーバー制御部6は、車載装置1bから撮影画像データを受信し、受信した撮影画像データに基づいて、図3、図6、又は、図8のフローチャートに対応する処理を行って、道路標識に対する自車両の相対位置を検出する。当該検出に係る処理に必要な情報(例えば、上述した推定現在位置に対応する情報や、道路情報データ1211に含まれる情報等)について、制御サーバー5は、自ら記憶し、又は、必要に応じて適切なタイミングで車載装置1bから取得する。サーバー制御部6は、検出した道路標識に対する自車両の相対位置を示す情報を、適宜、検出結果を車載装置1bに通知する。
車載装置1bは、制御サーバー5からの通知に基づいて、対応する処理を実行する。
以上、第4実施形態について説明したが、第4実施形態の構成であっても、車両に搭載された車載装置1bは、道路標識に対する自車両の相対位置を取得可能であり、取得した相対位置に基づいて、対応する処理を実行可能である。
なお、上述した実施の形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
例えば、上述した実施形態では、車載ナビゲーション装置1、及び、制御サーバー5は、対象物としての道路標識に対する自車両の相対位置を検出していた。しかしながら、対象物は、道路標識に限らず、車載カメラ20によって撮影可能な物であれば、何であってもよい。例えば、対象物は、信号や、建物、看板等であってもよい。ただし、道路標識は、設けられる位置が道路との関係である程度定められているという特性、地図データ121で管理されるという特性、種類が限られており種類ごとの形状の規格があるという特性があり、対象物として適切である。
また、図1、図10は、本願発明を理解容易にするために、車載ナビゲーション装置1、及び、制御サーバー5の機能構成を主な処理内容に応じて分類して示した概略図であり、これら装置の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。また、各構成要素の処理は、1つのプログラムで実現されてもよいし、複数のプログラムで実現されてもよい。
また、図を用いて説明したフローチャートの処理単位は、車載ナビゲーション装置1、及び、制御サーバー5の処理を理解容易にするために、主な処理内容に応じて分割したものである。処理単位の分割の仕方や名称によって、本願発明が制限されることはない。各装置の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできる。また、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、同様のフリー状態判定が行えれば、上記のフローチャートの処理順序も、図示した例に限られるものではない。
また、上述した実施形態では、車載ナビゲーション装置1は、外部装置である車載カメラ20から撮影画像データを取得する構成であったが、車載ナビゲーション装置1が撮影機能を有する構成であってもよい。
1…車載ナビゲーション装置(情報処理装置)、5…制御サーバー(情報処理装置)、6…サーバー制御部(制御部)、10…制御部、12…記憶部、15…インターフェース、20…車載カメラ(撮影装置)。

Claims (13)

  1. 車両に搭載された情報処理装置において、
    車両の外を撮影して得られた撮影画像データを取得し、前記撮影画像データに、所定の対象物の画像データである対象画像データが含まれる場合、前記対象画像データに基づいて、前記対象物に対する前記車両の相対位置を算出し、算出した前記相対位置に基づいて、前記車両の道路上の位置を検出する制御部を備える
    ことを特徴とする情報処理装置。
  2. 前記制御部は、
    記憶された前記対象画像データに対応する画像データと前記撮影画像データとの比較結果に基づいて、前記撮影画像データに前記対象画像データが含まれるか否かを判別する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記対象物の位置を示す情報、及び、前記対象物と道路との関係を示す情報を含む道路情報を記憶する記憶部を備え、
    前記制御部は、
    算出した前記相対位置、及び、前記記憶部が記憶する前記道路情報に基づいて、前記車両の道路上の位置を算出する
    ことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記制御部は、
    前記相対位置として、前記車両の進行方向に交わる方向における前記車両と前記対象物との離間距離である直角方向離間距離を算出し、
    算出した前記直角方向離間距離、及び、前記記憶部が記憶する前記道路情報に基づいて、前記車両の道路上の位置を算出することを特徴とする請求項3に記載の情報処理装置。
  5. 前記道路情報は、道路が有する車線の幅に関する情報、及び、前記対象物と道路との離間距離に関する情報を含み、
    前記制御部は、
    算出した前記直角方向離間距離、及び、前記記憶部が記憶する前記道路情報に基づいて、前記車両が走行している車線を特定することを特徴とする請求項4に記載の情報処理装置。
  6. 前記対象物は、道路標識を含むことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
  7. 撮影機能を有する撮影装置が接続可能なインターフェースを備え、
    前記制御部は、
    前記インターフェースを介して前記撮影装置から前記撮影画像データを受信して取得することを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
  8. 制御部により、
    車両の外を撮影して得られた撮影画像データを取得し、
    前記撮影画像データに、所定の対象物の画像データである対象画像データが含まれる場合、前記対象画像データに基づいて、前記対象物に対する前記車両の相対位置を算出し、
    算出した前記相対位置に基づいて、前記車両の道路上の位置を検出する
    ことを特徴とする車両位置検出方法。
  9. 前記対象画像データに対応する画像データを記憶し、記憶した前記対象画像データに対応する画像データと前記撮影画像データとの比較結果に基づいて、前記撮影画像データに前記対象画像データが含まれるか否かを判別することを特徴とする請求項8に記載の車載位置検出方法。
  10. 算出した前記相対位置、及び、前記対象物の位置を示す情報及び前記対象物と道路との関係を示す情報を含む道路情報に基づいて、前記車両の道路上の位置を算出する
    ことを特徴とする請求項8又は9に記載の車両位置検出方法。
  11. 前記相対位置として、前記車両の進行方向に交わる方向における前記車両と前記対象物との離間距離である直角方向離間距離を算出し、
    算出した前記直角方向離間距離、及び、前記記憶部が記憶する前記道路情報に基づいて、前記車両の道路上の位置を算出することを特徴とする請求項10に記載の車両位置検出方法。
  12. 算出した前記直角方向離間距離、及び、道路が有する車線の幅に関する情報及び前記対象物と道路との離間距離に関する情報を含む前記道路情報に基づいて、前記車両が走行している車線を特定することを特徴とする請求項11に記載の車両位置検出方法。
  13. 車両に搭載された車載装置とネットワークを介して通信可能に接続された情報処理装置において、
    前記車載装置から、前記車両の外を撮影して得られた撮影画像データを取得し、前記撮影画像データに、所定の対象物の画像データである対象画像データが含まれる場合、前記対象画像データに基づいて、前記対象物に対する前記車両の相対位置を算出し、算出した前記相対位置に基づいて、前記車両の道路上の位置を検出し、検出結果を前記車載装置に通知する制御部を備える
    ことを特徴とする情報処理装置。
JP2015056157A 2015-03-19 2015-03-19 情報処理装置、及び、車両位置検出方法 Pending JP2016176769A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015056157A JP2016176769A (ja) 2015-03-19 2015-03-19 情報処理装置、及び、車両位置検出方法
US15/556,116 US20180045516A1 (en) 2015-03-19 2016-03-17 Information processing device and vehicle position detecting method
EP16765066.2A EP3279611A4 (en) 2015-03-19 2016-03-17 Information processing device, and vehicle position detecting method
PCT/JP2016/058501 WO2016148237A1 (ja) 2015-03-19 2016-03-17 情報処理装置、及び、車両位置検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015056157A JP2016176769A (ja) 2015-03-19 2015-03-19 情報処理装置、及び、車両位置検出方法

Publications (1)

Publication Number Publication Date
JP2016176769A true JP2016176769A (ja) 2016-10-06

Family

ID=56919246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015056157A Pending JP2016176769A (ja) 2015-03-19 2015-03-19 情報処理装置、及び、車両位置検出方法

Country Status (4)

Country Link
US (1) US20180045516A1 (ja)
EP (1) EP3279611A4 (ja)
JP (1) JP2016176769A (ja)
WO (1) WO2016148237A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180065219A (ko) * 2016-12-07 2018-06-18 현대자동차주식회사 차량의 자율주행모드와 운전보조모드 간의 변환방법
JP2018147393A (ja) * 2017-03-08 2018-09-20 株式会社デンソー 標識認識システム
WO2018198513A1 (ja) * 2017-04-27 2018-11-01 株式会社ゼンリン 走行支援装置及び地図データのデータ構造
WO2018198514A1 (ja) * 2017-04-27 2018-11-01 株式会社ゼンリン 走行支援装置及び地図データのデータ構造
WO2019031582A1 (ja) * 2017-08-10 2019-02-14 トヨタ自動車株式会社 画像収集システム、画像収集方法、画像収集装置、記録媒体、および車両用通信装置
WO2019039106A1 (ja) * 2017-08-25 2019-02-28 日立オートモティブシステムズ株式会社 画像認識装置
JP2020008462A (ja) * 2018-07-10 2020-01-16 トヨタ自動車株式会社 自車位置推定装置
WO2020021596A1 (ja) * 2018-07-23 2020-01-30 三菱電機株式会社 車両位置推定装置および車両位置推定方法

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101887335B1 (ko) * 2015-07-13 2018-08-09 닛산 지도우샤 가부시키가이샤 자기 위치 추정 장치 및 자기 위치 추정 방법
JP6602683B2 (ja) * 2016-02-05 2019-11-06 株式会社東芝 充電装置および位置ずれ検出方法
EP3239660B1 (en) * 2016-04-26 2019-06-19 Volvo Car Corporation Method and system for selectively enabling a user device on the move to utilize digital content associated with entities ahead
WO2017199369A1 (ja) * 2016-05-18 2017-11-23 パイオニア株式会社 地物認識装置、地物認識方法およびプログラム
BR112019001508B1 (pt) * 2016-07-26 2022-11-01 Nissan Motor Co., Ltd Método de estimativa de autoposição e dispositivo de estimativa de autoposição
KR102695518B1 (ko) * 2017-01-26 2024-08-14 삼성전자주식회사 차량 경로 가이드 방법 및 장치
DE102017001707A1 (de) * 2017-02-22 2018-08-23 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Benachrichtigung über einen geschätzten Bewegungspfad eines Fahrzeugs
JP6986557B2 (ja) * 2017-05-19 2021-12-22 パイオニア株式会社 測定装置、測定方法およびプログラム
CN108051836B (zh) * 2017-11-02 2022-06-10 中兴通讯股份有限公司 一种定位方法、装置、服务器及系统
CN110018503B (zh) * 2018-01-10 2023-04-14 上海汽车集团股份有限公司 车辆的定位方法及定位系统
FR3072182A1 (fr) * 2018-03-05 2019-04-12 Continental Automotive France Calculateur, systeme et procede de geolocalisation d'un vehicule
US10558872B2 (en) * 2018-03-23 2020-02-11 Veoneer Us Inc. Localization by vision
US12060074B2 (en) * 2018-03-30 2024-08-13 Toyota Motor Europe System and method for adjusting external position information of a vehicle
CN109029458B (zh) * 2018-07-19 2020-06-30 东莞信大融合创新研究院 一种双目视觉定位的方法
GB201818357D0 (en) * 2018-11-12 2018-12-26 Forsberg Services Ltd Locating system
US11003190B2 (en) 2018-12-13 2021-05-11 Here Global B.V. Methods and systems for determining positional offset associated with a road sign
TWI696144B (zh) 2018-12-19 2020-06-11 財團法人工業技術研究院 影像生成器的訓練方法
CN110287803B (zh) * 2019-05-29 2021-07-13 广州小鹏自动驾驶科技有限公司 一种轨迹路标的识别方法及系统
CN112149659B (zh) * 2019-06-27 2021-11-09 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
CN110727269B (zh) * 2019-10-09 2023-06-23 陈浩能 车辆控制方法及相关产品
US11125575B2 (en) 2019-11-20 2021-09-21 Here Global B.V. Method and apparatus for estimating a location of a vehicle
JP2021169989A (ja) * 2020-04-17 2021-10-28 株式会社Nichijo 自己位置測定システム、車両、及び、自己位置測定方法
JP2022178701A (ja) * 2021-05-20 2022-12-02 フォルシアクラリオン・エレクトロニクス株式会社 ナビゲーション装置
JP7726226B2 (ja) * 2023-01-27 2025-08-20 トヨタ自動車株式会社 情報処理装置
CN116380107B (zh) * 2023-05-29 2023-08-22 速度科技股份有限公司 一种基于高精地图对车辆进行定位的系统
CN118230001B (zh) * 2024-03-19 2025-09-19 华南理工大学 一种sdf向量高精地图变化检测方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04163251A (ja) * 1990-10-29 1992-06-08 Oki Electric Ind Co Ltd 走行車線認識システム
JP2007232690A (ja) * 2006-03-03 2007-09-13 Denso Corp 現在地検出装置、地図表示装置、および現在地検出方法
JP2009033743A (ja) * 2007-07-30 2009-02-12 Delphi Technologies Inc 物体を認識するための方法
JP2010519550A (ja) * 2007-02-21 2010-06-03 テレ アトラス ノース アメリカ インコーポレイテッド 絶対座標及び相対座標を含む車両ナビゲーション及び案内のためのシステム及び方法
US20120271540A1 (en) * 2009-10-22 2012-10-25 Krzysztof Miksa System and method for vehicle navigation using lateral offsets
WO2013029742A1 (de) * 2011-09-03 2013-03-07 Audi Ag Verfahren zum bestimmen der position eines kraftfahrzeugs
US20130261838A1 (en) * 2012-03-28 2013-10-03 Gentex Corporation Vehicular imaging system and method for determining roadway width
WO2014166532A1 (en) * 2013-04-10 2014-10-16 Harman Becker Automotive Systems Gmbh Navigation system and method of determining a vehicle position
JP2014203115A (ja) * 2013-04-01 2014-10-27 パイオニア株式会社 検出装置、制御方法、プログラム及び記憶媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011013039A (ja) * 2009-06-30 2011-01-20 Clarion Co Ltd 車線判定装置及びナビゲーションシステム
JP5949955B2 (ja) * 2013-01-25 2016-07-13 トヨタ自動車株式会社 道路環境認識システム
JP2015003566A (ja) * 2013-06-19 2015-01-08 トヨタ自動車株式会社 逸脱防止装置
US9365214B2 (en) * 2014-01-30 2016-06-14 Mobileye Vision Technologies Ltd. Systems and methods for determining the status of a turn lane traffic light

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04163251A (ja) * 1990-10-29 1992-06-08 Oki Electric Ind Co Ltd 走行車線認識システム
JP2007232690A (ja) * 2006-03-03 2007-09-13 Denso Corp 現在地検出装置、地図表示装置、および現在地検出方法
JP2010519550A (ja) * 2007-02-21 2010-06-03 テレ アトラス ノース アメリカ インコーポレイテッド 絶対座標及び相対座標を含む車両ナビゲーション及び案内のためのシステム及び方法
JP2009033743A (ja) * 2007-07-30 2009-02-12 Delphi Technologies Inc 物体を認識するための方法
US20120271540A1 (en) * 2009-10-22 2012-10-25 Krzysztof Miksa System and method for vehicle navigation using lateral offsets
WO2013029742A1 (de) * 2011-09-03 2013-03-07 Audi Ag Verfahren zum bestimmen der position eines kraftfahrzeugs
US20130261838A1 (en) * 2012-03-28 2013-10-03 Gentex Corporation Vehicular imaging system and method for determining roadway width
JP2014203115A (ja) * 2013-04-01 2014-10-27 パイオニア株式会社 検出装置、制御方法、プログラム及び記憶媒体
WO2014166532A1 (en) * 2013-04-10 2014-10-16 Harman Becker Automotive Systems Gmbh Navigation system and method of determining a vehicle position

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180065219A (ko) * 2016-12-07 2018-06-18 현대자동차주식회사 차량의 자율주행모드와 운전보조모드 간의 변환방법
KR102406498B1 (ko) * 2016-12-07 2022-06-10 현대자동차주식회사 차량의 자율주행모드와 운전보조모드 간의 변환방법
JP2018147393A (ja) * 2017-03-08 2018-09-20 株式会社デンソー 標識認識システム
US11161506B2 (en) 2017-04-27 2021-11-02 Zenrin Co., Ltd. Travel support device and non-transitory computer-readable medium
WO2018198513A1 (ja) * 2017-04-27 2018-11-01 株式会社ゼンリン 走行支援装置及び地図データのデータ構造
WO2018198514A1 (ja) * 2017-04-27 2018-11-01 株式会社ゼンリン 走行支援装置及び地図データのデータ構造
US11214250B2 (en) 2017-04-27 2022-01-04 Zenrin Co., Ltd. Travel support device and non-transitory computer-readable medium
WO2019031582A1 (ja) * 2017-08-10 2019-02-14 トヨタ自動車株式会社 画像収集システム、画像収集方法、画像収集装置、記録媒体、および車両用通信装置
CN110998684A (zh) * 2017-08-10 2020-04-10 丰田自动车株式会社 图像收集系统、图像收集方法、图像收集装置、记录介质、以及车辆用通信装置
JP2019036013A (ja) * 2017-08-10 2019-03-07 トヨタ自動車株式会社 画像収集システム、画像収集方法、画像収集装置、記録媒体、および車両用通信装置
CN110998684B (zh) * 2017-08-10 2022-02-01 丰田自动车株式会社 图像收集系统、图像收集方法、图像收集装置、记录介质
US11410429B2 (en) 2017-08-10 2022-08-09 Toyota Jidosha Kabushiki Kaisha Image collection system, image collection method, image collection device, recording medium, and vehicle communication device
JPWO2019039106A1 (ja) * 2017-08-25 2020-04-09 日立オートモティブシステムズ株式会社 画像認識装置
WO2019039106A1 (ja) * 2017-08-25 2019-02-28 日立オートモティブシステムズ株式会社 画像認識装置
JP2020008462A (ja) * 2018-07-10 2020-01-16 トヨタ自動車株式会社 自車位置推定装置
JP7025293B2 (ja) 2018-07-10 2022-02-24 トヨタ自動車株式会社 自車位置推定装置
WO2020021596A1 (ja) * 2018-07-23 2020-01-30 三菱電機株式会社 車両位置推定装置および車両位置推定方法

Also Published As

Publication number Publication date
EP3279611A1 (en) 2018-02-07
EP3279611A4 (en) 2018-11-21
US20180045516A1 (en) 2018-02-15
WO2016148237A1 (ja) 2016-09-22

Similar Documents

Publication Publication Date Title
JP2016176769A (ja) 情報処理装置、及び、車両位置検出方法
JP7785858B2 (ja) 自動運転支援装置、制御方法、プログラム及び記憶媒体
JP6424761B2 (ja) 運転支援システム及びセンタ
JP4847090B2 (ja) 位置測位装置、および位置測位方法
CN113748447B (zh) 幽灵交通拥堵检测和避免
JP5058243B2 (ja) 車両案内装置、車両案内方法、及び車両案内プログラム
EP2598842B1 (en) Guidance device, guidance method, and guidance program
JP6775188B2 (ja) ヘッドアップディスプレイ装置および表示制御方法
CN111351502B (zh) 用于从透视图生成环境的俯视图的方法,装置和计算机程序产品
US10192438B2 (en) Electronic apparatus, guide method, and guide system
US20100299063A1 (en) Current Position Determining Device and Current Position Determining Method
JP4902575B2 (ja) 道路標示認識装置、および道路標示認識方法
CN102208036A (zh) 车辆位置检测系统
JP2008309529A (ja) ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
JP2009156784A (ja) 地物情報収集装置及び地物情報収集プログラム、並びに自車位置認識装置及びナビゲーション装置
US11410429B2 (en) Image collection system, image collection method, image collection device, recording medium, and vehicle communication device
JP6875057B2 (ja) 電子装置、走行レーン検出プログラムおよび走行レーン検出方法
JP2019100924A (ja) 車両軌跡補正装置
JP6723744B2 (ja) ナビ情報提供システム及びナビ情報提供装置
JP2013036930A (ja) ナビゲーション装置およびこれを備えたナビゲーションシステム
JP4953015B2 (ja) 自車位置認識装置と自車位置認識プログラム、及びこれを用いたナビゲーション装置
JP7207045B2 (ja) サーバ装置および情報処理方法
US10762711B2 (en) Head-up display system
JP2011232271A (ja) ナビゲーション装置、車載センサの精度推定方法、および、プログラム
JP2011204150A (ja) 車車間通信処理方法および車車間通信処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190514