[go: up one dir, main page]

JP7752561B2 - Vehicle control device, vehicle control method, and program - Google Patents

Vehicle control device, vehicle control method, and program

Info

Publication number
JP7752561B2
JP7752561B2 JP2022059646A JP2022059646A JP7752561B2 JP 7752561 B2 JP7752561 B2 JP 7752561B2 JP 2022059646 A JP2022059646 A JP 2022059646A JP 2022059646 A JP2022059646 A JP 2022059646A JP 7752561 B2 JP7752561 B2 JP 7752561B2
Authority
JP
Japan
Prior art keywords
dividing line
vehicle
driving mode
line shown
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022059646A
Other languages
Japanese (ja)
Other versions
JP2023150506A (en
Inventor
貴生 田村
祥 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2022059646A priority Critical patent/JP7752561B2/en
Priority to CN202310308444.0A priority patent/CN116890837A/en
Publication of JP2023150506A publication Critical patent/JP2023150506A/en
Application granted granted Critical
Publication of JP7752561B2 publication Critical patent/JP7752561B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/182Selecting between different operative modes, e.g. comfort and performance modes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Regulating Braking Force (AREA)

Description

本発明は、車両制御装置、車両制御方法、およびプログラムに関する。 The present invention relates to a vehicle control device, a vehicle control method, and a program.

従来、車両に搭載されたカメラによって認識された道路区画線に基づいて自車両の走行を制御する技術が知られている。例えば、特許文献1には、認識された道路区画線に基づいて自車両を走行させ、道路区画線の認識度合いが所定基準を満たさない場合には、先行車両の軌跡に基づいて自車両を走行させる技術が記載されている。 Technology for controlling the driving of a vehicle based on road dividing lines recognized by a camera mounted on the vehicle is known. For example, Patent Document 1 describes a technology for driving a vehicle based on recognized road dividing lines, and for driving the vehicle based on the trajectory of a preceding vehicle if the degree of recognition of the road dividing lines does not meet a predetermined standard.

特開2020-050086号公報Japanese Patent Application Laid-Open No. 2020-050086

特許文献1に記載の技術は、カメラによって認識された道路区画線と、自車両が搭載する地図情報とに基づいて自車両の走行を制御するものである。しかしながら、従来技術では、カメラによって認識された道路区画線と、自車両が搭載する地図情報の内容とが異なる場合、車両の運転制御を適切に変更できない場合があった。 The technology described in Patent Document 1 controls the driving of a vehicle based on road dividing lines recognized by a camera and map information carried by the vehicle. However, with conventional technology, if the road dividing lines recognized by the camera differ from the content of the map information carried by the vehicle, it may not be possible to appropriately change the vehicle's driving control.

本発明は、このような事情を考慮してなされたものであり、カメラによって認識された道路区画線と、自車両が搭載する地図情報の内容とが異なる場合であっても、車両の運転制御を適切に変更することができる車両制御装置、車両制御方法、およびプログラムを提供することを目的の一つとする。 The present invention was made in consideration of these circumstances, and one of its objectives is to provide a vehicle control device, vehicle control method, and program that can appropriately change vehicle driving control even when the road dividing lines recognized by the camera differ from the content of the map information installed in the vehicle.

この発明に係る車両制御装置、車両制御方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る車両制御装置は、車両の周辺状況を撮像したカメラ画像を取得する取得部と、前記カメラ画像と地図情報に基づいて、前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御する運転制御部と、前記車両の運転モードを、第1の運転モードと、第2の運転モードとを含む複数の運転モードのいずれかに決定し、前記第2の運転モードは前記運転者に課されるタスクが前記第1の運転モードに比して軽度な運転モードであり、少なくとも前記第2の運転モードを含む前記複数の運転モードの一部は前記運転制御部により制御されるものであり、前記決定した運転モードに係るタスクが運転者により実行されない場合に、よりタスクが重度な運転モードに前記車両の運転モードを変更するモード決定部と、前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の片側について乖離が存在するか否かを判定する乖離判定部と、前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の片側について乖離が存在すると判定された場合、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量を算出する変化量算出部と、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量とに基づいて、前記第2の運転モードにおいて前記車両が走行する走路の中心線を生成する走路生成部と、を備えるものである。
A vehicle control device, a vehicle control method, and a program according to the present invention employ the following configuration.
(1): A vehicle control device according to one aspect of the present invention includes an acquisition unit that acquires camera images of a vehicle's surroundings, a driving control unit that controls steering and acceleration/deceleration of the vehicle based on the camera images and map information without relying on an operation by a driver of the vehicle, and a driving mode of the vehicle is determined to be one of a plurality of driving modes including a first driving mode and a second driving mode, the second driving mode being a driving mode in which a task imposed on the driver is lighter than that of the first driving mode, and at least some of the plurality of driving modes including the second driving mode are controlled by the driving control unit, and when a task related to the determined driving mode is not performed by the driver, the driving control unit switches the vehicle to a driving mode in which a task is heavier. The system includes a mode determination unit that changes the driving mode of the vehicle, a deviation determination unit that determines whether or not a deviation exists between the road dividing line shown in the camera image and one side of the road dividing line shown in the map information, a change amount calculation unit that calculates the amount of change in the lane width of the road dividing line shown in the camera image and the amount of change in the lane width of the road dividing line shown in the map information when it is determined that a deviation exists between the road dividing line shown in the camera image and one side of the road dividing line shown in the map information, and a track generation unit that generates a center line of the track on which the vehicle will travel in the second driving mode based on the amount of change in the lane width of the road dividing line shown in the camera image and the amount of change in the lane width of the road dividing line shown in the map information.

(2):上記(1)の態様において、前記走路生成部は、前記カメラ画像に示される道路区画線の車線幅の変化量が第1閾値未満である場合、前記カメラ画像に示される道路区画線に基づいて、前記中心線を生成するものである。 (2): In the aspect (1) above, when the change in lane width of the road dividing line shown in the camera image is less than a first threshold, the lane generation unit generates the center line based on the road dividing line shown in the camera image.

(3):上記(1)の態様において、前記走路生成部は、前記カメラ画像に示される道路区画線の車線幅の変化量が第1閾値以上かつ第2閾値未満であり、かつ前記地図情報に示される道路区画線の車線幅の変化量が前記第1閾値未満である場合、前記地図情報に示される道路区画線に基づいて、前記中心線を生成するものである。 (3): In the aspect (1) above, when the change in lane width of the road dividing line shown in the camera image is equal to or greater than a first threshold and less than a second threshold, and the change in lane width of the road dividing line shown in the map information is less than the first threshold, the lane generation unit generates the center line based on the road dividing line shown in the map information.

(4):上記(1)の態様において、前記走路生成部は、前記カメラ画像に示される道路区画線の車線幅の変化量が第1閾値以上かつ第2閾値未満であり、かつ前記地図情報に示される道路区画線の車線幅の変化量が前記第1閾値以上である場合、前記カメラ画像に示される道路区画線に基づいて、前記中心線を生成するものである。 (4): In the aspect (1) above, the lane generation unit generates the center line based on the road dividing line shown in the camera image when the change in lane width of the road dividing line shown in the camera image is equal to or greater than a first threshold and less than a second threshold, and the change in lane width of the road dividing line shown in the map information is equal to or greater than the first threshold.

(5):上記(1)の態様において、前記走路生成部は、前記カメラ画像に示される道路区画線の車線幅の変化量が第2閾値以上であり、かつ前記地図情報に示される道路区画線の車線幅の変化量が前記第2閾値未満である場合、前記地図情報に示される道路区画線に基づいて、前記中心線を生成するものである。 (5): In the aspect (1) above, when the change in lane width of the road dividing line shown in the camera image is equal to or greater than a second threshold and the change in lane width of the road dividing line shown in the map information is less than the second threshold, the lane generation unit generates the center line based on the road dividing line shown in the map information.

(6):上記(1)の態様において、前記走路生成部は、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量とが第2閾値以上である場合、前記カメラ画像に示される道路区画線に基づいて、前記中心線を生成するものである。 (6): In the aspect (1) above, the lane generation unit generates the center line based on the road dividing line shown in the camera image when the amount of change in lane width of the road dividing line shown in the map information is equal to or greater than a second threshold.

(7):上記(1)から(6)のいずれかの態様において、前記モード決定部は、ある制御サイクルにおいて、前記走路生成部が、前記カメラ画像に示される道路区画線に基づいて、前記中心線を生成した後、次の制御サイクルにおいて、前記乖離判定部によって、前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の両側について乖離が存在すると判定された場合、前記第2の運転モードを前記第1の運転モードに変更するものである。 (7): In any of the above aspects (1) to (6), the mode determination unit changes the second driving mode to the first driving mode if, in a certain control cycle, the lane generation unit generates the center line based on the road dividing line shown in the camera image, and then, in the next control cycle, the deviation determination unit determines that there is a deviation on both sides of the road dividing line shown in the camera image and the road dividing line shown in the map information.

(8):上記(1)から(7)のいずれかの態様において、前記第2の運転モードは、前記運転者に、前記車両の操舵操作を受け付ける操作子を把持するタスクが課されない運転モードであり、前記第1の運転モードは、前記運転者に、少なくとも、前記操作子を把持するタスクのみが課される運転モードであるものである。 (8): In any of the above aspects (1) to (7), the second driving mode is a driving mode in which the driver is not required to hold an operator that receives steering operations for the vehicle, and the first driving mode is a driving mode in which the driver is required to hold at least the operator.

(9):この発明の別の態様に係る車両制御方法は、コンピュータが、車両の周辺状況を撮像したカメラ画像を取得し、前記カメラ画像と地図情報に基づいて、前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御し、前記車両の運転モードを、第1の運転モードと、第2の運転モードとを含む複数の運転モードのいずれかに決定し、前記第2の運転モードは前記運転者に課されるタスクが前記第1の運転モードに比して軽度な運転モードであり、少なくとも前記第2の運転モードを含む前記複数の運転モードの一部は前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御することで行われるものであり、前記決定した運転モードに係るタスクが運転者により実行されない場合に、よりタスクが重度な運転モードに前記車両の運転モードを変更し、前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の片側について乖離が存在するか否かを判定し、前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の片側について乖離が存在すると判定された場合、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量を算出し、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量とに基づいて、前記第2の運転モードにおいて前記車両が走行する走路の中心線を生成するものである。 (9): Another aspect of the present invention relates to a vehicle control method in which a computer acquires a camera image capturing a situation around a vehicle, and controls the steering and acceleration/deceleration of the vehicle based on the camera image and map information without relying on the operation of the driver of the vehicle, and determines the driving mode of the vehicle to one of a plurality of driving modes including a first driving mode and a second driving mode, the second driving mode being a driving mode in which a task assigned to the driver is lighter than that assigned to the first driving mode, and at least some of the plurality of driving modes including the second driving mode are performed by controlling the steering and acceleration/deceleration of the vehicle without relying on the operation of the driver of the vehicle, and the task associated with the determined driving mode is assigned to the driver. If the task is not performed properly, the driving mode of the vehicle is changed to a driving mode with a more severe task, and it is determined whether there is a discrepancy between the road dividing line shown in the camera image and one side of the road dividing line shown in the map information. If it is determined that there is a discrepancy between the road dividing line shown in the camera image and one side of the road dividing line shown in the map information, the amount of change in the lane width of the road dividing line shown in the camera image and the amount of change in the lane width of the road dividing line shown in the map information is calculated, and a center line of the road along which the vehicle will travel in the second driving mode is generated based on the amount of change in the lane width of the road dividing line shown in the camera image and the amount of change in the lane width of the road dividing line shown in the map information.

(10):この発明の別の態様に係るプログラムは、コンピュータに、車両の周辺状況を撮像したカメラ画像を取得させ、前記カメラ画像と地図情報に基づいて、前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御させ、前記車両の運転モードを、第1の運転モードと、第2の運転モードとを含む複数の運転モードのいずれかに決定し、前記第2の運転モードは前記運転者に課されるタスクが前記第1の運転モードに比して軽度な運転モードであり、少なくとも前記第2の運転モードを含む前記複数の運転モードの一部は前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御することで行われるものであり、前記決定した運転モードに係るタスクが運転者により実行されない場合に、よりタスクが重度な運転モードに前記車両の運転モードを変更させ、前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の片側について乖離が存在するか否かを判定させ、前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の片側について乖離が存在すると判定された場合、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量を算出させ、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量とに基づいて、前記第2の運転モードにおいて前記車両が走行する走路の中心線を生成させるものである。 (10): A program according to another aspect of the present invention causes a computer to acquire camera images of the vehicle's surroundings, and controls the steering and acceleration/deceleration of the vehicle based on the camera images and map information without relying on the driver's operation. The program determines the vehicle's driving mode to one of a plurality of driving modes including a first driving mode and a second driving mode, the second driving mode being a driving mode in which the driver is tasked with a lighter task than the first driving mode, and at least some of the plurality of driving modes including the second driving mode are performed by controlling the steering and acceleration/deceleration of the vehicle without relying on the driver's operation, and the task associated with the determined driving mode is performed by the driver. If the task is not executed, the driving mode of the vehicle is changed to a driving mode with a heavier task, and a determination is made as to whether or not there is a deviation between the road dividing line shown in the camera image and one of the road dividing lines shown in the map information. If a deviation is determined to exist between the road dividing line shown in the camera image and one of the road dividing lines shown in the map information, a change in the lane width of the road dividing line shown in the camera image and a change in the lane width of the road dividing line shown in the map information are calculated, and a center line of the road along which the vehicle will travel in the second driving mode is generated based on the change in the lane width of the road dividing line shown in the camera image and the change in the lane width of the road dividing line shown in the map information.

(1)~(10)によれば、カメラによって認識された道路区画線と、自車両が搭載する地図情報の内容とが異なる場合であっても、車両の運転制御を適切に変更することができる。 (1) to (10) enable the vehicle's driving control to be appropriately changed even if the road dividing lines recognized by the camera differ from the map information installed in the vehicle.

実施形態に係る車両制御装置を利用した車両システム1の構成図である。1 is a configuration diagram of a vehicle system 1 using a vehicle control device according to an embodiment. 第1制御部120および第2制御部160の機能構成図である。FIG. 2 is a functional configuration diagram of a first control unit 120 and a second control unit 160. 運転モードと自車両Mの制御状態、およびタスクの対応関係の一例を示す図である。A figure showing an example of the correspondence between driving modes, control states of the vehicle M, and tasks. 実施形態に係る車両制御装置の動作が実行される場面の一例を示す図である。FIG. 2 is a diagram illustrating an example of a scene in which the operation of the vehicle control device according to the embodiment is performed. 変化量算出部154が車線幅の変化量を算出する方法を説明するための図である。10A and 10B are diagrams for explaining a method by which a change amount calculation unit 154 calculates a change amount of a lane width. 行動計画生成部140が走路の中心線RLを生成する方法を説明するための図である。FIG. 10 is a diagram for explaining a method by which the action plan generating unit 140 generates a center line RL of a track. 行動計画生成部140が走路の中心線RLを生成する際に参照するテーブルの一例を示す図である。FIG. 10 is a diagram showing an example of a table that the behavior plan generating unit 140 refers to when generating the center line RL of the track. 実施形態に係る車両制御装置によって実行される動作の流れの一例を示すフローチャートである。4 is a flowchart illustrating an example of a flow of an operation executed by the vehicle control device according to the embodiment.

以下、図面を参照し、本発明の車両制御装置、車両制御方法、およびプログラムの実施形態について説明する。 Embodiments of the vehicle control device, vehicle control method, and program of the present invention will be described below with reference to the drawings.

[全体構成]
図1は、実施形態に係る車両制御装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
[Overall configuration]
1 is a configuration diagram of a vehicle system 1 using a vehicle control device according to an embodiment. The vehicle on which the vehicle system 1 is installed may be, for example, a two-wheeled, three-wheeled, or four-wheeled vehicle, and its drive source may be an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination of these. The electric motor operates using power generated by a generator connected to the internal combustion engine, or discharged power from a secondary battery or a fuel cell.

車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、ドライバモニタカメラ70と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。 The vehicle system 1 includes, for example, a camera 10, a radar device 12, a LIDAR (Light Detection and Ranging) device 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, vehicle sensors 40, a navigation device 50, an MPU (Map Positioning Unit) 60, a driver monitor camera 70, driving controls 80, an autonomous driving control device 100, a driving force output device 200, a braking device 210, and a steering device 220. These devices and equipment are connected to each other via multiplexed communication lines such as a CAN (Controller Area Network) communication line, serial communication lines, a wireless communication network, etc. Note that the configuration shown in FIG. 1 is merely an example, and some of the components may be omitted or additional components may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。 Camera 10 is a digital camera that uses a solid-state imaging element such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor). Camera 10 is attached to any location on the vehicle (hereinafter referred to as host vehicle M) in which vehicle system 1 is installed. When capturing images of the front, camera 10 is attached to the top of the front windshield, the back of the rearview mirror, or the like. Camera 10, for example, periodically captures images of the surroundings of host vehicle M. Camera 10 may also be a stereo camera.

レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。 The radar device 12 emits radio waves such as millimeter waves around the vehicle M and detects radio waves reflected by objects (reflected waves) to detect at least the position (distance and direction) of the object. The radar device 12 may be mounted at any location on the vehicle M. The radar device 12 may also detect the position and speed of an object using the FM-CW (Frequency Modulated Continuous Wave) method.

LIDAR14は、自車両Mの周辺に光(或いは光に近い波長の電磁波)を照射し、散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14は、自車両Mの任意の箇所に取り付けられる。 The LIDAR 14 irradiates the area around the vehicle M with light (or electromagnetic waves with wavelengths similar to light) and measures the scattered light. The LIDAR 14 detects the distance to the target based on the time between light emission and light reception. The irradiated light is, for example, pulsed laser light. The LIDAR 14 can be attached to any location on the vehicle M.

物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14の検出結果をそのまま自動運転制御装置100に出力してよい。車両システム1から物体認識装置16が省略されてもよい。 The object recognition device 16 performs sensor fusion processing on the detection results from some or all of the camera 10, radar device 12, and LIDAR 14 to recognize the position, type, speed, etc. of the object. The object recognition device 16 outputs the recognition results to the autonomous driving control device 100. The object recognition device 16 may output the detection results from the camera 10, radar device 12, and LIDAR 14 directly to the autonomous driving control device 100. The object recognition device 16 may be omitted from the vehicle system 1.

通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。 The communication device 20 communicates with other vehicles in the vicinity of the vehicle M, for example, using a cellular network, Wi-Fi network, Bluetooth (registered trademark), or DSRC (Dedicated Short Range Communication), or communicates with various server devices via a wireless base station.

HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。 The HMI 30 presents various information to the occupants of the vehicle M and accepts input operations from the occupants. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys, etc.

車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。 The vehicle sensors 40 include a vehicle speed sensor that detects the speed of the host vehicle M, an acceleration sensor that detects acceleration, a yaw rate sensor that detects angular velocity around a vertical axis, and a direction sensor that detects the orientation of the host vehicle M.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a route determination unit 53. The navigation device 50 stores first map information 54 in a storage device such as a hard disk drive (HDD) or flash memory. The GNSS receiver 51 determines the position of the vehicle M based on signals received from GNSS satellites. The position of the vehicle M may be determined or supplemented by an inertial navigation system (INS) that uses the output of the vehicle sensors 40. The navigation HMI 52 includes a display device, speaker, touch panel, keys, etc. The navigation HMI 52 may share some or all of the components with the HMI 30 described above. The route determination unit 53 determines a route (hereinafter, a map route) from the position of the vehicle M determined by the GNSS receiver 51 (or any input position) to a destination input by the occupant using the navigation HMI 52, for example, by referring to the first map information 54. The first map information 54 is information that represents road shapes using, for example, links indicating roads and nodes connected by the links. The first map information 54 may also include information such as road curvature and POI (Point of Interest) information. The route on the map is output to the MPU 60. The navigation device 50 may provide route guidance using the navigation HMI 52 based on the route on the map. The navigation device 50 may be implemented, for example, by the functions of a terminal device such as a smartphone or tablet device owned by the occupant. The navigation device 50 may transmit the current position and destination to a navigation server via the communication device 20 and obtain a route equivalent to the route on the map from the navigation server.

MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。 The MPU 60 includes, for example, a recommended lane determination unit 61, and stores second map information 62 in a storage device such as an HDD or flash memory. The recommended lane determination unit 61 divides the route on the map provided by the navigation device 50 into multiple blocks (for example, every 100 m in the vehicle's direction of travel) and determines a recommended lane for each block by referring to the second map information 62. The recommended lane determination unit 61 determines, for example, which lane from the left to use in the route on the map. If there is a branch point on the route on the map, the recommended lane determination unit 61 determines a recommended lane so that the host vehicle M can travel on a reasonable route to the branch point.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報、後述するモードAまたはモードBが禁止される禁止区間の情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。 The second map information 62 is map information with higher accuracy than the first map information 54. The second map information 62 includes, for example, information on the center of lanes or information on lane boundaries. The second map information 62 may also include road information, traffic regulation information, address information (address and postal code), facility information, telephone number information, and information on prohibited sections where mode A or mode B, described below, is prohibited. The second map information 62 may be updated as needed by the communication device 20 communicating with other devices.

ドライバモニタカメラ70は、例えば、CCDやCMOS等の固体撮像素子を利用したデジタルカメラである。ドライバモニタカメラ70は、自車両Mの運転席に着座した乗員(以下、運転者)の頭部を正面から(顔面を撮像する向きで)撮像可能な位置および向きで、自車両Mにおける任意の箇所に取り付けられる。例えば、ドライバモニタカメラ70は、自車両Mのインストルメントパネルの中央部に設けられたディスプレイ装置の上部に取り付けられる。 The driver monitor camera 70 is a digital camera that uses a solid-state imaging element such as a CCD or CMOS. The driver monitor camera 70 is mounted at any location on the vehicle M in a position and orientation that allows it to capture an image of the head of an occupant (hereinafter referred to as the driver) seated in the driver's seat of the vehicle M from the front (in an orientation that captures the face). For example, the driver monitor camera 70 is mounted above a display device located in the center of the instrument panel of the vehicle M.

運転操作子80は、例えば、ステアリングホイール82の他、アクセルペダル、ブレーキペダル、シフトレバー、その他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。ステアリングホイール82は、「運転者による操舵操作を受け付ける操作子」の一例である。操作子は、必ずしも環状である必要は無く、異形ステアやジョイスティック、ボタンなどの形態であってもよい。ステアリングホイール82には、ステアリング把持センサ84が取り付けられている。ステアリング把持センサ84は、静電容量センサなどにより実現され、運転者がステアリングホイール82を把持している(力を加えられる状態で接していることをいう)か否かを検知可能な信号を自動運転制御装置100に出力する。 The driving operators 80 include, for example, a steering wheel 82, as well as an accelerator pedal, brake pedal, shift lever, and other operators. The driving operators 80 are equipped with sensors that detect the amount of operation or the presence or absence of operation, and the detection results are output to the automatic driving control device 100 or some or all of the driving force output device 200, brake device 210, and steering device 220. The steering wheel 82 is an example of an "operator that accepts steering operation by the driver." The operator does not necessarily have to be annular, and may be in the form of an irregular steering wheel, joystick, button, or the like. A steering grip sensor 84 is attached to the steering wheel 82. The steering grip sensor 84 is realized by a capacitance sensor or the like, and outputs a signal to the automatic driving control device 100 that can detect whether the driver is gripping the steering wheel 82 (meaning that the driver is in contact with the steering wheel in a manner that allows force to be applied).

自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。自動運転制御装置100は「車両制御装置」の一例であり、行動計画生成部140と第2制御部160を合わせたものが「運転制御部」の一例である。 The autonomous driving control device 100 includes, for example, a first control unit 120 and a second control unit 160. The first control unit 120 and the second control unit 160 are each implemented by a hardware processor, such as a CPU (Central Processing Unit), executing a program (software). Some or all of these components may be implemented by hardware (including circuitry), such as an LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), or GPU (Graphics Processing Unit), or by a combination of software and hardware. The program may be stored in advance on a storage device (storage device with a non-transitory storage medium) such as a HDD or flash memory of the autonomous driving control device 100, or may be stored on a removable storage medium such as a DVD or CD-ROM, and installed on the HDD or flash memory of the autonomous driving control device 100 by inserting the storage medium (non-transitory storage medium) into a drive device. The automatic driving control device 100 is an example of a "vehicle control device," and the combination of the action plan generation unit 140 and the second control unit 160 is an example of a "driving control unit."

図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140と、モード決定部150とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。 Figure 2 is a functional configuration diagram of the first control unit 120 and the second control unit 160. The first control unit 120 includes, for example, a recognition unit 130, an action plan generation unit 140, and a mode determination unit 150. The first control unit 120, for example, implements functions based on AI (Artificial Intelligence) and functions based on pre-specified models in parallel. For example, the "intersection recognition" function may be implemented by executing intersection recognition using deep learning or the like and recognition based on pre-specified conditions (such as traffic lights and road markings that can be pattern-matched) in parallel, and then scoring and comprehensively evaluating both. This ensures the reliability of autonomous driving.

認識部130は、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。 The recognition unit 130 recognizes the position, speed, acceleration, and other status of objects around the vehicle M based on information input from the camera 10, radar device 12, and LIDAR 14 via the object recognition device 16. The position of an object is recognized as a position on an absolute coordinate system with a representative point of the vehicle M (such as the center of gravity or the center of the drive shaft) as the origin, and is used for control. The position of an object may be represented by a representative point such as the center of gravity or a corner of the object, or by an area. The "state" of an object may include the acceleration or jerk of the object, or its "behavioral state" (for example, whether or not the vehicle is changing lanes or is about to change lanes).

また、認識部130は、例えば、自車両Mが走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。 The recognition unit 130 also recognizes, for example, the lane in which the host vehicle M is traveling (driving lane). For example, the recognition unit 130 recognizes the driving lane by comparing the pattern of road dividing lines (e.g., an arrangement of solid and dashed lines) obtained from the second map information 62 with the pattern of road dividing lines around the host vehicle M recognized from the image captured by the camera 10. Note that the recognition unit 130 may recognize the driving lane by recognizing road boundaries (road boundaries) including not only road dividing lines but also road dividing lines, shoulders, curbs, medians, guardrails, etc. This recognition may take into account the position of the host vehicle M obtained from the navigation device 50 and the processing results from the INS. The recognition unit 130 also recognizes stop lines, obstacles, red lights, toll booths, and other road phenomena.

認識部130は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。認識部130は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。 When recognizing the driving lane, the recognition unit 130 recognizes the position and orientation of the host vehicle M relative to the driving lane. For example, the recognition unit 130 may recognize the deviation of the host vehicle M's reference point from the center of the lane and the angle it makes with a line connecting the centers of the lanes in the host vehicle M's direction of travel as the relative position and orientation of the host vehicle M relative to the driving lane. Alternatively, the recognition unit 130 may recognize the position of the host vehicle M's reference point relative to either side edge of the driving lane (a road dividing line or road boundary) as the relative position of the host vehicle M relative to the driving lane.

行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。 The behavior plan generation unit 140 essentially drives the recommended lane determined by the recommended lane determination unit 61, and further generates a target trajectory for the host vehicle M to travel automatically (without relying on driver operation) in the future so that the host vehicle M can respond to the surrounding conditions. The target trajectory includes, for example, a speed element. For example, the target trajectory is expressed as a sequential arrangement of points (trajectory points) that the host vehicle M should reach. Trajectory points are points that the host vehicle M should reach at every predetermined driving distance (e.g., several meters) along the road. Separately, target speeds and target accelerations are generated as part of the target trajectory for every predetermined sampling time (e.g., several tenths of a second). Furthermore, the trajectory points may be the positions that the host vehicle M should reach at each predetermined sampling time. In this case, the target speed and target acceleration information is expressed as the interval between trajectory points.

行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。行動計画生成部140は、「走路生成部」の一例である。 When generating a target trajectory, the behavior plan generation unit 140 may set an autonomous driving event. Autonomous driving events include a constant speed driving event, a low-speed following driving event, a lane change event, a branching event, a merging event, and a takeover event. The behavior plan generation unit 140 generates a target trajectory according to the activated event. The behavior plan generation unit 140 is an example of a "path generation unit."

モード決定部150は、自車両Mの運転モードを、運転者に課されるタスクが異なる複数の運転モードのいずれかに決定する。モード決定部150は、例えば、乖離判定部152と変化量算出部154とを備える。乖離判定部152と変化量算出部154の機能については後述する。 The mode determination unit 150 determines the driving mode of the host vehicle M to be one of a plurality of driving modes that impose different tasks on the driver. The mode determination unit 150 includes, for example, a deviation determination unit 152 and a change amount calculation unit 154. The functions of the deviation determination unit 152 and the change amount calculation unit 154 will be described later.

図3は、運転モードと自車両Mの制御状態、およびタスクの対応関係の一例を示す図である。自車両Mの運転モードには、例えば、モードAからモードEの5つのモードがある。制御状態すなわち自車両Mの運転制御の自動化度合いは、モードAが最も高く、次いでモードB、モードC、モードDの順に低くなり、モードEが最も低い。この逆に、運転者に課されるタスクは、モードAが最も軽度であり、次いでモードB、モードC、モードDの順に重度となり、モードEが最も重度である。なお、モードDおよびEでは自動運転でない制御状態となるため、自動運転制御装置100としては自動運転に係る制御を終了し、運転支援または手動運転に移行させるまでが責務である。以下、それぞれの運転モードの内容について例示する。 Figure 3 is a diagram showing an example of the correspondence between driving modes, control states of the host vehicle M, and tasks. The host vehicle M has five driving modes, for example, Mode A to Mode E. The control state, i.e., the degree of automation of the host vehicle M's driving control, is highest in Mode A, followed by Mode B, Mode C, and Mode D, with Mode E being the lowest. Conversely, the tasks imposed on the driver are lightest in Mode A, followed by Mode B, Mode C, and Mode D, with Mode E being the most severe. Note that Modes D and E are non-autonomous control states, and therefore the autonomous driving control device 100 is responsible for terminating autonomous driving control and transitioning to driving assistance or manual driving. The following provides examples of the contents of each driving mode.

モードAでは、自動運転の状態となり、運転者には前方監視、ステアリングホイール82の把持(図ではステアリング把持)のいずれも課されない。但し、モードAであっても運転者は、自動運転制御装置100を中心としたシステムからの要求に応じて速やかに手動運転に移行できる体勢であることが要求される。なお、ここで言う自動運転とは、操舵、加減速のいずれも運転者の操作に依らずに制御されることをいう。前方とは、フロントウインドシールドを介して視認される自車両Mの進行方向の空間を意味する。モードAは、例えば、高速道路などの自動車専用道路において、所定速度(例えば50[km/h]程度)以下で自車両Mが走行しており、追従対象の前走車両が存在するなどの条件が満たされる場合に実行可能な運転モードであり、TJP(Traffic Jam Pilot)と称される場合もある。この条件が満たされなくなった場合、モード決定部150は、モードBに自車両Mの運転モードを変更する。 In Mode A, the vehicle is in an autonomous driving state, and the driver is not required to monitor the road ahead or hold the steering wheel 82 (in the figure, the driver is holding the steering wheel). However, even in Mode A, the driver is required to be in a position where they can quickly switch to manual driving in response to a request from the system centered on the autonomous driving control device 100. Note that autonomous driving here means that both steering and acceleration/deceleration are controlled independently of the driver's operation. "Ahead" refers to the space in the direction of travel of the host vehicle M, as seen through the front windshield. Mode A is a driving mode that can be implemented, for example, on a highway or other motorway, when certain conditions are met, such as the host vehicle M traveling at a predetermined speed (e.g., approximately 50 km/h) or less and there being a vehicle ahead to be followed. Mode A is sometimes referred to as TJP (Traffic Jam Pilot). If these conditions are no longer met, the mode determination unit 150 changes the driving mode of the host vehicle M to Mode B.

モードBでは、運転支援の状態となり、運転者には自車両Mの前方を監視するタスク(以下、前方監視)が課されるが、ステアリングホイール82を把持するタスクは課されない。モードCでは、運転支援の状態となり、運転者には前方監視のタスクと、ステアリングホイール82を把持するタスクが課される。モードDは、自車両Mの操舵と加減速のうち少なくとも一方に関して、ある程度の運転者による運転操作が必要な運転モードである。例えば、モードDでは、ACC(Adaptive Cruise Control)やLKAS(Lane Keeping Assist System)といった運転支援が行われる。モードEでは、操舵、加減速ともに運転者による運転操作が必要な手動運転の状態となる。モードD、モードEともに、当然ながら運転者には自車両Mの前方を監視するタスクが課される。 In Mode B, the vehicle is in a driving assistance state, and the driver is tasked with monitoring the area ahead of the vehicle M (hereinafter referred to as "forward monitoring"), but is not tasked with holding the steering wheel 82. In Mode C, the vehicle is in a driving assistance state, and the driver is tasked with monitoring the area ahead and holding the steering wheel 82. Mode D is a driving mode in which the driver must perform some degree of driving operation for at least one of steering and accelerating/decelerating the vehicle M. For example, in Mode D, driving assistance such as ACC (Adaptive Cruise Control) and LKAS (Lane Keeping Assist System) is provided. Mode E is a manual driving state in which the driver must perform both steering and accelerating/decelerating operations. In both Modes D and E, the driver is naturally tasked with monitoring the area ahead of the vehicle M.

自動運転制御装置100(および運転支援装置(不図示))は、運転モードに応じた自動車線変更を実行する。自動車線変更には、システム要求による自動車線変更(1)と、運転者要求による自動車線変更(2)がある。自動車線変更(1)には、前走車両の速度が自車両の速度に比して基準以上に小さい場合に行われる、追い越しのための自動車線変更と、目的地に向けて進行するための自動車線変更(推奨車線が変更されたことによる自動車線変更)とがある。自動車線変更(2)は、速度や周辺車両との位置関係等に関する条件が満たされた場合において、運転者により方向指示器が操作された場合に、操作方向に向けて自車両Mを車線変更させるものである。 The automatic driving control device 100 (and the driving assistance device (not shown)) executes an automated lane change according to the driving mode. Automated lane changes include system-requested automated lane changes (1) and driver-requested automated lane changes (2). Automated lane changes (1) include automated lane changes for overtaking, which are performed when the speed of a leading vehicle is slower than the speed of the vehicle itself by a certain standard, and automated lane changes for proceeding toward a destination (automated lane changes due to a change in the recommended lane). Automated lane changes (2) are performed when the driver operates a turn signal and conditions related to speed and positional relationship with surrounding vehicles are met, causing the vehicle M to change lanes in the direction of the operation.

自動運転制御装置100は、モードAにおいて、自動車線変更(1)および(2)のいずれも実行しない。自動運転制御装置100は、モードBおよびCにおいて、自動車線変更(1)および(2)のいずれも実行する。運転支援装置(不図示)は、モードDにおいて、自動車線変更(1)は実行せず自動車線変更(2)を実行する。モードEにおいて、自動車線変更(1)および(2)のいずれも実行されない。 In mode A, the automatic driving control device 100 does not perform either automated lane change (1) or (2). In modes B and C, the automatic driving control device 100 performs either automated lane change (1) or (2). In mode D, the driving assistance device (not shown) does not perform automated lane change (1), but performs automated lane change (2). In mode E, neither automated lane change (1) nor (2) is performed.

モード決定部150は、決定した運転モード(以下、現運転モード)に係るタスクが運転者により実行されない場合に、よりタスクが重度な運転モードに自車両Mの運転モードを変更する。 When the driver does not perform a task related to the determined driving mode (hereinafter referred to as the current driving mode), the mode determination unit 150 changes the driving mode of the host vehicle M to a driving mode with a more severe task.

例えば、モードAにおいて運転者が、システムからの要求に応じて手動運転に移行できない体勢である場合(例えば許容エリア外の脇見を継続している場合や、運転困難となる予兆が検出された場合)、モード決定部150は、HMI30を用いて運転者に手動運転への移行を促し、運転者が応じなければ自車両Mを路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。自動運転を停止した後は、自車両はモードDまたはEの状態になり、運転者の手動操作によって自車両Mを発進させることが可能となる。以下、「自動運転を停止」に関して同様である。モードBにおいて運転者が前方を監視していない場合、モード決定部150は、HMI30を用いて運転者に前方監視を促し、運転者が応じなければ自車両Mを路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。モードCにおいて運転者が前方を監視していない場合、或いはステアリングホイール82を把持していない場合、モード決定部150は、HMI30を用いて運転者に前方監視を、および/またはステアリングホイール82を把持するように促し、運転者が応じなければ自車両Mを路肩に寄せて徐々に停止させ、自動運転を停止する、といった制御を行う。 For example, in mode A, if the driver is in a position where they cannot switch to manual driving in response to a request from the system (for example, if they continue to look away from the road outside the permitted area or if signs of driving difficulty are detected), the mode determination unit 150 uses the HMI 30 to prompt the driver to switch to manual driving, and if the driver does not comply, it controls the vehicle M to move to the shoulder of the road and gradually stop, and stops the autonomous driving. After autonomous driving is stopped, the vehicle enters mode D or E, and the driver can manually operate the vehicle M to start moving. The same applies below to "stopping autonomous driving." In mode B, if the driver is not monitoring the road ahead, the mode determination unit 150 uses the HMI 30 to prompt the driver to monitor the road ahead, and if the driver does not comply, it controls the vehicle M to move to the shoulder of the road and gradually stop, and stops the autonomous driving. In mode C, if the driver is not monitoring the road ahead or is not gripping the steering wheel 82, the mode determination unit 150 uses the HMI 30 to prompt the driver to monitor the road ahead and/or grip the steering wheel 82, and if the driver does not comply, the mode determination unit 150 performs control such as pulling the vehicle M over to the shoulder of the road and gradually bringing it to a halt, thereby terminating the autonomous driving.

第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 160 controls the driving force output device 200, the braking device 210, and the steering device 220 so that the host vehicle M passes through the target trajectory generated by the action plan generation unit 140 at the scheduled time.

図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。 Returning to FIG. 2, the second control unit 160 includes, for example, an acquisition unit 162, a speed control unit 164, and a steering control unit 166. The acquisition unit 162 acquires information about the target trajectory (trajectory points) generated by the action plan generation unit 140 and stores it in memory (not shown). The speed control unit 164 controls the driving force output device 200 or the brake device 210 based on the speed element associated with the target trajectory stored in memory. The steering control unit 166 controls the steering device 220 according to the curvature of the target trajectory stored in memory. The processing of the speed control unit 164 and the steering control unit 166 is realized, for example, by a combination of feedforward control and feedback control. As an example, the steering control unit 166 executes a combination of feedforward control according to the curvature of the road ahead of the host vehicle M and feedback control based on the deviation from the target trajectory.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。 The driving force output device 200 outputs driving force (torque) to the drive wheels to propel the vehicle. The driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, and a transmission, and an ECU (Electronic Control Unit) that controls these. The ECU controls the above components in accordance with information input from the second control unit 160 or information input from the driving operator 80.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to information input from the second control unit 160 or information input from the driving operator 80, so that brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include a backup mechanism that transmits hydraulic pressure generated by operation of the brake pedal included in the driving operator 80 to the cylinder via a master cylinder. Note that the brake device 210 is not limited to the configuration described above, and may also be an electronically controlled hydraulic brake device that controls an actuator according to information input from the second control unit 160 to transmit hydraulic pressure from the master cylinder to the cylinder.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor applies force to a rack and pinion mechanism to change the direction of the steered wheels. The steering ECU drives the electric motor to change the direction of the steered wheels in accordance with information input from the second control unit 160 or information input from the driving operator 80.

[車両制御装置の動作]
次に、実施形態に係る車両制御装置の動作について説明する。以下の説明において、自車両Mは、モードBの運転モードにて走行中であることを前提とするものとする。図4は、実施形態に係る車両制御装置の動作が実行される場面の一例を示す図である。
[Operation of vehicle control device]
Next, the operation of the vehicle control device according to the embodiment will be described. In the following description, it is assumed that the host vehicle M is traveling in the driving mode B. Fig. 4 is a diagram showing an example of a scene in which the operation of the vehicle control device according to the embodiment is executed.

図4に示す通り、自車両Mが車線L1を走行中、認識部130は、自車両Mの周辺状況、特に、自車両Mの両側の道路区画線を、カメラ10によって撮像された画像に基づいて認識する。以下、カメラ10によって撮像された画像に基づいて認識された道路区画線をCLによって表し(以下、「カメラ道路区画線CL」と称する)、第2地図情報62に基づいて認識された道路区画線をMLによって表す(以下、「地図道路区画線ML」と称する)。 As shown in Figure 4, while the host vehicle M is traveling in lane L1, the recognition unit 130 recognizes the surrounding conditions of the host vehicle M, particularly the road dividing lines on both sides of the host vehicle M, based on images captured by the camera 10. Hereinafter, the road dividing lines recognized based on the images captured by the camera 10 will be represented by CL (hereinafter referred to as "camera road dividing lines CL"), and the road dividing lines recognized based on the second map information 62 will be represented by ML (hereinafter referred to as "map road dividing lines ML").

乖離判定部152は、自車両Mが走行中、カメラ道路区画線CLと地図道路区画線MLとの間に乖離(アンマッチ)が存在するか否かを判定する。ここで、乖離とは、例えば、カメラ道路区画線CLと地図道路区画線MLとの間の距離ΔYが所定値以上であるか、又はカメラ道路区画線CLと地図道路区画線MLとの間の角度Δθが所定値以上であることを意味する。 The deviation determination unit 152 determines whether there is a deviation (mismatch) between the camera road dividing line CL and the map road dividing line ML while the host vehicle M is traveling. Here, deviation means, for example, that the distance ΔY between the camera road dividing line CL and the map road dividing line ML is equal to or greater than a predetermined value, or that the angle Δθ between the camera road dividing line CL and the map road dividing line ML is equal to or greater than a predetermined value.

変化量算出部154は、乖離判定部152によって、カメラ道路区画線CLと地図道路区画線MLの片側についてのみ乖離が存在すると判定された場合、カメラ道路区画線CLの車線幅の変化量ΔWcamと、地図道路区画線MLの変化量ΔWmapを算出する。 When the deviation determination unit 152 determines that a deviation exists on only one side of the camera road dividing line CL and the map road dividing line ML, the change amount calculation unit 154 calculates the change amount ΔWcam in the lane width of the camera road dividing line CL and the change amount ΔWmap in the map road dividing line ML.

図5は、変化量算出部154が車線幅の変化量を算出する方法を説明するための図である。図5に示す通り、変化量算出部154は、例えば、自車両Mの現在位置におけるカメラ道路区画線CLの車線幅Wc1と、地図道路区画線MLの車線幅Wm1を算出するとともに、自車両Mの前方位置(例えば、自車両Mの現在速度を基準として1sec先の位置)におけるカメラ道路区画線CLの車線幅Wc2と、地図道路区画線MLの車線幅Wm2を算出する。次に、変化量算出部154は、変化量ΔWcam=Wc2-Wc1を算出するとともに、変化量ΔWmap=Wm2-Wm1を算出する。 Figure 5 is a diagram illustrating how the change amount calculation unit 154 calculates the change amount of lane width. As shown in Figure 5, the change amount calculation unit 154 calculates, for example, the lane width Wc1 of the camera road dividing line CL and the lane width Wm1 of the map road dividing line ML at the current position of the host vehicle M, and also calculates the lane width Wc2 of the camera road dividing line CL and the lane width Wm2 of the map road dividing line ML at a position ahead of the host vehicle M (for example, a position 1 second ahead based on the current speed of the host vehicle M). Next, the change amount calculation unit 154 calculates the change amount ΔWcam = Wc2 - Wc1, and also calculates the change amount ΔWmap = Wm2 - Wm1.

変化量算出部154が変化量ΔWcamおよびΔWmapを算出すると、行動計画生成部140は、算出された変化量ΔWcamおよびΔWmapと、図7を参照して後述するテーブルとに基づいて、モードBの運転モードにおいて自車両Mが走行する走路の中心線(参照線)RLを生成する。 When the change amount calculation unit 154 calculates the changes ΔWcam and ΔWmap, the behavior plan generation unit 140 generates the center line (reference line) RL of the road along which the host vehicle M will travel in driving mode B based on the calculated changes ΔWcam and ΔWmap and a table described below with reference to FIG. 7.

図6は、行動計画生成部140が走路の中心線RLを生成する方法を説明するための図である。図6の場合、行動計画生成部140は、図7のテーブルを参照して、カメラ道路区画線CLよりも地図道路区画線MLの方が車線幅の変動が小さく、信頼性が高いと判定するため、カメラ道路区画線CLと地図道路区画線MLとが一致している側(すなわち、図6では左側)からは、地図道路区画線MLを採用する。一方、カメラ道路区画線CLと地図道路区画線MLとが一致していない側(すなわち、図6では右側)からは、より幅が狭い道路区画線である地図道路区画線MLを採用する。行動計画生成部140は、採用した二つの道路区画線の間の幅Wmの半分の距離Wm/2を、一致している側の道路区画線MLからオフセットすることによって走路の中心線RLを算出する。これにより、より信頼性の高い自車両Mの走路を生成することができる。 Figure 6 is a diagram illustrating how the behavior plan generation unit 140 generates the center line RL of the lane. In the case of Figure 6, the behavior plan generation unit 140 references the table in Figure 7 and determines that the map road dividing line ML has smaller lane width variations and is more reliable than the camera road dividing line CL. Therefore, the map road dividing line ML is used from the side where the camera road dividing line CL and the map road dividing line ML coincide (i.e., the left side in Figure 6). On the other hand, the map road dividing line ML, which is a narrower road dividing line, is used from the side where the camera road dividing line CL and the map road dividing line ML do not coincide (i.e., the right side in Figure 6). The behavior plan generation unit 140 calculates the center line RL of the lane by offsetting the distance Wm/2, which is half the width Wm between the two adopted road dividing lines, from the road dividing line ML on the coincident side. This enables a more reliable lane to be generated for the host vehicle M.

図7は、行動計画生成部140が走路の中心線RLを生成する際に参照するテーブルの一例を示す図である。図6を参照して説明した通り、図7のテーブルは、原則的に、車線幅の変化量(ΔWcam又はΔWmap)がより小さい道路区画線の信頼性をより高いものと評価して、中心線RLの生成に用いることを規定するものである。車線幅の変化量が同程度のときには、一般的により信頼性が高い傾向にあるカメラ道路区画線CLを優先的に用いる。 Figure 7 shows an example of a table that the action plan generation unit 140 references when generating the center line RL of a lane. As explained with reference to Figure 6, the table in Figure 7 specifies that, in principle, the road dividing line with the smaller lane width change (ΔWcam or ΔWmap) is evaluated as more reliable and used to generate the center line RL. When lane width changes are roughly the same, the camera road dividing line CL, which generally tends to be more reliable, is used preferentially.

まず、図7のパターン(a)、(b)、(c)に示す通り、行動計画生成部140は、カメラ道路区画線の車線幅の変化量ΔWcamが第1閾値Th1未満である場合、カメラ道路区画線CLと地図道路区画線MLとが一致している側からは、カメラ道路区画線CLを採用する。一方、カメラ道路区画線CLと地図道路区画線MLとが一致していない側からは、カメラ道路区画線CLと地図道路区画線MLのうち、より幅が狭い道路区画線を採用する。行動計画生成部140は、採用した二つの道路区画線の間の幅Wmの半分の距離Wm/2を、一致している側のカメラ道路区画線CLからオフセットすることによって走路の中心線RLを算出する。 First, as shown in patterns (a), (b), and (c) in Figure 7, if the lane width change ΔWcam of the camera road dividing line is less than the first threshold Th1, the behavior plan generation unit 140 adopts the camera road dividing line CL from the side where the camera road dividing line CL and the map road dividing line ML coincide. On the other hand, from the side where the camera road dividing line CL and the map road dividing line ML do not coincide, the behavior plan generation unit 140 adopts the narrower road dividing line between the camera road dividing line CL and the map road dividing line ML. The behavior plan generation unit 140 calculates the center line RL of the lane by offsetting the distance Wm/2, which is half the width Wm between the two adopted road dividing lines, from the camera road dividing line CL on the side where they coincide.

次に、図7のパターン(d)に示す通り、行動計画生成部140は、カメラ道路区画線の車線幅の変化量ΔWcamが第1閾値Th1以上かつ第2閾値Th2(Th2>Th1)未満であり、かつ地図道路区画線MLの車線幅の変化量ΔWmapが第1閾値Th1未満である場合、カメラ道路区画線CLと地図道路区画線MLとが一致している側からは、地図道路区画線MLを採用する。一方、カメラ道路区画線CLと地図道路区画線MLとが一致していない側からは、カメラ道路区画線CLと地図道路区画線MLのうち、より幅が狭い道路区画線を採用する。行動計画生成部140は、採用した二つの道路区画線の間の幅Wmの半分の距離Wm/2を、一致している側の地図道路区画線MLからオフセットすることによって走路の中心線RLを算出する。 Next, as shown in pattern (d) of Figure 7, if the lane width change ΔWcam of the camera road dividing line is equal to or greater than the first threshold Th1 and less than the second threshold Th2 (Th2 > Th1), and the lane width change ΔWmap of the map road dividing line ML is less than the first threshold Th1, the behavior plan generation unit 140 adopts the map road dividing line ML from the side where the camera road dividing line CL and the map road dividing line ML coincide. On the other hand, from the side where the camera road dividing line CL and the map road dividing line ML do not coincide, the behavior plan generation unit 140 adopts the narrower road dividing line between the camera road dividing line CL and the map road dividing line ML. The behavior plan generation unit 140 calculates the center line RL of the lane by offsetting the distance Wm/2, which is half the width Wm between the two adopted road dividing lines, from the map road dividing line ML on the side where they coincide.

次に、図7のパターン(e)、(f)に示す通り、行動計画生成部140は、カメラ道路区画線の車線幅の変化量ΔWcamが第1閾値Th1以上かつ第2閾値Th2未満であり、かつ地図道路区画線MLの車線幅の変化量ΔWmapが第1閾値Th1以上である場合、カメラ道路区画線CLと地図道路区画線MLとが一致している側からは、カメラ道路区画線CLを採用する。一方、カメラ道路区画線CLと地図道路区画線MLとが一致していない側からは、カメラ道路区画線CLと地図道路区画線MLのうち、より幅が狭い道路区画線を採用する。行動計画生成部140は、採用した二つの道路区画線の間の幅Wmの半分の距離Wm/2を、一致している側のカメラ道路区画線CLからオフセットすることによって走路の中心線RLを算出する。 Next, as shown in patterns (e) and (f) in Figure 7, if the lane width change ΔWcam of the camera road dividing line is greater than or equal to the first threshold Th1 and less than the second threshold Th2, and the lane width change ΔWmap of the map road dividing line ML is greater than or equal to the first threshold Th1, the behavior plan generation unit 140 adopts the camera road dividing line CL from the side where the camera road dividing line CL and the map road dividing line ML coincide. On the other hand, from the side where the camera road dividing line CL and the map road dividing line ML do not coincide, the behavior plan generation unit 140 adopts the narrower road dividing line between the camera road dividing line CL and the map road dividing line ML. The behavior plan generation unit 140 calculates the center line RL of the lane by offsetting the camera road dividing line CL on the side where they coincide by a distance Wm/2, which is half the width Wm between the two adopted road dividing lines.

次に、図7のパターン(g)、(h)に示す通り、行動計画生成部140は、カメラ道路区画線の車線幅の変化量ΔWcamが第2閾値Th2以上であり、かつ地図道路区画線MLの車線幅の変化量ΔWmapが第2閾値Th2未満である場合、カメラ道路区画線CLと地図道路区画線MLとが一致している側と一致していない側の双方から地図道路区画線MLを採用する。すなわち、行動計画生成部140は、両側の地図道路区画線MLの幅Wmの半分の距離Wm/2を、一致している側の地図道路区画線MLからオフセットすることによって走路の中心線RLを算出する。 Next, as shown in patterns (g) and (h) in Figure 7, if the lane width change ΔWcam of the camera road dividing line is equal to or greater than the second threshold Th2 and the lane width change ΔWmap of the map road dividing line ML is less than the second threshold Th2, the behavior plan generation unit 140 uses the map road dividing line ML from both the side where the camera road dividing line CL and the map road dividing line ML coincide and the side where they do not coincide. In other words, the behavior plan generation unit 140 calculates the center line RL of the lane by offsetting a distance Wm/2, which is half the width Wm of the map road dividing lines ML on both sides, from the map road dividing line ML on the coincident side.

次に、図7のパターン(i)に示す通り、行動計画生成部140は、カメラ道路区画線の車線幅の変化量ΔWcamと、地図道路区画線MLの車線幅の変化量ΔWmapとが第2閾値Th2以上である場合、カメラ道路区画線CLと地図道路区画線MLとが一致している側からは、カメラ道路区画線CLを採用する。一方、カメラ道路区画線CLと地図道路区画線MLとが一致していない側からは、カメラ道路区画線CLと地図道路区画線MLのうち、より幅が狭い道路区画線を採用する。行動計画生成部140は、採用した二つの道路区画線の間の幅Wmの半分の距離Wm/2を、一致している側のカメラ道路区画線CLからオフセットすることによって走路の中心線RLを算出する。 Next, as shown in pattern (i) in Figure 7, if the lane width change amount ΔWcam of the camera road dividing line and the lane width change amount ΔWmap of the map road dividing line ML are equal to or greater than the second threshold Th2, the behavior plan generation unit 140 adopts the camera road dividing line CL from the side where the camera road dividing line CL and the map road dividing line ML coincide. On the other hand, from the side where the camera road dividing line CL and the map road dividing line ML do not coincide, the behavior plan generation unit 140 adopts the narrower road dividing line between the camera road dividing line CL and the map road dividing line ML. The behavior plan generation unit 140 calculates the center line RL of the lane by offsetting the distance Wm/2, which is half the width Wm between the two adopted road dividing lines, from the camera road dividing line CL on the side where they coincide.

このように、乖離判定部152によって、カメラ道路区画線CLと地図道路区画線MLの片側について乖離が発生したと判定された場合、変化量算出部154は、カメラ道路区画線CLの車線幅の変化量ΔWcamと、地図道路区画線MLの車線幅の変化量ΔWmapとを算出する。行動計画生成部140は、算出した二つの変化量ΔWcam、ΔWmapをそれぞれ閾値Th1、Th2と比較し、車線幅の変化量がより小さい道路区画線の信頼性をより高いものと評価して、中心線RLの生成に用いる。これにより、より信頼性の高い自車両Mの走路を生成することができる。 In this way, when the deviation determination unit 152 determines that deviation has occurred on one side of the camera road dividing line CL and the map road dividing line ML, the change amount calculation unit 154 calculates the change amount ΔWcam in the lane width of the camera road dividing line CL and the change amount ΔWmap in the lane width of the map road dividing line ML. The action plan generation unit 140 compares the two calculated change amounts ΔWcam and ΔWmap with threshold values Th1 and Th2, respectively, and evaluates the road dividing line with the smaller change amount in lane width as more reliable and uses it to generate the center line RL. This makes it possible to generate a more reliable path for the host vehicle M.

次に、図8を参照して、実施形態に係る車両制御装置によって実行される動作の流れの一例を示すフローチャートである。図8は、実施形態に係る車両制御装置によって実行される動作の流れの一例を示すフローチャートである。本フローチャートに係る処理は、自車両MがモードBの運転モードにて走行している間に所定サイクルで実行されるものである。 Next, referring to Figure 8, a flowchart showing an example of the flow of operations executed by the vehicle control device according to the embodiment is shown. Figure 8 is a flowchart showing an example of the flow of operations executed by the vehicle control device according to the embodiment. The processing according to this flowchart is executed at a predetermined cycle while the host vehicle M is traveling in driving mode B.

まず、車両制御装置は、前回サイクルで、カメラ道路区画線CLと地図道路区画線MLの片側が一致したことに起因して、カメラ道路区画線CLに基づく中心線RLが生成されたか否かを判定する(ステップS100)。前回サイクルで、カメラ道路区画線CLに基づく中心線RLが生成されたと判定された場合、車両制御装置は、今回サイクルにおいても、同一の片側一致が維持されている否かを判定する(ステップS102)。今回サイクルにおいては、同一の片側一致が維持されていないと判定された場合(すなわち、両側不一致と判定された場合)、車両制御装置は、運転モードをモードBからモードCに変更する(ステップS104)。 First, the vehicle control device determines whether a center line RL based on the camera road dividing line CL was generated due to one side of the camera road dividing line CL and the map road dividing line ML matching in the previous cycle (step S100). If it is determined that a center line RL based on the camera road dividing line CL was generated in the previous cycle, the vehicle control device determines whether the same one-sided matching is maintained in the current cycle (step S102). If it is determined that the same one-sided matching is not maintained in the current cycle (i.e., if it is determined that both sides are not matched), the vehicle control device changes the driving mode from mode B to mode C (step S104).

一方、前回サイクルで、カメラ道路区画線CLと地図道路区画線MLの片側が一致したことに起因して、カメラ道路区画線CLに基づく中心線RLが生成されていないと判定された場合、車両制御装置は、今回サイクルで、カメラ道路区画線CLと地図道路区画線MLの片側が一致しているか否かを判定する(ステップS106)。今回サイクルで、カメラ道路区画線CLと地図道路区画線MLの片側が一致していないと判定された場合(すなわち、両側不一致と判定された場合)、車両制御装置は、両側の地図道路区画線MLの中心線(すなわち、地図中心線)を、走路の中心線RLとして算出する(ステップS108)。 On the other hand, if it is determined that a center line RL based on the camera road dividing line CL has not been generated because one side of the camera road dividing line CL and one side of the map road dividing line ML coincided in the previous cycle, the vehicle control device determines whether one side of the camera road dividing line CL and one side of the map road dividing line ML coincide in the current cycle (step S106). If it is determined that one side of the camera road dividing line CL and one side of the map road dividing line ML do not coincide in the current cycle (i.e., if it is determined that both sides do not coincide), the vehicle control device calculates the center lines of the map road dividing lines ML on both sides (i.e., the map center line) as the center line RL of the lane (step S108).

今回サイクルで、カメラ道路区画線CLと地図道路区画線MLの片側が一致していると判定された場合、又は、前回サイクルの片側一致が今回サイクルでも維持されていると判定された場合、車両制御装置は、一致している側のカメラ道路区画線CLが所定距離先まで存在するか否かを判定する(ステップS110)。一致している側のカメラ道路区画線CLが所定距離先まで存在しないと判定された場合、車両制御装置は、運転モードをモードBからモードCに変更する。 If it is determined that one side of the camera road dividing line CL and the map road dividing line ML match in the current cycle, or if it is determined that the one-side match from the previous cycle is maintained in the current cycle, the vehicle control device determines whether the camera road dividing line CL on the matching side exists up to a predetermined distance away (step S110). If it is determined that the camera road dividing line CL on the matching side does not exist up to a predetermined distance away, the vehicle control device changes the driving mode from mode B to mode C.

一方、一致している側のカメラ道路区画線CLが所定距離先まで存在すると判定された場合、車両制御装置は、次に、両側の地図道路区画線MLが存在するか否かを判定する(ステップS112)。両側の地図道路区画線MLが存在しないと判定された場合、車両制御装置は、両側のカメラ道路区画線CLの中心線(すなわち、カメラ中心線)を、走路の中心線RLとして算出する(ステップS114)。一方、両側の地図道路区画線MLが存在すると判定された場合、車両制御装置は、図7に示したテーブルに基づいて、走路の中心線RLを算出する(ステップS116)。これにより、本フローチャートの処理が終了する。 On the other hand, if it is determined that the matching camera road dividing line CL exists up to a predetermined distance away, the vehicle control device then determines whether map road dividing lines ML exist on both sides (step S112). If it is determined that map road dividing lines ML do not exist on both sides, the vehicle control device calculates the center line RL of the lane as the center line RL of the lane (step S114), using the center line of the camera road dividing lines CL on both sides (i.e., the camera center line). On the other hand, if it is determined that map road dividing lines ML exist on both sides, the vehicle control device calculates the center line RL of the lane based on the table shown in FIG. 7 (step S116). This ends the processing of this flowchart.

以上の通り説明した本実施形態によれば、カメラ道路区画線と地図道路区画線の片側に乖離が発生したと判定された場合、カメラ道路区画線の車線幅の変化量と、地図道路区画線の車線幅の変化量とを算出し、算出した二つの変化量と閾値とを比較した結果に基づいて、自車両が走行する走路の中心線を生成する。これにより、カメラによって認識された道路区画線と、自車両が搭載する地図情報の内容とが異なる場合であっても、車両の運転制御を適切に変更することができる。 According to the present embodiment described above, when it is determined that a deviation has occurred on one side between the camera road-dividing line and the map road-dividing line, the amount of change in lane width of the camera road-dividing line and the amount of change in lane width of the map road-dividing line are calculated, and the center line of the lane on which the vehicle is traveling is generated based on the results of comparing the two calculated amounts of change with a threshold. This makes it possible to appropriately change the vehicle's driving control even if the road-dividing line recognized by the camera differs from the content of the map information installed in the vehicle.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記プロセッサは、前記コンピュータによって読み込み可能な命令を実行することにより(the processor executing the computer-readable instructions to:)
車両の周辺状況を撮像したカメラ画像を取得し、
前記カメラ画像と地図情報に基づいて、前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御し、
前記車両の運転モードを、第1の運転モードと、第2の運転モードとを含む複数の運転モードのいずれかに決定し、前記第2の運転モードは前記運転者に課されるタスクが前記第1の運転モードに比して軽度な運転モードであり、少なくとも前記第2の運転モードを含む前記複数の運転モードの一部は前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御することで行われるものであり、前記決定した運転モードに係るタスクが運転者により実行されない場合に、よりタスクが重度な運転モードに前記車両の運転モードを変更し、
前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の片側について乖離が存在するか否かを判定し、
前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の片側について乖離が存在すると判定された場合、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量を算出し、
前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量とに基づいて、前記第2の運転モードにおいて前記車両が走行する走路の中心線を生成する、
ように構成されている、車両制御装置。
The above-described embodiment can be expressed as follows.
a storage device storing a program;
a hardware processor;
The processor executes the computer-readable instructions to:
Acquire camera images of the vehicle's surroundings,
Controlling the steering and acceleration/deceleration of the vehicle based on the camera image and map information without relying on the operation of the driver of the vehicle;
determining a driving mode of the vehicle to one of a plurality of driving modes including a first driving mode and a second driving mode, the second driving mode being a driving mode in which a task imposed on the driver is lighter than that imposed on the driver in the first driving mode, and at least a part of the plurality of driving modes including the second driving mode being performed by controlling the steering and acceleration/deceleration of the vehicle without relying on an operation by the driver of the vehicle, and changing the driving mode of the vehicle to a driving mode in which the task is heavier when the driver does not perform a task related to the determined driving mode;
determining whether or not there is a discrepancy between one side of the road dividing line shown in the camera image and the other side of the road dividing line shown in the map information;
If it is determined that there is a discrepancy between one side of the road dividing line shown in the camera image and the road dividing line shown in the map information, the amount of change in the lane width of the road dividing line shown in the camera image and the amount of change in the lane width of the road dividing line shown in the map information are calculated;
generating a center line of a road on which the vehicle is traveling in the second driving mode based on a change in lane width of a road-dividing line shown in the camera image and a change in lane width of a road-dividing line shown in the map information;
The vehicle control device is configured as follows.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 The above describes the form for carrying out the present invention using an embodiment, but the present invention is in no way limited to such an embodiment, and various modifications and substitutions can be made without departing from the spirit of the present invention.

10 カメラ
12 レーダ装置
14 LIDAR
16 物体認識装置
100 自動運転制御装置
120 第1制御部
130 認識部
140 行動計画生成部
150 モード決定部
152 乖離判定部
154 変化量算出部
160 第2制御部
10 Camera 12 Radar device 14 LIDAR
16 Object recognition device 100 Automatic driving control device 120 First control unit 130 Recognition unit 140 Action plan generation unit 150 Mode determination unit 152 Deviation determination unit 154 Change amount calculation unit 160 Second control unit

Claims (10)

車両の周辺状況を撮像したカメラ画像を取得する取得部と、
前記カメラ画像と地図情報に基づいて、前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御する運転制御部と、
前記車両の運転モードを、第1の運転モードと、第2の運転モードとを含む複数の運転モードのいずれかに決定し、前記第2の運転モードは前記運転者に課されるタスクが前記第1の運転モードに比して軽度な運転モードであり、少なくとも前記第2の運転モードを含む前記複数の運転モードの一部は前記運転制御部により制御されるものであり、前記決定した運転モードに係るタスクが運転者により実行されない場合に、よりタスクが重度な運転モードに前記車両の運転モードを変更するモード決定部と、
前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の左右のうちの片側について乖離が存在するか否かを判定する乖離判定部と、
前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の左右のうちの片側について乖離が存在すると判定された場合、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量を算出する変化量算出部と、
前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量とに基づいて、前記第2の運転モードにおいて前記車両が走行する走路の中心線を生成する走路生成部と、を備える、
車両制御装置。
an acquisition unit that acquires a camera image of the surroundings of the vehicle;
a driving control unit that controls the steering and acceleration/deceleration of the vehicle based on the camera image and map information without relying on an operation by a driver of the vehicle;
a mode determination unit that determines a driving mode of the vehicle to be one of a plurality of driving modes including a first driving mode and a second driving mode, the second driving mode being a driving mode in which a task imposed on the driver is lighter than that imposed on the driver in the first driving mode, at least some of the plurality of driving modes including the second driving mode being controlled by the driving control unit, and that changes the driving mode of the vehicle to a driving mode in which the task is heavier when the driver does not perform a task related to the determined driving mode;
a deviation determination unit that determines whether or not a deviation exists between the road dividing line shown in the camera image and one of the left and right sides of the road dividing line shown in the map information;
a change amount calculation unit that calculates a change amount of the lane width of the road dividing line shown in the camera image and a change amount of the lane width of the road dividing line shown in the map information when it is determined that a deviation exists between the left and right sides of the road dividing line shown in the camera image and the road dividing line shown in the map information;
a lane generation unit that generates a center line of a lane on which the vehicle will travel in the second driving mode based on a change in lane width of a road-dividing line shown in the camera image and a change in lane width of a road-dividing line shown in the map information,
Vehicle control device.
前記走路生成部は、前記カメラ画像に示される道路区画線の車線幅の変化量が第1閾値未満である場合、前記カメラ画像に示される道路区画線に基づいて、前記中心線を生成する、
請求項1に記載の車両制御装置。
the lane generation unit generates the center line based on the road dividing line shown in the camera image when a change in lane width of the road dividing line shown in the camera image is less than a first threshold value;
The vehicle control device according to claim 1 .
前記走路生成部は、前記カメラ画像に示される道路区画線の車線幅の変化量が第1閾値以上かつ第2閾値未満であり、かつ前記地図情報に示される道路区画線の車線幅の変化量が前記第1閾値未満である場合、前記地図情報に示される道路区画線に基づいて、前記中心線を生成する、
請求項1に記載の車両制御装置。
the lane generation unit generates the center line based on the road dividing line shown in the map information when the amount of change in lane width of the road dividing line shown in the camera image is equal to or greater than a first threshold and less than a second threshold, and the amount of change in lane width of the road dividing line shown in the map information is less than the first threshold.
The vehicle control device according to claim 1 .
前記走路生成部は、前記カメラ画像に示される道路区画線の車線幅の変化量が第1閾値以上かつ第2閾値未満であり、かつ前記地図情報に示される道路区画線の車線幅の変化量が前記第1閾値以上である場合、前記カメラ画像に示される道路区画線に基づいて、前記中心線を生成する、
請求項1に記載の車両制御装置。
the lane generation unit generates the center line based on the road dividing line shown in the camera image when the amount of change in lane width of the road dividing line shown in the camera image is equal to or greater than a first threshold and less than a second threshold, and the amount of change in lane width of the road dividing line shown in the map information is equal to or greater than the first threshold.
The vehicle control device according to claim 1 .
前記走路生成部は、前記カメラ画像に示される道路区画線の車線幅の変化量が第2閾値以上であり、かつ前記地図情報に示される道路区画線の車線幅の変化量が前記第2閾値未満である場合、前記地図情報に示される道路区画線に基づいて、前記中心線を生成する、
請求項1に記載の車両制御装置。
the lane generation unit generates the center line based on the road dividing line shown in the map information when the amount of change in lane width of the road dividing line shown in the camera image is equal to or greater than a second threshold and the amount of change in lane width of the road dividing line shown in the map information is less than the second threshold.
The vehicle control device according to claim 1 .
前記走路生成部は、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量とが第2閾値以上である場合、前記カメラ画像に示される道路区画線に基づいて、前記中心線を生成する、
請求項1に記載の車両制御装置。
the lane generation unit generates the center line based on the road dividing line shown in the camera image when a change in lane width of the road dividing line shown in the map information is equal to or greater than a second threshold value;
The vehicle control device according to claim 1 .
前記モード決定部は、ある制御サイクルにおいて、前記走路生成部が、前記カメラ画像に示される道路区画線に基づいて、前記中心線を生成した後、次の制御サイクルにおいて、前記乖離判定部によって、前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の両側について乖離が存在すると判定された場合、前記第2の運転モードを前記第1の運転モードに変更する、
請求項1から6のいずれか1項に記載の車両制御装置。
the mode determination unit changes the second driving mode to the first driving mode when, in a certain control cycle, the lane generation unit generates the center line based on the road dividing line shown in the camera image, and then, in a next control cycle, the deviation determination unit determines that a deviation exists on both sides of the road dividing line shown in the camera image and the road dividing line shown in the map information;
The vehicle control device according to any one of claims 1 to 6.
前記第2の運転モードは、前記運転者に、前記車両の操舵操作を受け付ける操作子を把持するタスクが課されない運転モードであり、
前記第1の運転モードは、前記運転者に、少なくとも、前記操作子を把持するタスクが課される運転モードである、
請求項1から7のいずれか1項に記載の車両制御装置。
the second driving mode is a driving mode in which the driver is not required to hold an operator that receives a steering operation of the vehicle;
The first driving mode is a driving mode in which the driver is assigned at least a task of gripping the operating element.
The vehicle control device according to any one of claims 1 to 7.
コンピュータが、
車両の周辺状況を撮像したカメラ画像を取得し、
前記カメラ画像と地図情報に基づいて、前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御し、
前記車両の運転モードを、第1の運転モードと、第2の運転モードとを含む複数の運転モードのいずれかに決定し、前記第2の運転モードは前記運転者に課されるタスクが前記第1の運転モードに比して軽度な運転モードであり、少なくとも前記第2の運転モードを含む前記複数の運転モードの一部は前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御することで行われるものであり、前記決定した運転モードに係るタスクが運転者により実行されない場合に、よりタスクが重度な運転モードに前記車両の運転モードを変更し、
前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の左右のうちの片側について乖離が存在するか否かを判定し、
前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の左右のうちの片側について乖離が存在すると判定された場合、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量を算出し、
前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量とに基づいて、前記第2の運転モードにおいて前記車両が走行する走路の中心線を生成する、
車両制御方法。
The computer
Acquire camera images of the vehicle's surroundings,
Controlling the steering and acceleration/deceleration of the vehicle based on the camera image and map information without relying on the operation of the driver of the vehicle;
determining a driving mode of the vehicle to one of a plurality of driving modes including a first driving mode and a second driving mode, the second driving mode being a driving mode in which a task imposed on the driver is lighter than that imposed on the driver in the first driving mode, and at least a part of the plurality of driving modes including the second driving mode being performed by controlling the steering and acceleration/deceleration of the vehicle without relying on an operation by the driver of the vehicle, and changing the driving mode of the vehicle to a driving mode in which the task is heavier when the driver does not perform a task related to the determined driving mode;
determining whether or not there is a deviation between the road dividing line shown in the camera image and one of the left and right sides of the road dividing line shown in the map information;
If it is determined that there is a discrepancy between the road dividing line shown in the camera image and the road dividing line shown in the map information, the amount of change in the lane width of the road dividing line shown in the camera image and the amount of change in the lane width of the road dividing line shown in the map information are calculated;
generating a center line of a road on which the vehicle is traveling in the second driving mode based on a change in lane width of a road-dividing line shown in the camera image and a change in lane width of a road-dividing line shown in the map information;
Vehicle control method.
コンピュータに、
車両の周辺状況を撮像したカメラ画像を取得させ、
前記カメラ画像と地図情報に基づいて、前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御させ、
前記車両の運転モードを、第1の運転モードと、第2の運転モードとを含む複数の運転モードのいずれかに決定し、前記第2の運転モードは前記運転者に課されるタスクが前記第1の運転モードに比して軽度な運転モードであり、少なくとも前記第2の運転モードを含む前記複数の運転モードの一部は前記車両の運転者の操作に依らずに前記車両の操舵および加減速を制御することで行われるものであり、前記決定した運転モードに係るタスクが運転者により実行されない場合に、よりタスクが重度な運転モードに前記車両の運転モードを変更させ、
前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の左右のうちの片側について乖離が存在するか否かを判定させ、
前記カメラ画像に示される道路区画線と、前記地図情報に示される道路区画線の左右のうちの片側について乖離が存在すると判定された場合、前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量を算出させ、
前記カメラ画像に示される道路区画線の車線幅の変化量と、前記地図情報に示される道路区画線の車線幅の変化量とに基づいて、前記第2の運転モードにおいて前記車両が走行する走路の中心線を生成させる、
プログラム。
On the computer,
Acquire a camera image capturing the surroundings of the vehicle,
Controlling the steering and acceleration/deceleration of the vehicle based on the camera image and map information without relying on the operation of the driver of the vehicle;
determining a driving mode of the vehicle to one of a plurality of driving modes including a first driving mode and a second driving mode, the second driving mode being a driving mode in which a task imposed on the driver is lighter than that of the first driving mode, and at least a part of the plurality of driving modes including the second driving mode being performed by controlling the steering and acceleration/deceleration of the vehicle without relying on an operation by the driver of the vehicle, and changing the driving mode of the vehicle to a driving mode in which the task is heavier when the driver does not perform a task related to the determined driving mode;
determining whether or not there is a deviation between the road dividing line shown in the camera image and one of the left and right sides of the road dividing line shown in the map information;
If it is determined that there is a discrepancy between the road dividing line shown in the camera image and the road dividing line shown in the map information, a change in the lane width of the road dividing line shown in the camera image and a change in the lane width of the road dividing line shown in the map information are calculated,
generating a center line of a road on which the vehicle is traveling in the second driving mode based on a change in lane width of a road-dividing line shown in the camera image and a change in lane width of a road-dividing line shown in the map information;
program.
JP2022059646A 2022-03-31 2022-03-31 Vehicle control device, vehicle control method, and program Active JP7752561B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022059646A JP7752561B2 (en) 2022-03-31 2022-03-31 Vehicle control device, vehicle control method, and program
CN202310308444.0A CN116890837A (en) 2022-03-31 2023-03-27 Vehicle control device, vehicle control method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022059646A JP7752561B2 (en) 2022-03-31 2022-03-31 Vehicle control device, vehicle control method, and program

Publications (2)

Publication Number Publication Date
JP2023150506A JP2023150506A (en) 2023-10-16
JP7752561B2 true JP7752561B2 (en) 2025-10-10

Family

ID=88311234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022059646A Active JP7752561B2 (en) 2022-03-31 2022-03-31 Vehicle control device, vehicle control method, and program

Country Status (2)

Country Link
JP (1) JP7752561B2 (en)
CN (1) CN116890837A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018206129A (en) 2017-06-06 2018-12-27 トヨタ自動車株式会社 Lane change support device
JP2019006275A (en) 2017-06-26 2019-01-17 本田技研工業株式会社 Vehicle control system, vehicle control method, and vehicle control program
JP2022014172A (en) 2020-07-06 2022-01-19 本田技研工業株式会社 Processor, processing method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018206129A (en) 2017-06-06 2018-12-27 トヨタ自動車株式会社 Lane change support device
JP2019006275A (en) 2017-06-26 2019-01-17 本田技研工業株式会社 Vehicle control system, vehicle control method, and vehicle control program
JP2022014172A (en) 2020-07-06 2022-01-19 本田技研工業株式会社 Processor, processing method and program

Also Published As

Publication number Publication date
CN116890837A (en) 2023-10-17
JP2023150506A (en) 2023-10-16

Similar Documents

Publication Publication Date Title
JP7449971B2 (en) Vehicle control device, vehicle control method, and program
JP7444962B2 (en) Vehicle control device, vehicle control method, and program
JP7194224B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP7464688B2 (en) Vehicle control device, vehicle control method, and program
JP7376634B2 (en) Vehicle control device, vehicle control method, and program
JP7748907B2 (en) Vehicle control device, vehicle control method, and program
JP7425132B1 (en) Vehicle control device, vehicle control method, and program
JP7308880B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
JP7470157B2 (en) Vehicle control device, vehicle control method, and program
JP7075550B1 (en) Vehicle control devices, vehicle control methods, and programs
JP7752561B2 (en) Vehicle control device, vehicle control method, and program
JP7731312B2 (en) Vehicle control device, vehicle control method, and program
JP7792985B2 (en) Vehicle control device, vehicle control method, and program
JP7781198B2 (en) Vehicle control device, vehicle control method, and program
JP7561800B2 (en) Vehicle control device, vehicle control method, and program
JP7759970B2 (en) Determination device, determination method, and program
JP2025151442A (en) Vehicle control device, vehicle control method, and program
JP2025150258A (en) Vehicle control device, vehicle control method, and program
JP2025153520A (en) Vehicle control device, vehicle control method, and program
JP2025134246A (en) Vehicle control device, vehicle control method, and program
JP2025112874A (en) Determination device, determination method, and program
JP2025150246A (en) Vehicle control device, vehicle control method, and program
CN114684189A (en) Vehicle control device, vehicle control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20241127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250930

R150 Certificate of patent or registration of utility model

Ref document number: 7752561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150