WO2018030082A1 - 自動運転装置 - Google Patents
自動運転装置 Download PDFInfo
- Publication number
- WO2018030082A1 WO2018030082A1 PCT/JP2017/026028 JP2017026028W WO2018030082A1 WO 2018030082 A1 WO2018030082 A1 WO 2018030082A1 JP 2017026028 W JP2017026028 W JP 2017026028W WO 2018030082 A1 WO2018030082 A1 WO 2018030082A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- target control
- target
- program
- automatic driving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/143—Speed control
- B60W30/146—Speed limiting
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
- B60W60/0016—Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18154—Approaching an intersection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0098—Details of control systems ensuring comfort, safety or stability not otherwise provided for
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/54—Audio sensitive means, e.g. ultrasound
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/14—Yaw
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/18—Steering angle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/30—Driving style
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4026—Cycles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/10—Historical data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/55—External transmission of data to or from the vehicle using telemetry
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/65—Data transmitted between vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/10—Longitudinal speed
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Definitions
- the present invention relates to an automatic driving apparatus that automatically controls a vehicle to a destination by automatic steering or automatic speed control.
- Information necessary to predict travel control from the vehicle position information and vehicle information is stored in the learning database as history information, based on the past travel pattern predicted from the road information and history information ahead of the vehicle position, A technology for predicting future travel control of the vehicle and creating control command values such as a transmission, ON / OFF of a regenerative brake, and a travel mode based on the travel control predicted by the learning unit and controlling the vehicle. Yes (see Patent Document 1).
- Patent Document 1 since the vehicle is controlled based on the travel control predicted by the learning unit, the vehicle is controlled as it is even when the prediction is lost.
- the vehicle control applied in Patent Document 1 is a transmission, ON / OFF of a regenerative brake, a travel mode, and the like, and does not impair safety even when the learning unit is not predicted. In this way, machine learning and artificial intelligence may cause predictions to be missed or make unexpected judgments depending on the learning method and experience (such as the amount of data stored in the database). Etc. had a problem that it was difficult to apply.
- the present invention has been made in view of the above circumstances, and an object of the present invention is to provide an automatic driving device that incorporates intelligence such as machine learning and artificial intelligence for realizing safe and natural automatic driving.
- the present invention is an automatic driving apparatus including a control program that inputs outside world information and vehicle information and outputs a target control value of the vehicle, and the control program changes dynamically. It has the 1st program which generates the 1st target control amount based on an algorithm, and the 2nd program which generates the 2nd target control amount based on a regulation algorithm, It is characterized by the above-mentioned.
- automatic control in a complex environment and vehicle control reflecting personal preferences can be realized by dynamically changing algorithms such as machine learning and artificial intelligence. It is possible to ensure the quality of the automatic driving device by having the vehicle control whose operation is guaranteed by the prescribed algorithm in which the upper and lower limit values are determined. Specifically, safety can be ensured by a prescribed algorithm that guarantees the latter operation.
- 1 is a schematic configuration diagram of an automatic driving device according to a first embodiment of the present invention.
- 1 is a schematic configuration diagram of an automatic driving device according to a first embodiment of the present invention.
- It is a schematic block diagram which shows the automatic driving device by the 1st Embodiment of this invention, and its peripheral devices.
- It is a flowchart with which operation
- FIG. 1 shows the basic structure of an automatic driving apparatus in which the present invention is implemented.
- An automatic driving apparatus 100 in FIG. 1 is a computer that controls the host vehicle, and implements an automatic driving function of the host vehicle by executing a control program 101.
- the control program 101 includes a first program 102 having a dynamically changing algorithm and a second program 103 having a prescribed algorithm.
- the first program 102 is composed of dynamically changing algorithms such as a learning function and artificial intelligence, and is a program that is likely to output different values over time for the same input.
- the dynamically changing algorithm is a processing method for generating a target control amount based on artificial intelligence or a learning function.
- the learning function is a function that memorizes input information, executed operations, and the like, and optimizes to perform more appropriate processing based on the memorized information. For example, the driver's acceleration / deceleration and lateral acceleration , It is possible to reflect preferences such as the distance between vehicles during automatic driving. Also included are those that use machine learning or artificial intelligence to understand input information and output appropriately.
- the second program 103 is a program composed of a predetermined algorithm (hereinafter referred to as rule base) based on predetermined rules and rules, and outputs the same value or its range for the same input.
- Rule base a predetermined algorithm
- the prescribed algorithm is a processing technique for generating a target control amount based at least on traffic rules and driving morals. However, this does not apply if rules or rules are changed. When this is applied to automobiles, the rules and regulations correspond to traffic rules and driving morals, but it goes without saying that these differ depending on the country or region where they are applied.
- (First embodiment) 2 and 3 are schematic configuration diagrams of the automatic driving apparatus according to the first embodiment of the present invention.
- the trajectory / speed planning unit (learning function) 102a in FIG. 2 is a program for planning the target trajectory and target speed of the host vehicle using the learning function, and includes external information (environmental information, road information, etc. around the host vehicle). ) And vehicle information (vehicle speed, rudder angle, yaw rate, etc.) are input, and a target control value (a set of target trajectory and target speed, or a target control amount for each actuator) is output.
- the track / speed planning unit (rule base) 103a in FIG. 2 is a program for planning the target track and target speed of the host vehicle based on traffic rules and driving morals.
- a target control value (a set of a target trajectory and a target speed, or a target control amount for each actuator) is output with road information and the like (vehicle speed, rudder angle, yaw rate, etc.) as inputs.
- the trajectory / speed planning unit (artificial intelligence) 102b in FIG. 3 is a program for planning the target trajectory and target speed of the subject vehicle using artificial intelligence, and includes external information (environmental information, road information, etc. around the subject vehicle). ) And vehicle information (vehicle speed, rudder angle, yaw rate, etc.) are input, and a target control value (a set of target trajectory and target speed, or a target control amount for each actuator) is output.
- the trajectory / speed planning unit (rule base) 103b in FIG. 3 is the same as the trajectory / speed planning unit (rule base) 103a in FIG.
- FIG. 4 is a schematic configuration diagram showing the automatic driving device according to the first embodiment of the present invention and its peripheral devices.
- the automatic driving device 400 is synonymous with the automatic driving devices 100, 100a, and 100b described with reference to FIGS. 1 to 3, and includes an external environment recognition device 401, an automatic driving button 402, a steering device 403, a driving device 404, and a braking device 405.
- the sound generator 406 and the display device 407 are connected.
- the automatic driving device 400 is connected to a CAN (not shown) which is a communication network of the own vehicle, and vehicle information such as a vehicle speed, a steering angle, and a yaw rate of the own vehicle is input.
- a CAN not shown
- the external environment recognition device 401 acquires information related to the surrounding environment of the host vehicle, and includes, for example, an in-vehicle stereo camera that captures the front of the host vehicle, and the front, rear, right side, and left side of the host vehicle. There are four in-vehicle cameras that capture the environment. These in-vehicle cameras use the obtained image data to detect the shape and position of objects such as stationary solid objects around the host vehicle, moving objects, road surface paint such as lane markings, signs, etc. It has a function of determining whether or not the vehicle is a road surface on which the vehicle can travel by detecting unevenness.
- the stationary three-dimensional object is, for example, a parked vehicle, a wall, a pole, a pylon, a curb, or a car stop.
- the moving body is, for example, a pedestrian, a bicycle, a motorcycle, or a vehicle.
- the stationary solid object and the moving object are collectively referred to as an obstacle.
- the shape and position of the object are detected using a pattern matching method and other known techniques.
- the position of the object is expressed, for example, using a coordinate system having an origin at the position of the in-vehicle camera that captures the front of the host vehicle. Then, information such as the type, distance, and direction of the obtained object is output to the automatic driving device 400 using a dedicated line or CAN.
- an image obtained by the in-vehicle camera may be output to the automatic driving device 400 using a dedicated line or the like, and the image data may be processed in the automatic driving device 400.
- radar that measures the distance to the object using millimeter waves or lasers
- sonar that measures the distance to the object using ultrasonic waves, and the like can be used.
- information on the direction and the like are output to the automatic driving device 400 using a dedicated line or CAN.
- a communication device for performing communication with the outside of the host vehicle may be included in the external environment recognition device 401, and it communicates with vehicles around the host vehicle to exchange position and speed information, and roadside communication. Information that cannot be detected from a sensor mounted on the host vehicle by communicating with the machine (such as information on an obstacle in the blind spot of the host vehicle) may be exchanged.
- the steering device 403 includes an electric power steering, a hydraulic power steering, and the like that can control the steering angle by an electric or hydraulic actuator or the like by an external drive command.
- the steering device 403 can control the track of the host vehicle to the target track by driving the actuator.
- the drive unit 404 is an engine system that can control engine torque with an electric throttle or the like according to an external drive command, or an electric power train that can control drive force with an external drive command using a motor or the like. It consists of a system.
- the braking device 405 includes an electric brake, a hydraulic brake, or the like that can control a braking force with an electric or hydraulic actuator or the like according to an external braking command.
- the braking device 405 can control the speed of the host vehicle to the target speed by driving the actuator.
- the sound generator 406 includes a speaker or the like, and is used to output a warning or voice guidance to the driver.
- the display device 407 includes a display such as a navigation device, a meter panel, a warning light, and the like. In addition to the operation screen of the automatic driving device 400, the display device 407 displays a screen that can visually represent the traveling state of the host vehicle.
- the automatic operation button 402 is an operation member provided at a position where the driver can operate, and outputs a signal for switching the operation of the automatic driving device 400 to the automatic driving device 400 based on the operation of the driver.
- the automatic driving button 402 can be installed as a switch in a place where the driver around the steering wheel can easily operate, and when the display device 407 is a touch panel display, the button is displayed on the display device 407 and operated by the driver. You may be able to do it.
- 5 to 8 are flowcharts showing an example of the processing procedure of the automatic driving device 400.
- step S501 of FIG. 5 the external world information and the vehicle information are acquired, and the process proceeds to step S502.
- the external information is information input by the external environment recognition device 401
- the vehicle information is information such as the vehicle speed, steering angle, and yaw rate of the host vehicle.
- the road information is map data around the current vehicle, and this map data includes shape data close to the actual road shape expressed by polygons, polylines, etc., and traffic regulation information (speed limit, vehicles that can pass through).
- Type traffic regulation information
- lane classification main line, overtaking lane, uphill lane, straight lane, left turn lane, right turn lane, etc.
- presence / absence of traffic lights, signs, etc. position information if present).
- process S503 a process of grasping the traveling environment around the host vehicle is performed using the outside world information acquired in process S501 and the road information acquired in process S502, and the process proceeds to process S504.
- external information such as obstacles is arranged on the map data, and the lane position where the host vehicle can travel, the space where the vehicle can turn, and the like are detected.
- process S504 it is determined whether or not automatic operation is being performed. If automatic operation is being performed, the automatic operation process of S505 is executed, a series of processes are terminated, and the process returns to process S501. On the other hand, if the automatic operation is not being performed in step S504, the learning process in S506 is executed to end the series of processes, and the process returns to step S501.
- FIG. 6 is a flowchart illustrating an example of the processing procedure of the learning process in step S506 of FIG.
- step S601 of FIG. 6 the surrounding environment recognized in step S503 and the vehicle information acquired in step S501 are stored in the internal memory of the automatic driving apparatus 400, and the process proceeds to step S602.
- step S602 it is determined whether or not the host vehicle has traveled the learning target scene based on the information stored in step S601. If it is determined that the host vehicle has traveled the learning target scene, the process proceeds to step S603. When it is determined that the vehicle is not traveling in the learning target scene, the series of processes is terminated.
- the learning target scene is, for example, as follows.
- working according to a rule base refers to the driving
- process S604 the surrounding environment and the traveling pattern of the host vehicle are learned in association with each other, and the series of processes ends.
- the content to be specifically learned is as follows, for example.
- FIG. 7 is a flowchart showing an example of the processing procedure of the automatic driving process in the process S505 of FIG.
- a target control amount is generated by the first program, and the process proceeds to process S702.
- the target trajectory and target speed of the host vehicle are generated based on the trajectory / speed plan updated by the learning process described with reference to FIG.
- the target control amount is generated by the second program, and the process proceeds to process S703.
- the target track and the target speed of the host vehicle are generated by a track / speed plan based on the rule base.
- a target control value which is a final target control quantity, is generated from the first target control quantity generated in process S701 and the second target control quantity generated in process S702, and the process proceeds to process S704.
- control parameters for running the host vehicle are calculated according to the target trajectory and target speed of the host vehicle, which are the target control values generated in process S703, and the process proceeds to process S705.
- the control parameters are, for example, target steering torque, target engine torque, and target brake pressure.
- each of the control parameters calculated in process S704 is output to the steering device 403, the drive device 404, and the brake device 405, and the series of processes ends.
- the control parameter output to the steering device 403 includes a target steering torque for realizing the target steering angle. However, depending on the configuration of the steering device 403, the target steering angle can be directly output.
- the control parameters output to the driving device 404 and the braking device 405 include a target engine torque and a target brake pressure for realizing the target speed. Depending on the configuration of the driving device 404 and the braking device 405, the target parameter may be directly set. It is also possible to output the speed.
- FIG. 8 is a flowchart showing an example of the processing procedure of the target control value generation process in the process S703 of FIG.
- the first target control amount is compared with the second target control quantity generated in process S701 and the second target control quantity generated in process S702, and the first target control quantity is set to the second target control quantity. Whether or not the first target control amount deviates from the range of the second target control amount, the process proceeds to step S802, and the second target control amount is determined in step S802. The target control amount is set to the target control value, and the series of processes is terminated. On the other hand, if it is determined in step S801 that the first target control amount does not deviate from the range of the second target control amount, the process proceeds to step S803, and the first target control amount is set to the target control value in step S803. To complete the series of processing.
- FIG. 9 is a scene in which the learning process of step S604 in FIG. 6 is executed, and will be described with reference to two scenes: (a) passing through an intersection with a temporary stop, and (b) changing lanes.
- FIG. 9A is a situation explanatory diagram assuming a scene in which the host vehicle 900 that is manually driven by the driver travels straight through an intersection where there is a temporary stop while traveling on a one-lane road. Shows the speed change.
- the vehicle When the host vehicle 900 reaches the point A while traveling at the speed V1, the vehicle starts to decelerate toward the stop line 902 where the stop sign 901 exists, and temporarily stops at the point B before the point S on the stop line 902. . Thereafter, the driver of the own vehicle 900 confirms the safety in the intersection, and if it is determined to be safe, the driver re-starts and passes through the point C. First, this series of running scenes is determined to be a learning target scene in the determination in step S602 of FIG. Next, when it is determined that the series of travels is travel according to the rule base in the determination of the process S603 in FIG. 6, the learning process in the process S604 in FIG. 6 is executed.
- the contents learned here are the speed pattern 903 (more specifically, average deceleration between points AB and average acceleration between points BC), stop position (distance between BSs), start timing ( Stop time at point B).
- FIG. 9B is a situation explanatory diagram assuming a scene in which the driver's own vehicle 910 manually driven changes the lane between the vehicle 911 and the vehicle 912 in the right lane while traveling on the left lane of the two-lane road on one side. It is.
- the driver of the host vehicle 910 determines that there is a sufficient inter-vehicle distance between the vehicle 911 at the point A1 and the vehicle 912 at the point C1, and turns on the blinker and shows the dotted line 913. Change lanes on the track. Then, when the host vehicle 910 reaches the point B2, the lane change is completed and the turn signal is turned off. It is assumed that the vehicle 911 when the lane change is completed is located at the point A2, and the vehicle 912 is located at the point C2, respectively, and maintains a sufficient inter-vehicle distance. First, this series of running scenes is determined to be a learning target scene in the determination in step S602 of FIG. Next, when it is determined that the series of travels is travel according to the rule base in the determination of the process S603 in FIG. 6, the learning process in the process S604 in FIG. 6 is executed.
- the contents learned here are the travel locus 913 of the host vehicle 910, the lateral acceleration, the inter-vehicle distance from the surrounding vehicle (distance between A1B1 at the start of lane change, distance between B1C1), and the like.
- FIG. 10 is a scene in which the learning process of step S604 in FIG. 6 is not executed. As in FIG. 9, two scenes will be described: (a) passing through an intersection with a pause, and (b) changing lanes. .
- FIG. 10 (a) is a situation explanatory diagram assuming a scene in which the host vehicle 1000 that is manually driven by the driver travels straight through an intersection where there is a temporary stop while traveling on a one-lane road. Shows the speed change.
- this series of running scenes is determined to be a learning target scene in the determination in step S602 of FIG.
- the vehicle did not follow traffic rules such as not stopping at a stop line with a stop sign (because the traffic rules were violated), so the determination in step S603 in FIG. 6 followed the rule base. It is not determined that the vehicle is traveling, and the learning process in step S604 in FIG. 6 is not executed. Therefore, the running behavior at this time is not learned.
- FIG. 10B is a situation explanatory diagram assuming a scene in which the driver's own vehicle 1010 manually driven changes the lane between the vehicle 1011 in the right lane and the vehicle 1012 while traveling on the left lane of the two-lane road on one side. It is.
- this series of running scenes is determined to be a learning target scene in the determination in step S602 of FIG.
- FIG. 11 is a situation explanatory diagram assuming a scene in which the host vehicle 1100 controlled by automatic driving travels straight on an intersection with a traffic light while traveling on a one-lane road, and the upper graph shows that the host vehicle 1100 decelerates.
- the lower speed graph shows the target speed of the host vehicle 1100.
- the speed pattern of the own vehicle 1100 is calculated, and the target speed is calculated based on the calculated speed pattern.
- the deceleration pattern based on the first program is calculated by the dotted line 1110
- the host vehicle 1100 cannot stop before the stop line 1102, so the target speed maintains the speed as indicated by the dotted line 1112 and passes through the intersection.
- the passing value is output.
- the deceleration pattern based on the second program is calculated by the broken line 1111, it is determined that the host vehicle 1100 can stop before the stop line 1102, and the target speed is output as indicated by the broken line 1113.
- the target speed based on the second program is an output that complies with the traffic rules (attempts to stop when the traffic light turns yellow) and does not violate the driving morals (stops without stopping suddenly). Since this output outputs a target speed that can be stopped at the stop line, it is determined that the target speed based on the first program deviates from the target speed based on the second program, and the target speed based on the second program is determined. Speed is adopted.
- FIG. 12 is a situation explanatory diagram assuming a scene where the host vehicle 1200 controlled by automatic driving joins the main line where traffic is congested, and is based on the trajectory / speed plan based on the first program and the second program. The output of both trajectory and speed planning is shown.
- FIG. 12A shows the output of the trajectory / speed plan based on the first program.
- FIG. 12B shows the output of the trajectory / speed plan based on the second program.
- the plan gives output that is against morality (joining from the back)
- the trajectory / speed plan based on the second program is not necessarily adopted.
- the target control value based on the first program and the target control value based on the second program are compared, and the target control value based on the first program deviates from the target control value based on the second program.
- the target control value based on the second program is adopted, so that an output conforming to the rule base is finally selected.
- FIG. 13 is a flowchart illustrating an example of a processing procedure of the target control value generation process in the process S703 of FIG.
- process S1301 of FIG. 13 it is determined which of the first target control amount generated in the process S701 and the second target control amount generated in the process S702 is selected using the surrounding environment information. It progresses to process S1302.
- process S1302 it is determined whether or not the second target control amount is adopted in process S1301, and if it is determined that the second target control amount is adopted, the process proceeds to process S1303, and the second target control amount is processed in process S1303. The amount is set to the target control value, and the series of processes is terminated. On the other hand, if it is not determined in step S1302 that the second target control amount has been adopted, the process proceeds to step S1304. In step S1304, the first target control amount is set as the target control value, and the series of processes ends.
- FIG. 14 is a diagram illustrating an example of which one of the first target control amount and the second target control amount is selected in FIG.
- FIG. 14A shows an example in which the first target control amount is adopted.
- the host vehicle 1410 changes the lane to the right, there is no obstacle around the host vehicle, so there is no problem in driving according to the driver's preference as the first target control amount.
- FIG. 14B shows an example in which the second target control amount is adopted.
- the host vehicle 1410 changes lanes to the right, there are obstacles that hinder the driving of the host vehicle in the surrounding area, so there is no problem in driving based on the traffic rules and driving morals that are the second target control amount.
- the third embodiment of the present invention replaces the automatic driving process shown in FIG. 7 with the process shown in FIG. 15 in the first embodiment of the present invention.
- FIG. 15 is a flowchart showing an example of the processing procedure of the automatic operation processing in step S505 of FIG.
- the target control amount is generated by the first program, and the process proceeds to process S1502.
- the target trajectory and target speed of the host vehicle are generated based on the trajectory / speed plan updated by the learning process described with reference to FIG.
- process S1502 it is determined whether or not the first target control amount is within a specified range. If it is determined that the first target control amount is within the specified range, the process proceeds to process S1503, and in process S1503. The first target control amount is set to the target control value, and the process proceeds to step S1505. On the other hand, if it is determined in step S1502 that the first target control amount is not within the specified range, the process proceeds to step S1504. Then, the process proceeds to step S1505.
- processing S1505 and processing S1506 are the same processing as processing S704 and processing S705 described in FIG. 7, description thereof will be omitted.
- FIG. 16 is a situation explanatory view assuming a scene in which the own vehicle 1600 controlled by automatic driving travels straight on an intersection with a traffic signal while traveling on a one-lane road, as in FIG. Indicates a speed pattern when the host vehicle 1600 decelerates, and the lower graph indicates a target speed of the host vehicle 1600.
- the speed pattern of the own vehicle 1600 is calculated, and the target speed is calculated based on the calculated speed pattern.
- the deceleration pattern based on the first program is calculated by the dotted line 1610
- the host vehicle 1600 cannot stop before the stop line 1602, so the target speed maintains the speed as indicated by the dotted line 1612 and the intersection is reached.
- the passing value is output.
- the range of the region 1611 is output. If this is selected, it is determined that the vehicle can stop before the stop line 1602. Then, when the target speed is corrected within the range of the region 1611, the corrected target speed becomes as indicated by a broken line 1613, and this target speed is adopted.
- the fourth embodiment of the present invention is the configuration shown in FIGS. 2 and 3 in the first embodiment of the present invention, and has a configuration in which the function corresponding to the first program is changed.
- 17 and 18 are schematic configuration diagrams of an automatic driving apparatus according to the fourth embodiment of the present invention.
- the driving task determination unit (learning function) 102c in FIG. 17 is a first program for determining an action (driving task) at the behavior level of the own vehicle using the learning function.
- the driving task is output with environmental information, road information, etc.) and vehicle information (vehicle speed, rudder angle, yaw rate, etc.) as inputs.
- the driving task determination unit (artificial intelligence) 102d in FIG. 18 is a first program for determining behavior (driving task) at the behavior level of the own vehicle using artificial intelligence.
- the driving task is output with environmental information, road information, etc.) and vehicle information (vehicle speed, rudder angle, yaw rate, etc.) as inputs.
- the driving task represents the driving state of the host vehicle, such as preceding vehicle following, lane following, lane change, straight ahead / right turn / left turn, parking, etc.
- it is a control state that serves as a guideline for action.
- FIG. 19 is a flowchart showing an example of the processing procedure of the automatic operation processing in step S505 of FIG.
- process S1901 of FIG. 19 an operation task is determined based on the first program (control state is determined), and the process proceeds to process S1902.
- process S1902 a target control value is generated based on the second program, and the process proceeds to process S1903.
- Processing S1903 and processing S1904 are the same processing as processing S704 and processing S705 described in FIG.
- the behavior (driving task) at the behavior level of the host vehicle is determined by the first program, and the trajectory / speed plan of the target control value is generated by the second program based on the rule base. It is possible to run according to the rule base.
- the present invention is not limited to the above-described embodiments, and various designs can be made without departing from the spirit of the present invention described in the claims. It can be changed.
- the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to one having all the configurations described.
- a part of the configuration of an embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of an embodiment.
- 100 automatic driving device 101, 101a control program, 102 first program, 102a trajectory / speed planning section (learning function), 102b trajectory / speed planning section (artificial intelligence), 102c driving task determination section (learning function), 102d Driving task determination unit (artificial intelligence), 103 2nd program, 103a, 103b, 103c, 103d Orbit / speed planning unit (rule base)
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
Abstract
安全かつ自然な自動運転を実現するためには、知能化(学習機能や人工知能など)を取り込んだ制御プラットフォームが必要であるが、知能化の出力では、車の動きとしての動作の保障が困難である。本発明の自動運転装置は、外界情報および車両情報を入力して車両の目標制御値を出力する制御プログラムを備えている。そして、制御プログラムは、動的に変化するアルゴリズム(学習機能や人工知能に基づいた動作を出力)に基づいて第1の目標制御量を生成する第1のプログラムと、規定のアルゴリズム(交通規則や運転モラルに従った動作を出力)に基づいて第2の目標制御量を生成する第2のプログラムと、を有する。
Description
本発明は、自動操舵や自動速度制御によって目的地まで自動的に車両を制御する自動運転装置に関する。
車載カメラやレーダなどの外界認識センサを用いて自車両周辺の物体(車両、歩行者、構造物など)や道路標示・標識(区画線などの路面ペイント、止まれなどの標識など)を認識するための技術が種々提案されている。さらに、これらの技術を用いて自車両を制御し、乗員の安心感や快適性を向上させる技術も種々提案されており、自車両のステアリングと速度を自動で制御して目的地まで自動的に走行する自動運転技術が提案され始めてきた。このような自動運転技術を実現するためには、複雑な環境下においても状況を正確に判断して車両を制御しなくてはならず、この状況判断に人工知能や機械学習を適用して経験のない状況でも対応できるようにするなどの必要がある。
自車位置情報と車両情報から走行制御を予測するために必要な情報を履歴情報として学習データベースに記憶し、自車位置前方の道路情報と履歴情報から予測される過去の走行パターンなどに基づき、自車の今後の走行制御を予測するとともに、学習部で予測された走行制御に基づき、変速機、回生ブレーキのON/OFF、走行モード等の制御指令値を作成し、車両を制御する技術がある(特許文献1参照)。
しかしながら、特許文献1に開示されている技術では、学習部で予測された走行制御に基づいて車両を制御するため、予測が外れた場合にもそのまま車両が制御されてしまう。
ただし、特許文献1で適用している車両制御は、変速機、回生ブレーキのON/OFF、走行モード等であり、学習部での予測が外れた場合でも安全性を損なうものではない。このように、機械学習や人工知能は、学習方法や経験値(データベースの蓄積量等)によっては予測を外したり想定外の判断を下したりする可能性があるため、安全性にかかわる車両制御等には適用が難しいといった課題があった。
ただし、特許文献1で適用している車両制御は、変速機、回生ブレーキのON/OFF、走行モード等であり、学習部での予測が外れた場合でも安全性を損なうものではない。このように、機械学習や人工知能は、学習方法や経験値(データベースの蓄積量等)によっては予測を外したり想定外の判断を下したりする可能性があるため、安全性にかかわる車両制御等には適用が難しいといった課題があった。
本発明は、上記事情を鑑みてなされたもので、安全かつ自然な自動運転を実現するための機械学習や人工知能等の知能化を取り込んだ自動運転装置を提供することを目的とする。
上記課題を解決するため、本発明は、外界情報および車両情報を入力して車両の目標制御値を出力する制御プログラムを備えた自動運転装置であって、前記制御プログラムは、動的に変化するアルゴリズムに基づいて第1の目標制御量を生成する第1のプログラムと、規定のアルゴリズムに基づいて第2の目標制御量を生成する第2のプログラムと、を有することを特徴とする。
本発明によれば、機械学習や人工知能といった動的に変化するアルゴリズムによって複雑な環境下での自動運転や個人の嗜好を反映した車両制御が実現できるとともに、交通規則に従ったり予め制御量の上下限値が決まっていたりする規定のアルゴリズムによって動作が保障された車両制御を併せ持つことで、自動運転装置としての品質の確保が可能となる。具体的には、後者の動作が保障された規定のアルゴリズムによって安全の確保が可能となる。
本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の、課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
以下、実施例を図面を用いて説明する。
図1は、本発明が実施された自動運転装置の基本構造を示す。図1の自動運転装置100は、自車両を制御するコンピュータであって、制御プログラム101を実行することにより、自車両の自動運転機能を実現する。制御プログラム101は、動的に変化するアルゴリズムを有する第1のプログラム102と、規定のアルゴリズムを有する第2のプログラム103を備えている。
図1は、本発明が実施された自動運転装置の基本構造を示す。図1の自動運転装置100は、自車両を制御するコンピュータであって、制御プログラム101を実行することにより、自車両の自動運転機能を実現する。制御プログラム101は、動的に変化するアルゴリズムを有する第1のプログラム102と、規定のアルゴリズムを有する第2のプログラム103を備えている。
第1のプログラム102は、学習機能や人工知能などの動的に変化するアルゴリズムから構成され、同じ入力に対して時間の経過とともに異なる値が出力される可能性の高いプログラムである。動的に変化するアルゴリズムは、人工知能や学習機能に基づいて目標制御量を生成する処理手法である。ここで、学習機能とは、入力情報や実行された操作などを記憶し、その記憶を踏まえてより適切な処理を行うように最適化する機能であり、例えば、運転者の加減速度や横加速度,車間距離などの好みを自動運転時に反映させることが可能である。また、機械学習や人工知能を利用して入力情報を理解して適切な出力を行うものも含む。
第2のプログラム103は、予め定められているルールや規則に基づいた規定のアルゴリズム(以下、ルールベース)から構成され、同じ入力に対しては同じ値もしくはその範囲が出力されるプログラムである。規定のアルゴリズムは、少なくとも交通規則や運転モラルに基づいて目標制御量を生成する処理手法である。ただし、ルールや規則が変更となった場合はその限りではない。これを自動車に適用する場合、ルールや規則は交通規則や運転モラルに該当するが、これらは適用する国や地域によって異なることは言うまでもない。
以上のように、プログラムの構成として動的に変化するアルゴリズムを有するプログラムと規定のアルゴリズムを有するプログラムとに分けることで、メンテナンスや更新などのプログラムの品質確認を実施する上での工数削減効果が見込まれる。
(第1の実施の形態)
図2および図3は、本発明の第1の実施の形態による自動運転装置の概略構成図である。
図2および図3は、本発明の第1の実施の形態による自動運転装置の概略構成図である。
図2および図3は、図1の基本構造において、第1のプログラムと第2のプログラムをそれぞれ具体的な機能に置き換えた構成としている。
図2の軌道・速度計画部(学習機能)102aは、学習機能を用いて自車両の目標軌道および目標速度を計画するためのプログラムであり、外界情報(自車両周辺の環境情報や道路情報など)および車両情報(車速や舵角,ヨーレートなど)を入力として目標制御値(目標軌道と目標速度のセット,もしくは各アクチュエータに対しての目標制御量)を出力する。
図2の軌道・速度計画部(ルールベース)103aは、交通規則や運転モラルに基づいて自車両の目標軌道および目標速度を計画するためのプログラムであり、外界情報(自車両周辺の環境情報や道路情報など)および車両情報(車速や舵角,ヨーレートなど)を入力として目標制御値(目標軌道と目標速度のセット,もしくは各アクチュエータに対しての目標制御量)を出力する。
図3の軌道・速度計画部(人工知能)102bは、人工知能を用いて自車両の目標軌道および目標速度を計画するためのプログラムであり、外界情報(自車両周辺の環境情報や道路情報など)および車両情報(車速や舵角,ヨーレートなど)を入力として目標制御値(目標軌道と目標速度のセット,もしくは各アクチュエータに対しての目標制御量)を出力する。
図3の軌道・速度計画部(ルールベース)103bは、図2の軌道・速度計画部(ルールベース)103aと同じものである。
図4は、本発明の第1の実施の形態による自動運転装置と、その周辺の装置類を示す概略構成図である。自動運転装置400は、図1~図3で説明した自動運転装置100,100a,100bと同義であり、外環境認識装置401,自動運転ボタン402,操舵装置403,駆動装置404,制動装置405,音発生装置406,表示装置407とに接続されている。また、自動運転装置400は、自車両の通信ネットワークであるCAN(不図示)などに接続されており、自車両の車速、舵角、ヨーレートなどの車両情報が入力される。
外環境認識装置401は、自車両の周辺環境に関する情報を取得するものであって、たとえば、自車両の前方を撮影する車載ステレオカメラや、自車両の前方,後方,右側方,左側方の周辺環境をそれぞれ撮影する4個の車載カメラである。これらの車載カメラは、得られた画像データを用いて、自車両周辺の静止立体物、移動体、車線区分線等の路面ペイント、標識等の物体の形状や位置を検出し、さらに、路面の凹凸等を検出して自車両が走行可能な路面であるか否かの判定機能を持つ。静止立体物とは、たとえば、駐車車両、壁、ポール、パイロン、縁石、車止めなどである。また、移動体とは、たとえば、歩行者、自転車、バイク、車両などである。以降、静止立体物と移動体の二つをまとめて障害物と呼ぶ。
物体の形状や位置は、パターンマッチング手法やその他の公知技術を用いて検出される。物体の位置は、たとえば、自車両の前方を撮影する車載カメラの位置に原点を有する座標系を用いて表現される。そして、得られた物体の種別や距離,その方角等の情報を専用線やCANなどを用いて自動運転装置400に出力する。
なお、車載カメラにより得られた画像を専用線などを用いて自動運転装置400に出力し、自動運転装置400内で画像データを処理する方式にしてもよい。また、車載カメラ以外にもミリ波やレーザーを用いて物体との距離を計測するレーダ、超音波を用いて物体との距離を計測するソナー等を用いることができ、得られた物体との距離とその方角等の情報を専用線やCANなどを用いて自動運転装置400に出力する。さらに、自車両の外部との通信を行うための通信装置を外環境認識装置401に含めてもよく、自車両周辺の車両と通信して位置や速度の情報などをやり取りしたり、路側の通信機と通信して自車両に搭載されたセンサからは検出できない情報(自車両の死角の障害物の情報など)をやり取りしたりしてもよい。
操舵装置403は、外部からの駆動指令により電動や油圧のアクチュエータなどで舵角を制御することの可能な電動パワーステアリング、油圧パワーステアリング等で構成される。操舵装置403は、アクチュエータの駆動により、自車両の軌道を目標軌道に制御することができる。
駆動装置404は、外部からの駆動指令により電動のスロットルなどでエンジントルクを制御することの可能なエンジンシステムや、モータなどで外部からの駆動指令により駆動力を制御することが可能な電動パワートレインシステム等で構成される。
制動装置405は、外部からの制動指令により電動や油圧のアクチュエータなどで制動力を制御することの可能な電動ブレーキや油圧ブレーキ等で構成される。制動装置405は、アクチュエータの駆動により、自車両の速度を目標速度に制御することができる。
音発生装置406は、スピーカー等で構成され、運転者に対する警報や音声ガイダンス等の出力に用いられる。
表示装置407は、ナビゲーション装置等のディスプレイ,メーターパネル,警告灯等で構成される。表示装置407には、自動運転装置400の操作画面のほか、自車両の走行状態が視覚的に表現できる画面表示などを行う。
自動運転ボタン402は、運転者が操作可能な位置に設けられた操作部材であって、運転者の操作に基づいて自動運転装置400の動作を切り替える信号を自動運転装置400へ出力する。なお、自動運転ボタン402は、ステアリング周辺の運転者が操作しやすい場所にスイッチとして設置できるほか、表示装置407がタッチパネル式のディスプレイの場合には表示装置407にボタンを表示して運転者が操作できるようにしてもよい。
次に、フローチャートを用いて自動運転装置400の処理手順を説明する。
図5から図8は、自動運転装置400の処理手順の一例を示すフローチャートである。
図5の処理S501では、外界情報と車両情報を取得し、処理S502に進む。ここで、外界情報は外環境認識装置401により入力される情報であり、車両情報は自車両の車速,舵角,ヨーレートなどの情報である。
処理S502では、道路情報を取得し、処理S503に進む。ここで、道路情報は現在の自車両周辺の地図データであり、この地図データは、ポリゴンやポリライン等で表現される実際の道路形状に近い形状データと、通行規制情報(制限速度,通行可能車両種別等),車線区分(本線,追越車線,登坂車線,直進車線,左折車線,右折車線等),信号機や標識等の有無(有の場合はその位置情報)等のデータである。
処理S503では、処理S501で取得した外界情報と処理S502で取得した道路情報を用いて自車両周辺の走行環境を把握する処理を実施し、処理S504に進む。具体的には、障害物などの外界情報を地図データ上に配置し、自車両が走行可能な車線位置や交差点の旋回可能スペースなどを検出する。
処理S504では、自動運転中か否かを判断し、自動運転中の場合はS505の自動運転処理を実行して一連の処理を終了し、処理S501に戻る。一方、処理S504で自動運転中でない場合はS506の学習処理を実行して一連の処理を終了し、処理S501に戻る。
図6は、図5の処理S506の学習処理の処理手順の一例を示すフローチャートである。
図6の処理S601では、処理S503で認識した周辺環境と処理S501で取得した車両情報を自動運転装置400の内部メモリなどに記憶し、処理S602に進む。
処理S602では、処理S601で記憶した情報に基づいて自車両が学習対象シーンを走行したか否かを判定し、自車両が学習対象シーンを走行したと判定した場合は処理S603に進み、自車両が学習対象シーンを走行していないと判定した場合は一連の処理を終了する。ここで、学習対象シーンは例えば以下の通りである。
・先行車を追従走行している場合 ・一時停止標識や赤信号で停止する場合
・一時停止標識や赤信号で停止後に再発進する場合 ・交差点を通過する場合
・カーブを走行する場合
・車線変更する場合(合流や分岐を含む)
・路肩の障害物を回避して走行する場合
・一時停止標識や赤信号で停止後に再発進する場合 ・交差点を通過する場合
・カーブを走行する場合
・車線変更する場合(合流や分岐を含む)
・路肩の障害物を回避して走行する場合
処理S603では、処理S602で判定した学習対象シーンでの自車両の振る舞いがルールベースに則った走行であったか否かを判定し、自車両の振る舞いがルールベースに則った走行であった場合には処理S604に進み、自車両の振る舞いがルールベースに則った走行でなかった場合は一連の処理を終了する。ここで、ルールベースに則った走行とは、交通規則を遵守し、運転モラルに反さない走行を指す。
処理S604では、周辺環境と自車両の走行パターンを関連付けて学習し、一連の処理を終了する。ここで、具体的に学習する内容は例えば以下の通りである。
・先行車を追従走行している際の車間距離や加減速度
・停止線や信号に対しての加減速度や停止位置,発進タイミング ・交差点内での通過速度および走行軌跡
・旋回時の速度
・車線変更の走行軌跡や横加速度,周辺車両との車間距離
・障害物回避時の安全マージンの取り方や速度調節方法
・停止線や信号に対しての加減速度や停止位置,発進タイミング ・交差点内での通過速度および走行軌跡
・旋回時の速度
・車線変更の走行軌跡や横加速度,周辺車両との車間距離
・障害物回避時の安全マージンの取り方や速度調節方法
図7は、図5の処理S505の自動運転処理の処理手順の一例を示すフローチャートである。
図7の処理S701では、第1のプログラムで目標制御量を生成し、処理S702に進む。ここでは、図6で説明した学習処理により更新されている軌道・速度計画により自車両の目標軌道および目標速度を生成する。
処理S702では、第2のプログラムで目標制御量を生成し、処理S703に進む。ここでは、ルールベースに基づく軌道・速度計画により自車両の目標軌道および目標速度を生成する。
処理S703では、処理S701で生成された第1の目標制御量と処理S702で生成された第2の目標制御量から最終的な目標制御量である目標制御値を生成し、処理S704に進む。
処理S704では、処理S703で生成した目標制御値である自車両の目標軌道および目標速度に従って自車両を走行させるための制御パラメータを演算し、処理S705に進む。ここで、制御パラメータは、例えば、目標操舵トルクと目標エンジントルク,目標ブレーキ圧である。
処理S705では、処理S704で演算した制御パラメータのそれぞれを操舵装置403,駆動装置404,制動装置405に出力し、一連の処理を終了する。
なお、操舵装置403に出力する制御パラメータとしては、目標操舵角を実現するための目標操舵トルクが挙げられるが、操舵装置403の構成によっては直接目標操舵角を出力することも可能である。また、駆動装置404と制動装置405に出力する制御パラメータとしては、目標速度を実現するための目標エンジントルクや目標ブレーキ圧等が挙げられるが、駆動装置404と制動装置405の構成によっては直接目標速度を出力することも可能である。
図8は、図7の処理S703の目標制御値生成処理の処理手順の一例を示すフローチャートである。
図8の処理S801では、処理S701で生成された第1の目標制御量と処理S702で生成された第2の目標制御量とを比較して第1の目標制御量が第2の目標制御量の範囲から逸脱しているか否かを判定し、第1の目標制御量が第2の目標制御量の範囲から逸脱していると判断された場合は処理S802に進み、処理S802で第2の目標制御量を目標制御値に設定して一連の処理を終了する。一方で、処理S801で第1の目標制御量が第2の目標制御量の範囲から逸脱していないと判断された場合は処理S803に進み、処理S803で第1の目標制御量を目標制御値に設定し、一連の処理を終了する。
次に、図9と図10を用いて図6で説明した学習処理の一例を示す。
図9は図6の処理S604の学習処理が実行されるシーンであり、(a)一時停止ありの交差点を通過する場合,(b)車線変更する場合の2つのシーンで説明する。
図9は図6の処理S604の学習処理が実行されるシーンであり、(a)一時停止ありの交差点を通過する場合,(b)車線変更する場合の2つのシーンで説明する。
図9(a)は、運転者が手動で運転する自車両900が片側1車線の道路を走行中に一時停止のある交差点を直進するシーンを想定した状況説明図であり、グラフは自車両900の速度変化を示す。
自車両900が速度V1で走行中に地点Aに到達すると、一時停止標識901が存在する停止線902に向かって減速を開始し、停止線902の地点Sの手前の地点Bで一旦停止を行う。その後、自車両900の運転者は交差点内の安全確認を実施し、安全であると判断すると再発進し、地点Cを通過する。まず、この一連の走行シーンは、図6の処理S602の判定で学習対象シーンであると判定される。次に、この一連の走行が図6の処理S603の判定でルールベースに則った走行であったと判定されると、図6の処理S604の学習処理が実行される。
ここで学習される内容は、自車両900の速度パターン903(より具体的には、地点AB間の平均減速度および地点BC間の平均加速度),停止位置(BS間の距離),発進タイミング(地点Bでの停止時間)などである。
図9(b)は、運転者が手動で運転する自車両910が片側2車線道路の左車線を走行中に右車線の車両911と車両912の間に車線変更するシーンを想定した状況説明図である。
自車両910が地点B1に到達すると、自車両910の運転者は地点A1の車両911と地点C1の車両912との間に十分な車間距離が存在すると判断し、ウィンカを点灯し点線913で示す軌跡で車線変更を行う。そして、自車両910が地点B2に到達した時点で車線変更を完了し、ウィンカを消灯する。なお、車線変更が完了したときの車両911は地点A2に位置し、車両912は地点C2に位置するものとし、それぞれ十分な車間距離を保っているものとする。まず、この一連の走行シーンは、図6の処理S602の判定で学習対象シーンであると判定される。次に、この一連の走行が図6の処理S603の判定でルールベースに則った走行であったと判定されると、図6の処理S604の学習処理が実行される。
ここで学習される内容は、自車両910の走行軌跡913,横加速度,周辺車両との車間距離(車線変更開始時のA1B1間の距離,B1C1間の距離)などである。
図10は図6の処理S604の学習処理が実行されないシーンであり、図9と同様に(a)一時停止ありの交差点を通過する場合,(b)車線変更する場合の2つのシーンで説明する。
図10(a)は、運転者が手動で運転する自車両1000が片側1車線の道路を走行中に一時停止のある交差点を直進するシーンを想定した状況説明図であり、グラフは自車両1000の速度変化を示す。
自車両1000が速度V1で走行中に地点Aに到達すると、一時停止標識901が存在する停止線902に向かって減速を開始し、停止線902の地点Sの近傍で減速をやめて一時停止を行わずに交差点に進入する。その後、自車両1000の運転者は交差点内の安全確認を実施し、安全であると判断すると加速し、地点Cを通過する。まず、この一連の走行シーンは、図6の処理S602の判定で学習対象シーンであると判定される。次に、この一連の走行の中で一時停止標識のある停止線で停止しないといった交通規則を守らない走行をしたため(交通規則を違反したため)、図6の処理S603の判定でルールベースに則った走行であったと判定されず、図6の処理S604の学習処理は実行されない。
したがって、このときの走行挙動は学習されない。
したがって、このときの走行挙動は学習されない。
図10(b)は、運転者が手動で運転する自車両1010が片側2車線道路の左車線を走行中に右車線の車両1011と車両1012の間に車線変更するシーンを想定した状況説明図である。
自車両1010が地点B1に到達すると、自車両1010の運転者は地点A1の車両1011と地点C1の車両1012との間に向かってウィンカを点灯し車線変更を行う。そして、自車両1010が地点B2に到達した時点で車線変更を完了し、ウィンカを消灯する。なお、車線変更が完了したときの車両1011は地点A2に位置し、車両1012は地点C2に位置するものとし、後続の車両1011が安全のために車間距離を拡張しているものとする。まず、この一連の走行シーンは、図6の処理S602の判定で学習対象シーンであると判定される。次に、この一連の走行の中で車間距離の狭い間に車線変更を実施するといったモラルに反する行動を取ったため、図6の処理S603の判定でルールベースに則った走行であったと判定されず、図6の処理S604の学習処理は実行されない。したがって、このときの走行挙動は学習されない。
以上説明したように、ルールベースに則っている場合のみ学習処理を実施することで適切な学習が可能となる。
次に、図11と図12を用いて図8で説明した目標制御値生成処理の一例を示す。
図11は、自動運転で制御されている自車両1100が片側1車線の道路を走行中に信号機のある交差点を直進するシーンを想定した状況説明図であり、上のグラフは自車両1100が減速する際の速度パターンを示し、下のグラフは自車両1100の目標速度を示す。
図11は、自動運転で制御されている自車両1100が片側1車線の道路を走行中に信号機のある交差点を直進するシーンを想定した状況説明図であり、上のグラフは自車両1100が減速する際の速度パターンを示し、下のグラフは自車両1100の目標速度を示す。
自車両1100が地点Aに到達したときに前方の交差点の信号が青から黄に変化すると、自車両1100の速度パターンを演算し、演算された速度パターンに基づいて目標速度を演算する。まず、第1のプログラムに基づく減速パターンが点線1110で演算されると、自車両1100は停止線1102の手前で止まることができないため、目標速度は点線1112のように速度を維持して交差点を通過する値が出力される。次に、第2のプログラムに基づく減速パターンが破線1111で演算されると、自車両1100は停止線1102の手前で止まることができると判断し、目標速度を破線1113のように出力する。第2のプログラムに基づく目標速度は、交通規則を遵守し(信号が黄になったら停止を試みる)運転モラルに反しない(急ブレーキにならない程度で停止する)ルールベースに則った出力であり、この出力が停止線で停止できる目標速度を出力しているため、第1のプログラムに基づく目標速度は第2のプログラムに基づく目標速度から逸脱していると判断し、第2のプログラムに基づく目標速度が採用される。
図12は、自動運転で制御されている自車両1200が渋滞している本線に合流するシーンを想定した状況説明図であり、第1のプログラムに基づく軌道・速度計画と第2のプログラムに基づく軌道・速度計画の両方の出力を示している。
図12(a)は、第1のプログラムに基づく軌道・速度計画の出力を示しているもので、まず、自車両1200が地点Aに到達し、前方の本線が渋滞していると判断すると、本線の流れが遅く、どのタイミングでも合流できると判断し、さらに前方が空いているために一番奥の地点Cから合流すると判断する。その結果、目標軌道1210と目標速度1211が出力される。
図12(b)は、第2のプログラムに基づく軌道・速度計画の出力を示しているもので、まず、自車両1200が地点Aに到達し、前方の本線が渋滞していると判断すると、本線の流れが遅いが一番手前の地点Bから流れに合わせ合流すると判断する。その結果、目標軌道1220と目標速度1221が出力される。第2のプログラムに基づく軌道・速度計画は、交通規則を遵守し運転モラルに反しない(手前から流れに合わせて合流する)ルールベースに則った出力であり、第1のプログラムに基づく軌道・速度計画がモラルに反する出力(奥から合流)を出しているため、第1のプログラムに基づく軌道・速度計画は第2のプログラムに基づく軌道・速度計画から逸脱していると判断し、第2のプログラムに基づく軌道・速度計画が採用される。
ただし、上記での運転モラルは適用する国や地域で異なる可能性があるため、必ずしも第2のプログラムに基づく軌道・速度計画が採用されるとは限らない。
以上説明したように、第1のプログラムに基づく目標制御値と第2のプログラムに基づく目標制御値を比較して第1のプログラムに基づく目標制御値が第2のプログラムに基づく目標制御値から逸脱している場合は第2のプログラムに基づく目標制御値が採用されるため、最終的にはルールベースに則った出力が選択される。
(第2の実施の形態)
次に、図13と図14を用いて本発明の第2の実施の形態について説明する。
本発明の第2の実施の形態は本発明の第1の実施の形態において図8で示した目標制御値生成処理を図13で示す処理に置き換えるものである。
次に、図13と図14を用いて本発明の第2の実施の形態について説明する。
本発明の第2の実施の形態は本発明の第1の実施の形態において図8で示した目標制御値生成処理を図13で示す処理に置き換えるものである。
図13は、図7の処理S703の目標制御値生成処理の処理手順の一例を示すフローチャートである。
図13の処理S1301では、周辺環境情報を用いて処理S701で生成された第1の目標制御量と処理S702で生成された第2の目標制御量のどちらを選択するかの判断を実施し、処理S1302に進む。
処理S1302では、処理S1301で第2の目標制御量が採用されたか否かを判定し、第2の目標制御量が採用されたと判定した場合は処理S1303に進み、処理S1303で第2の目標制御量を目標制御値に設定して一連の処理を終了する。一方で、処理S1302で第2の目標制御量が採用されたと判定しない場合は処理S1304に進み、処理S1304で第1の目標制御量を目標制御値に設定して一連の処理を終了する。
図14は、図13で第1の目標制御量と第2の目標制御量のどちらを選択するかの一例を示す図である。
図14(a)は、第1の目標制御量を採用する例を示す。自車両1410が右に車線変更する場合、周囲に自車の走行を妨げる障害物が存在しないため、第1の目標制御量である運転者の嗜好に合わせた走行で問題がない。
図14(b)は、第2の目標制御量を採用する例を示す。自車両1410が右に車線変更する場合、周囲に自車の走行を妨げる障害物が存在するため、第2の目標制御量である交通規則と運転モラルに基づいた走行で問題がない。
以上説明したように、自車両周辺の環境から第1の目標制御量と第2の目標制御量を選択する方法を用いることで、結果的にはルールベースに則った走行が可能となる。
(第3の実施の形態)
次に、図15と図16を用いて本発明の第3の実施の形態について説明する。
本発明の第3の実施の形態は本発明の第1の実施の形態において図7で示した自動運転処理を図15で示す処理に置き換えるものである。
次に、図15と図16を用いて本発明の第3の実施の形態について説明する。
本発明の第3の実施の形態は本発明の第1の実施の形態において図7で示した自動運転処理を図15で示す処理に置き換えるものである。
図15は、図5の処理S505の自動運転処理の処理手順の一例を示すフローチャートである。
図15の処理S1501では、第1のプログラムで目標制御量を生成し、処理S1502に進む。ここでは、図6で説明した学習処理により更新されている軌道・速度計画により自車両の目標軌道および目標速度を生成する。
処理S1502では、第1の目標制御量が規定の範囲内であるか否かを判定し、第1の目標制御量が規定の範囲内であると判定した場合は処理S1503に進み、処理S1503で第1の目標制御量を目標制御値に設定し処理S1505に進む。一方で、処理S1502で第1の目標制御量が規定の範囲内でないと判定した場合は処理S1504に進み、処理S1504で第1の目標制御量を規定の範囲内に補正して目標制御値に設定し処理S1505に進む。
処理S1505および処理S1506は図7で説明した処理S704および処理S705と同様の処理のため、説明は割愛する。
図16は、図11と同様に、自動運転で制御されている自車両1600が片側1車線の道路を走行中に信号機のある交差点を直進するシーンを想定した状況説明図であり、上のグラフは自車両1600が減速する際の速度パターンを示し、下のグラフは自車両1600の目標速度を示す。
自車両1600が地点Aに到達したときに前方の交差点の信号が青から黄に変化すると、自車両1600の速度パターンを演算し、演算された速度パターンに基づいて目標速度を演算する。まず、第1のプログラムに基づく減速パターンが点線1610で演算されると、自車両1600は停止線1602の手前で止まることができないため、目標速度は点線1612のように速度を維持して交差点を通過する値が出力される。次に、交通規則と運転モラルに基づく規定の範囲を計算すると、領域1611の範囲が出力されるため、これを選択すれば停止線1602の手前で止まることができると判断する。そして、目標速度を領域1611の範囲で補正すると、補正された目標速度は破線1613のようになり、この目標速度を採用する。
以上説明したように、第1の制御量を規定の範囲に補正する方法を用いても最終的にはルールベースに則った走行が可能となる。
(第4の実施の形態)
次に、図17と図18,図19を用いて本発明の第4の実施の形態について説明する。
本発明の第4の実施の形態は本発明の第1の実施の形態において図2と図3で示した構成で、第1のプログラムに当たる機能を変更した構成となる。
次に、図17と図18,図19を用いて本発明の第4の実施の形態について説明する。
本発明の第4の実施の形態は本発明の第1の実施の形態において図2と図3で示した構成で、第1のプログラムに当たる機能を変更した構成となる。
図17および図18は、本発明の第4の実施の形態による自動運転装置の概略構成図である。
図17の運転タスク決定部(学習機能)102cは、学習機能を用いて自車両の振る舞いレベルでの行動(運転タスク)を決定するための第1のプログラムであり、外界情報(自車両周辺の環境情報や道路情報など)および車両情報(車速や舵角,ヨーレートなど)を入力として運転タスクを出力する。
図18の運転タスク決定部(人工知能)102dは、人工知能を用いて自車両の振る舞いレベルでの行動(運転タスク)を決定するための第1のプログラムであり、外界情報(自車両周辺の環境情報や道路情報など)および車両情報(車速や舵角,ヨーレートなど)を入力として運転タスクを出力する。
ここで、運転タスクとは、先行車追従、車線追従、車線変更、交差点直進/右折/左折、駐車など、自車両の運転状態を表すもので、図17および図18の軌道・速度計画部に対して行動の指針となる制御状態である。
図19は、図5の処理S505の自動運転処理の処理手順の一例を示すフローチャートである。
図19の処理S1901では、第1のプログラムに基づいて運転タスクを決定し(制御状態を判定し)、処理S1902に進む。
処理S1902では、第2のプログラムに基づいて目標制御値を生成し、処理S1903に進む。
処理S1903および処理S1904は図7で説明した処理S704および処理S705と同様の処理のため、説明は割愛する。
以上説明したように、自車両の振る舞いレベルでの行動(運転タスク)を第1のプログラムで決定し、目標制御値の軌道・速度計画はルールベースに基づいた第2のプログラムで生成されるため、ルールベースに則った走行が可能となる。
なお、以上の説明はあくまでも一例であり、発明を解釈する際、上記実施の形態の記載事項と特許請求の範囲の記載事項の対応関係に何ら限定も拘束もされない。例えば、上述した実施の形態では自車両として乗用車を想定して説明したが、建設機械やロボットなどの自動走行にも本発明は適用可能である。
以上、本発明の実施形態について詳述したが、本発明は、前記の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。例えば、前記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。さらに、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
100 自動運転装置、101、101a 制御プログラム、102 第1のプログラム、102a 軌道・速度計画部(学習機能)、102b 軌道・速度計画部(人工知能)、102c 運転タスク決定部(学習機能)、102d 運転タスク決定部(人工知能)、103 第2のプログラム、103a、103b、103c、103d 軌道・速度計画部(ルールベース)
Claims (12)
- 外界情報および車両情報を入力して車両の目標制御値を出力する制御プログラムを備えた自動運転装置であって、
前記制御プログラムは、
動的に変化するアルゴリズムに基づいて第1の目標制御量を生成する第1のプログラムと、
規定のアルゴリズムに基づいて第2の目標制御量を生成する第2のプログラムと、を有することを特徴とする自動運転装置。 - 前記第1の目標制御量と前記第2の目標制御量とに基づいて前記目標制御値を生成することを特徴とする請求項1に記載の自動運転装置。
- 前記動的に変化するアルゴリズムは、少なくとも人工知能や学習機能に基づいて目標制御量を生成する処理手法であることを特徴とする請求項2に記載の自動運転装置。
- 前記学習機能は、運転者が前記車両を走行する際の走行挙動を学習するものであって、少なくとも前記運転者が交通規則に違反、もしくは運転モラルに反する走行をした際にはこのときの走行挙動は学習しないことを特徴とする請求項3に記載の自動運転装置。
- 前記規定のアルゴリズムは、少なくとも交通規則や運転モラルに基づいて目標制御量を生成する処理手法であることを特徴とする請求項2から請求項4のいずれか一項に記載の自動運転装置。
- 前記第1の目標制御量が前記第2の目標制御量の範囲から逸脱するときに、前記第2の目標制御量を前記目標制御値とすることを特徴とする請求項2から請求項5のいずれか一項に記載の自動運転装置。
- 前記外界情報に基づいて前記第1および第2の目標制御量のうちどちらの制御量を前記目標制御値とするかを判断することを特徴とする請求項2から請求項5のいずれか一項に記載の自動運転装置。
- 前記目標制御値は、前記車両の目標軌道と目標速度のセット、もしくは各アクチュエータに対しての目標制御量であることを特徴とする請求項2から請求項7のいずれか一項に記載の自動運転装置。
- 外界情報および車両情報を入力して車両の目標制御値を出力する制御プログラムを備えた自動運転装置であって、
前記制御プログラムは、
動的に変化するアルゴリズムに基づいて目標制御量を生成する第1のプログラムと、
前記目標制御量が規定の範囲内になるように前記目標制御量を補正する第2のプログラムと、
を有することを特徴とする自動運転装置。 - 前記規定の範囲は、少なくとも交通規則や運転モラルに基づいて演算されることを特徴とする請求項9に記載の自動運転装置。
- 外界情報および車両情報を入力して車両の目標制御値を出力する制御プログラムを備えた自動運転装置であって、
前記制御プログラムは、
動的に変化するアルゴリズムに基づいて制御状態を判定する第1のプログラムと、
規定のアルゴリズムに基づいて目標制御量を生成する第2のプログラムと、
を有することを特徴とする自動運転装置。 - 前記第1のプログラムは、少なくとも人工知能や学習機能に基づいて車両の振る舞いレベルでの行動である運転タスクを決定し、
前記第2のプログラムは、前記車両の目標軌道と目標速度のセット、もしくは各アクチュエータに対しての目標制御量を生成することを特徴とする請求項11に記載の自動運転装置。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/306,207 US10845809B2 (en) | 2016-08-08 | 2017-07-19 | Automatic driving device |
| EP17839155.3A EP3498555A4 (en) | 2016-08-08 | 2017-07-19 | AUTOMATIC DRIVE DEVICE |
| CN201780025860.2A CN109641591B (zh) | 2016-08-08 | 2017-07-19 | 自动驾驶装置 |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016-155726 | 2016-08-08 | ||
| JP2016155726A JP6663822B2 (ja) | 2016-08-08 | 2016-08-08 | 自動運転装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018030082A1 true WO2018030082A1 (ja) | 2018-02-15 |
Family
ID=61162401
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/026028 Ceased WO2018030082A1 (ja) | 2016-08-08 | 2017-07-19 | 自動運転装置 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US10845809B2 (ja) |
| EP (1) | EP3498555A4 (ja) |
| JP (1) | JP6663822B2 (ja) |
| CN (1) | CN109641591B (ja) |
| WO (1) | WO2018030082A1 (ja) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109866752A (zh) * | 2019-03-29 | 2019-06-11 | 合肥工业大学 | 基于预测控制的双模式并行车辆轨迹跟踪行驶系统及方法 |
| WO2020036419A1 (en) | 2018-08-13 | 2020-02-20 | Samsung Electronics Co., Ltd. | Method of assisting autonomous vehicle, and apparatus therefor |
| EP3774476A4 (en) * | 2018-04-27 | 2021-05-19 | Huawei Technologies Co., Ltd. | METHOD AND SYSTEM FOR ADAPTIVE CONTROL OF THE OBJECT DISTANCE |
| JP2022510748A (ja) * | 2018-12-21 | 2022-01-28 | コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト | ニューラルネットワークに基づいている走行機能の監視 |
| US11535271B2 (en) | 2021-01-08 | 2022-12-27 | Argo AI, LLC | Methods and systems for monitoring vehicle motion with driver safety alerts |
| EP3944046A4 (en) * | 2019-03-19 | 2023-03-08 | UISEE Technologies (Beijing) Ltd. | METHOD OF IMPROVING AN AUTOMATIC DRIVING SYSTEM, AUTOMATIC DRIVING SYSTEM AND VEHICLE MOUNTED DEVICE |
| EP3944047A4 (en) * | 2019-03-19 | 2023-03-15 | UISEE Technologies (Beijing) Ltd. | METHOD FOR UPGRADING AN AUTOMATED DRIVING SYSTEM, AUTOMATED DRIVING SYSTEM AND DEVICE MOUNTED ON A VEHICLE |
Families Citing this family (36)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10343685B2 (en) * | 2016-09-28 | 2019-07-09 | Baidu Usa Llc | Physical model and machine learning combined method to simulate autonomous vehicle movement |
| WO2019017253A1 (ja) * | 2017-07-18 | 2019-01-24 | パイオニア株式会社 | 制御装置、制御方法、およびプログラム |
| JP7084124B2 (ja) * | 2017-11-06 | 2022-06-14 | トヨタ自動車株式会社 | 運転支援制御システム |
| JP7013998B2 (ja) * | 2018-03-27 | 2022-02-01 | トヨタ自動車株式会社 | 車両制御装置 |
| JP7110729B2 (ja) * | 2018-05-25 | 2022-08-02 | トヨタ自動車株式会社 | 自動運転システム及び自動運転システムの制御方法 |
| CN110376594B (zh) * | 2018-08-17 | 2022-02-01 | 北京京东叁佰陆拾度电子商务有限公司 | 一种基于拓扑图的智能导航的方法和系统 |
| JP7361775B2 (ja) * | 2018-12-10 | 2023-10-16 | ホアウェイ クラウド コンピューティング テクノロジーズ カンパニー リミテッド | 自律運転のための個人運転スタイル学習 |
| JP7087995B2 (ja) * | 2018-12-26 | 2022-06-21 | トヨタ自動車株式会社 | 車両の制御装置 |
| CN109765820B (zh) * | 2019-01-14 | 2019-08-09 | 南栖仙策(南京)科技有限公司 | 一种用于自动驾驶控制策略的训练系统 |
| DE102019214925A1 (de) * | 2019-09-27 | 2021-04-01 | Zf Friedrichshafen Ag | Steuerung eines Fahrzeugs |
| DE102019214935A1 (de) * | 2019-09-27 | 2021-04-01 | Zf Friedrichshafen Ag | Steuerung eines Fahrzeugs |
| US11643073B2 (en) * | 2019-10-24 | 2023-05-09 | Zoox, Inc. | Trajectory modifications based on a collision zone |
| US11420630B2 (en) | 2019-10-24 | 2022-08-23 | Zoox, Inc. | Trajectory modifications based on a collision zone |
| US12012127B2 (en) * | 2019-10-26 | 2024-06-18 | Zoox, Inc. | Top-down view object detection and tracking |
| DE102019134258A1 (de) * | 2019-12-13 | 2021-05-06 | Daimler Ag | Verfahren zum Steuern einer Fahrfunktion eines Fahrzeugs |
| US11663726B2 (en) | 2020-01-31 | 2023-05-30 | Zoox, Inc. | Object velocity and/or yaw rate detection and tracking |
| CN113785340B (zh) * | 2020-02-14 | 2024-09-27 | 松下知识产权经营株式会社 | 信息处理方法、信息处理系统以及信息处理装置 |
| JP7439563B2 (ja) * | 2020-02-26 | 2024-02-28 | トヨタ自動車株式会社 | 走行支援装置 |
| WO2021192521A1 (ja) * | 2020-03-27 | 2021-09-30 | パイオニア株式会社 | 情報提供装置、情報提供方法及び情報提供用プログラム |
| JP7425682B2 (ja) | 2020-06-25 | 2024-01-31 | 株式会社日立製作所 | 情報管理システム、情報管理装置、および情報管理方法 |
| US12223834B2 (en) | 2020-06-29 | 2025-02-11 | Sumitomo Electric Industries, Ltd. | Vehicle-mounted device, vehicle communication system, and algorithm provision method |
| CN114379574B (zh) * | 2020-10-20 | 2023-10-31 | 沃尔沃汽车公司 | 用于车辆的对象提醒设备、系统和方法 |
| DE102020215324A1 (de) * | 2020-12-03 | 2022-06-09 | Robert Bosch Gesellschaft mit beschränkter Haftung | Auswahl von Fahrmanövern für zumindest teilweise automatisiert fahrende Fahrzeuge |
| US11887481B2 (en) * | 2021-06-30 | 2024-01-30 | Volvo Car Corporation | Rear view collision warning indication and mitigation |
| JP7705608B2 (ja) * | 2021-07-13 | 2025-07-10 | トヨタ自動車株式会社 | 自動車の運転支援装置 |
| CN113401144B (zh) * | 2021-07-27 | 2022-10-11 | 阿波罗智能技术(北京)有限公司 | 自动驾驶车辆的控制方法、装置、设备和介质 |
| US20230082355A1 (en) * | 2021-09-10 | 2023-03-16 | GM Global Technology Operations LLC | System and method for associating motion control signals from traffic light devices with roadway movements |
| JP7672314B2 (ja) * | 2021-09-13 | 2025-05-07 | 株式会社Nttデータオートモビリジェンス研究所 | 車両運転制御装置、車両制御管理装置及び車両制御管理方法 |
| CN114655213B (zh) * | 2022-04-18 | 2024-05-24 | 重庆长安汽车股份有限公司 | 一种基于自学习的红绿灯路口驾驶控制系统及方法 |
| CN114815622B (zh) * | 2022-05-11 | 2025-10-24 | 上海前晨汽车科技有限公司 | 车辆参数优化方法、装置、计算机设备和存储介质 |
| JP7596334B2 (ja) * | 2022-07-08 | 2024-12-09 | イーソル株式会社 | 乗り物の運転支援方法および運転支援システム |
| JP7722346B2 (ja) * | 2022-12-14 | 2025-08-13 | トヨタ自動車株式会社 | 車両の制御装置 |
| DE102023202033A1 (de) * | 2023-03-07 | 2024-09-12 | Volkswagen Aktiengesellschaft | Verfahren zum Querführen eines Kraftfahrzeugs mittels eines Fahrerassistenzsystems, Steuereinrichtung sowie Kraftfahrzeug |
| DE102023202007B4 (de) * | 2023-03-07 | 2025-03-13 | Zf Friedrichshafen Ag | Computerimplementiertes Verfahren und Computerprogramm zum Regeln einer Längs- oder Querführung eines Fahrsystems und Hardwareeinheit für ein Fahrsystem |
| DE102023113873B3 (de) | 2023-05-26 | 2024-09-05 | Audi Aktiengesellschaft | Verfahren zum Betrieb eines Kraftfahrzeugs und Kraftfahrzeug |
| DE102023205773A1 (de) * | 2023-06-21 | 2024-12-24 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Steuergerät zum Beeinflussen einer Fahrdynamik eines Fahrzeugs |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06206477A (ja) * | 1993-01-09 | 1994-07-26 | Mazda Motor Corp | 自動車用制御装置の制御ゲイン変更装置 |
| JPH0844999A (ja) * | 1994-08-03 | 1996-02-16 | Nissan Motor Co Ltd | 接近予測装置 |
| JP2006131055A (ja) * | 2004-11-04 | 2006-05-25 | Denso Corp | 車両走行制御装置 |
| US20080162027A1 (en) * | 2006-12-29 | 2008-07-03 | Robotic Research, Llc | Robotic driving system |
| JP2009205646A (ja) * | 2008-02-29 | 2009-09-10 | Equos Research Co Ltd | 運転支援装置 |
| JP2013237290A (ja) | 2012-05-11 | 2013-11-28 | Toyota Motor Corp | 表示制御装置、車両制御装置および車両 |
| JP2015000722A (ja) * | 2013-06-12 | 2015-01-05 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 車両作動方法および車両作動装置 |
| JP2015041241A (ja) * | 2013-08-22 | 2015-03-02 | アイシン・エィ・ダブリュ株式会社 | 減速度設定システム、方法およびプログラム |
Family Cites Families (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5796481B2 (ja) * | 2011-12-21 | 2015-10-21 | トヨタ自動車株式会社 | 軌跡制御装置および軌跡制御方法 |
| JP2015099406A (ja) * | 2012-03-05 | 2015-05-28 | アイシン精機株式会社 | 運転支援装置 |
| DE102012214979A1 (de) * | 2012-08-23 | 2014-02-27 | Robert Bosch Gmbh | Spurwahlassistent zur Optimierung des Verkehrsflusses (Verkehrsflussassistent) |
| DE102013008605A1 (de) * | 2013-05-16 | 2014-11-20 | Audi Ag | Navigationshilfe für ein Kraftfahrzeug mit Autopiloten |
| DE102013013867A1 (de) * | 2013-08-20 | 2015-03-12 | Audi Ag | Kraftfahrzeug und Verfahren zur Steuerung eines Kraftfahrzeugs |
| CN105705395B (zh) * | 2013-12-11 | 2019-01-11 | 英特尔公司 | 个人驾驶偏好适应的车辆的计算机辅助或自主驾驶 |
| JP6546741B2 (ja) * | 2014-01-06 | 2019-07-17 | ハーマン インターナショナル インダストリーズ インコーポレイテッド | 車内通知提示のスケジューリング |
| US9349284B2 (en) * | 2014-04-24 | 2016-05-24 | International Business Machines Corporation | Regional driving trend modification using autonomous vehicles |
| DE102014208311A1 (de) * | 2014-05-05 | 2015-11-05 | Conti Temic Microelectronic Gmbh | Fahrerassistenzsystem |
| DE102014209854A1 (de) * | 2014-05-23 | 2015-11-26 | Continental Automotive Gmbh | Fahrzeugsteuervorrichtung |
| JP6442993B2 (ja) * | 2014-11-07 | 2018-12-26 | アイシン・エィ・ダブリュ株式会社 | 自動運転支援システム、自動運転支援方法及びコンピュータプログラム |
| US9892296B2 (en) * | 2014-11-12 | 2018-02-13 | Joseph E. Kovarik | Method and system for autonomous vehicles |
| CN104590274A (zh) * | 2014-11-26 | 2015-05-06 | 浙江吉利汽车研究院有限公司 | 一种驾驶行为自适应系统及驾驶行为自适应方法 |
| US10073965B2 (en) * | 2015-12-15 | 2018-09-11 | Nagravision S.A. | Methods and systems for validating an autonomous system that includes a dynamic-code module and a static-code module |
| US20170285585A1 (en) * | 2016-04-02 | 2017-10-05 | John C. Weast | Technologies for resolving moral conflicts during autonomous operation of a machine |
| WO2018057978A1 (en) * | 2016-09-23 | 2018-03-29 | Apple Inc. | Decision making for autonomous vehicle motion control |
-
2016
- 2016-08-08 JP JP2016155726A patent/JP6663822B2/ja active Active
-
2017
- 2017-07-19 US US16/306,207 patent/US10845809B2/en active Active
- 2017-07-19 WO PCT/JP2017/026028 patent/WO2018030082A1/ja not_active Ceased
- 2017-07-19 EP EP17839155.3A patent/EP3498555A4/en active Pending
- 2017-07-19 CN CN201780025860.2A patent/CN109641591B/zh active Active
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06206477A (ja) * | 1993-01-09 | 1994-07-26 | Mazda Motor Corp | 自動車用制御装置の制御ゲイン変更装置 |
| JPH0844999A (ja) * | 1994-08-03 | 1996-02-16 | Nissan Motor Co Ltd | 接近予測装置 |
| JP2006131055A (ja) * | 2004-11-04 | 2006-05-25 | Denso Corp | 車両走行制御装置 |
| US20080162027A1 (en) * | 2006-12-29 | 2008-07-03 | Robotic Research, Llc | Robotic driving system |
| JP2009205646A (ja) * | 2008-02-29 | 2009-09-10 | Equos Research Co Ltd | 運転支援装置 |
| JP2013237290A (ja) | 2012-05-11 | 2013-11-28 | Toyota Motor Corp | 表示制御装置、車両制御装置および車両 |
| JP2015000722A (ja) * | 2013-06-12 | 2015-01-05 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | 車両作動方法および車両作動装置 |
| JP2015041241A (ja) * | 2013-08-22 | 2015-03-02 | アイシン・エィ・ダブリュ株式会社 | 減速度設定システム、方法およびプログラム |
Cited By (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11511745B2 (en) | 2018-04-27 | 2022-11-29 | Huawei Technologies Co., Ltd. | Method and system for adaptively controlling object spacing |
| EP3774476A4 (en) * | 2018-04-27 | 2021-05-19 | Huawei Technologies Co., Ltd. | METHOD AND SYSTEM FOR ADAPTIVE CONTROL OF THE OBJECT DISTANCE |
| US12459509B2 (en) | 2018-04-27 | 2025-11-04 | Huawei Technologies Co., Ltd. | Method and system for adaptively controlling object spacing |
| EP4383759A3 (en) * | 2018-04-27 | 2024-09-11 | Huawei Technologies Co., Ltd. | Method and system for adaptively controlling object spacing |
| EP3810474A4 (en) * | 2018-08-13 | 2021-10-13 | Samsung Electronics Co., Ltd. | METHOD OF SUPPORTING AND DEVICE FOR AN AUTONOMOUS VEHICLE |
| KR102479493B1 (ko) * | 2018-08-13 | 2022-12-20 | 삼성전자주식회사 | 자율 주행 차량을 보조하기 위한 방법 및 이를 위한 장치 |
| US11208115B2 (en) | 2018-08-13 | 2021-12-28 | Samsung Electronics Co., Ltd. | Method of assisting autonomous vehicle, and apparatus therefor |
| WO2020036419A1 (en) | 2018-08-13 | 2020-02-20 | Samsung Electronics Co., Ltd. | Method of assisting autonomous vehicle, and apparatus therefor |
| CN112585051A (zh) * | 2018-08-13 | 2021-03-30 | 三星电子株式会社 | 辅助自主车辆的方法及其设备 |
| KR20200023661A (ko) * | 2018-08-13 | 2020-03-06 | 삼성전자주식회사 | 자율 주행 차량을 보조하기 위한 방법 및 이를 위한 장치 |
| CN112585051B (zh) * | 2018-08-13 | 2024-05-17 | 三星电子株式会社 | 辅助自主车辆的方法及其设备 |
| JP2022510748A (ja) * | 2018-12-21 | 2022-01-28 | コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト | ニューラルネットワークに基づいている走行機能の監視 |
| JP7421544B2 (ja) | 2018-12-21 | 2024-01-24 | コンティネンタル・テーベス・アクチエンゲゼルシヤフト・ウント・コンパニー・オッフェネ・ハンデルスゲゼルシヤフト | ニューラルネットワークに基づいている走行機能の監視 |
| EP3944046A4 (en) * | 2019-03-19 | 2023-03-08 | UISEE Technologies (Beijing) Ltd. | METHOD OF IMPROVING AN AUTOMATIC DRIVING SYSTEM, AUTOMATIC DRIVING SYSTEM AND VEHICLE MOUNTED DEVICE |
| EP3944047A4 (en) * | 2019-03-19 | 2023-03-15 | UISEE Technologies (Beijing) Ltd. | METHOD FOR UPGRADING AN AUTOMATED DRIVING SYSTEM, AUTOMATED DRIVING SYSTEM AND DEVICE MOUNTED ON A VEHICLE |
| US11685397B2 (en) | 2019-03-19 | 2023-06-27 | Uisee Technologies (beijing) Co., Ltd. | Methods for updating autonomous driving system, autonomous driving systems, and on-board apparatuses |
| CN109866752A (zh) * | 2019-03-29 | 2019-06-11 | 合肥工业大学 | 基于预测控制的双模式并行车辆轨迹跟踪行驶系统及方法 |
| US11535271B2 (en) | 2021-01-08 | 2022-12-27 | Argo AI, LLC | Methods and systems for monitoring vehicle motion with driver safety alerts |
| US11679780B2 (en) | 2021-01-08 | 2023-06-20 | Argo AI, LLC | Methods and systems for monitoring vehicle motion with driver safety alerts |
Also Published As
| Publication number | Publication date |
|---|---|
| CN109641591B (zh) | 2021-11-09 |
| US20190317499A1 (en) | 2019-10-17 |
| CN109641591A (zh) | 2019-04-16 |
| JP2018024286A (ja) | 2018-02-15 |
| EP3498555A1 (en) | 2019-06-19 |
| JP6663822B2 (ja) | 2020-03-13 |
| EP3498555A4 (en) | 2020-03-25 |
| US10845809B2 (en) | 2020-11-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6663822B2 (ja) | 自動運転装置 | |
| US11414080B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
| JP6839770B2 (ja) | 移動体制御システム、および、管制装置 | |
| US11163310B2 (en) | Vehicle control device | |
| JP6951271B2 (ja) | 車両制御装置 | |
| US11247677B2 (en) | Vehicle control device for maintaining inter-vehicle spacing including during merging | |
| WO2016104198A1 (ja) | 車両制御装置 | |
| JP6932662B2 (ja) | 車両走行制御装置 | |
| JPWO2018079069A1 (ja) | 車両制御装置 | |
| JP6817413B2 (ja) | 車両制御装置 | |
| JP2017013749A (ja) | 自動運転車両の制御装置 | |
| JP7156252B2 (ja) | 運転支援装置 | |
| KR20150066303A (ko) | 운전자의 주행 패턴을 반영하는 자율 주행 장치 및 그 방법 | |
| JP7256216B2 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
| JP7379033B2 (ja) | 運転支援方法及び運転支援装置 | |
| JP2019144691A (ja) | 車両制御装置 | |
| US10353391B2 (en) | Travel control device | |
| GB2558866A (en) | Predictive control system for autonomous driving vehicle | |
| JP2019144690A (ja) | 車両制御装置 | |
| WO2022130701A1 (ja) | 車両制御装置 | |
| JP2021109576A (ja) | 車両の走行支援方法および走行支援装置 | |
| CN120359155A (zh) | 车辆控制装置及车辆控制方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17839155 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2017839155 Country of ref document: EP Effective date: 20190311 |