WO2018216066A1 - Onboard apparatus, traveling assistance method and traveling assistance program - Google Patents
Onboard apparatus, traveling assistance method and traveling assistance program Download PDFInfo
- Publication number
- WO2018216066A1 WO2018216066A1 PCT/JP2017/019035 JP2017019035W WO2018216066A1 WO 2018216066 A1 WO2018216066 A1 WO 2018216066A1 JP 2017019035 W JP2017019035 W JP 2017019035W WO 2018216066 A1 WO2018216066 A1 WO 2018216066A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- blind spot
- collision point
- travel
- arrival time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R21/00—Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60T—VEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
- B60T7/00—Brake-action initiating means
- B60T7/12—Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Definitions
- the present invention relates to driving support for vehicles.
- Autonomous vehicles are being developed.
- a vehicle is equipped with a sensor.
- a sensor mounted on such a vehicle there is a distance measuring sensor, a visible light sensor, or an infrared sensor using a laser, a radio wave or a sound wave.
- the vehicle detects an obstacle around the vehicle using a sensor, and controls steering or acceleration so as to avoid a collision with the detected obstacle.
- Such a vehicle is not only controlled to avoid a collision with a detected obstacle, but as disclosed in Patent Document 1, an object hidden behind a blind spot behind a shielding object pops out. In anticipation, control is performed to avoid collisions.
- the technique of Patent Document 1 detects a dangerous place where a jump is expected, and decelerates or stops the vehicle in response to the dangerous place.
- the vehicle is centrally decelerated based on the relative distance between the dangerous location and the vehicle, and stops so as not to approach the dangerous location more than a certain distance.
- the vehicle needs to pass through a route that avoids the dangerous part far away in order not to stop.
- the vehicle has no choice but to stop when it cannot pass a far-winding route due to restrictions on the lane or road width.
- the main object of the present invention is to solve the above-described problems. More specifically, the present invention verifies the possibility that the vehicle and the object will collide when the object jumps out from the blind spot, and determines the appropriate traveling state of the vehicle according to the possibility that the vehicle and the object collide.
- the main purpose is to determine
- the in-vehicle device is An in-vehicle device mounted on a vehicle, When there is a shielding object in front of the vehicle, if the object appears from a blind spot behind the shielding object and moves toward the travel route on which the vehicle travels, the vehicle and the object will collide.
- a collision point determination unit that determines whether or not a collision point exists on the travel route;
- a travel management unit that determines a travel state of the vehicle based on the presence or absence of the collision point.
- the vehicle it is determined whether or not there is a collision point on the travel route, the possibility of collision between the vehicle and the object is verified, and the vehicle travels appropriately according to the possibility of collision between the vehicle and the object.
- the state can be determined.
- FIG. 2 is a diagram illustrating a configuration example of a vehicle according to the first embodiment.
- FIG. 3 is a diagram illustrating a hardware configuration example of the in-vehicle device according to the first embodiment.
- FIG. 3 is a diagram illustrating a functional configuration example of the in-vehicle device according to the first embodiment.
- FIG. 3 shows an object and laser light according to Embodiment 1.
- FIG. 3 shows an object and laser light according to Embodiment 1.
- 5 is a flowchart illustrating an operation example of the in-vehicle device according to the first embodiment.
- 5 is a flowchart showing blind spot detection processing according to the first embodiment. The figure which shows the laser beam based on Embodiment 1, a building, and a blind spot.
- FIG. 3 is a diagram showing a plurality of points on a travel route according to the first embodiment.
- FIG. *** Explanation of configuration *** FIG. 1 shows a configuration example of a vehicle 110 according to the present embodiment.
- the vehicle 110 is equipped with an in-vehicle device 100.
- the in-vehicle device 100 performs driving support for the vehicle 110.
- the operation performed by the in-vehicle device 100 corresponds to a driving support method and a driving support program.
- a plurality of surrounding monitoring sensors 111 are mounted on the vehicle 110.
- the periphery monitoring sensor 111 is mounted on the front, rear, side, and roof of the vehicle 110.
- the periphery monitoring sensor 111 scans the periphery of the vehicle 110 to detect an obstacle.
- FIG. 2 shows a hardware configuration example of the in-vehicle device 100.
- the in-vehicle device 100 is a computer.
- the in-vehicle device 100 includes a processor 101, a memory 102, an auxiliary storage device 103, a peripheral situation acquisition interface 104, and a vehicle control interface 105 as hardware.
- the in-vehicle device 100 includes a sensor data acquisition unit 301, a blind spot detection unit 302, a collision point determination unit 303, a virtual object arrival time prediction unit 306, a vehicle arrival time prediction unit 307, a collision point prediction unit 308, and a travel configuration.
- a management unit 309 and a travel control unit 310 are provided.
- the auxiliary storage device 103 includes a sensor data acquisition unit 301, a blind spot detection unit 302, a collision point determination unit 303, a virtual object arrival time prediction unit 306, a vehicle arrival time prediction unit 307, a collision point prediction unit 308, a travel management unit 309, and A program for realizing the function of the traveling control unit 310 is stored. These programs are loaded into the memory 102. The processor 101 reads these programs from the memory 102 and executes these programs.
- the processor 101 includes a sensor data acquisition unit 301, a blind spot detection unit 302, a collision point determination unit 303, a virtual object arrival time prediction unit 306, a vehicle arrival time prediction unit 307, a collision point prediction unit 308, and a travel management unit, which will be described later. 309 and the travel control unit 310 are operated.
- the processor 101 includes a sensor data acquisition unit 301, a blind spot detection unit 302, a collision point determination unit 303, a virtual object arrival time prediction unit 306, a vehicle arrival time prediction unit 307, a collision point prediction unit 308, a travel management unit 309, and
- the state which is executing the program which realizes the function of run control part 310 is typically expressed.
- the surrounding situation acquisition interface 104 is connected to the surrounding monitoring sensor 111.
- the peripheral situation acquisition interface 104 acquires sensor data that is a scanning result of the peripheral monitoring sensor 111 from the peripheral monitoring sensor 111.
- the vehicle control interface 105 is connected to a control mechanism in the vehicle 110.
- the vehicle control interface 105 transmits a command for controlling the traveling of the vehicle to the control mechanism.
- the vehicle control interface 105 transmits a command that instructs the vehicle 110 to decelerate.
- the vehicle control interface 105 may be connected to an interface device used by the driver.
- the vehicle control interface 105 transmits a message asking the driver to decelerate the vehicle 110 to a dashboard display, speaker, or HUD (Head-Up Display).
- the surrounding monitoring sensor 111 is, for example, Laser Imaging Detection and Ranging (LiDAR).
- LiDAR irradiates a laser beam, and measures the distance from the time required for the laser beam to return after being reflected by the object and the speed of the light.
- LiDAR measures the distance to surrounding objects by rotating the direction of laser light irradiation in the horizontal direction.
- an azimuth angle and an elevation angle indicating the direction of laser irradiation are represented.
- the surface of the object is represented as a point group by the measured distance. 4 and 5 show an object existing around the LiDAR and the laser light emitted from the LiDAR.
- FIG. 4 shows a state where the LiDAR and the objects 201 to 203 are looked down from above.
- FIG. 5 shows a state where the LiDAR, the object 202, and the object 203 are viewed from the side.
- 4 and 5 show examples of distance information obtained by LiDAR installed at the point 200.
- FIG. 4 and 5 indicate that the distance can be measured by reflection of the laser beam.
- the broken lines in FIGS. 4 and 5 indicate that the laser beam is not reflected and the distance cannot be measured. If the distance cannot be measured, the distance is treated as infinity. As a result, distance information of positions indicated by black dots as part of the shapes of the objects 201 to 203 is obtained.
- surrounding shape information can be obtained by executing the same processing for different angles in the vertical direction.
- a millimeter wave radar may be used instead of LiDAR.
- Millimeter wave radar is a sensor that measures the distance to an object from the time required for the radio wave to irradiate and reflected by the object and returning.
- peripheral distance information can be obtained in a fan shape around the millimeter wave radar.
- a stereo camera may be used instead of LiDAR.
- a sonic sonar or an ultrasonic sonar may be used instead of LiDAR. Regardless of which sensor is used as the periphery monitoring sensor 111, sensor data including distance information is obtained from the periphery monitoring sensor 111.
- FIG. 3 shows a functional configuration example of the in-vehicle device 100 according to the present embodiment.
- the in-vehicle device 100 includes the sensor data acquisition unit 301, blind spot detection unit 302, collision point determination unit 303, virtual object arrival time prediction unit 306, vehicle arrival time prediction unit 307, collision point prediction unit 308, travel management. Part 309 and travel control part 310 are included.
- the sensor data acquisition unit 301, blind spot detection unit 302, collision point determination unit 303, virtual object arrival time prediction unit 306, vehicle arrival time prediction unit 307, collision point prediction unit 308, travel management unit 309, and travel control unit 310 are programs. Realized.
- the sensor data acquisition unit 301, blind spot detection unit 302, collision point determination unit 303, virtual object arrival time prediction unit 306, vehicle arrival time prediction unit 307, collision point prediction unit 308, travel management unit 309, and travel control unit 310 A program to be realized is executed by the processor 101.
- the sensor data acquisition unit 301 acquires sensor data from the peripheral monitoring sensor 111 via the peripheral state acquisition interface 104.
- the blind spot detection unit 302 detects the blind spot based on the sensor data. More specifically, the blind spot detection unit 302 detects a blind spot behind the shield based on the sensor data when there is a shield in front of the vehicle 110. That is, the blind spot detection unit 302 estimates the position of the blind spot. Also, the blind spot detection unit 302 estimates the width of the blind spot based on the sensor data. Also, the blind spot detection unit 302 calculates an assumed appearance position that is a position where a virtual object appears from the blind spot.
- the collision point determination unit 303 determines whether or not there is a collision point on the travel route where the vehicle and the virtual object collide when the virtual object appears from the blind spot and moves toward the travel route on which the vehicle 110 travels. Is determined based on the position of the blind spot and the width of the blind spot.
- the collision point determination unit 303 notifies the traveling management unit 309 of the collision point when there is a collision point on the travel route.
- the collision point determination unit 303 is a point where the vehicle 110 and the object of the plurality of points collide when the virtual object appears from the blind spot and moves toward each of the plurality of points on the travel route. To the travel management unit 309 as a collision point.
- the process performed by the collision point determination unit 303 corresponds to the collision point determination process.
- the collision point determination unit 303 includes a virtual object arrival time prediction unit 306, a vehicle arrival time prediction unit 307, and a collision point prediction unit 308.
- the virtual object arrival time prediction unit 306, the vehicle arrival time prediction unit 307, and the collision point prediction unit 308 will be described.
- the virtual object arrival time prediction unit 306 predicts the arrival time of the virtual object to each of a plurality of points on the travel route. For example, the virtual object arrival time predicting unit 306 calculates the arrival time of the virtual object at each of the plurality of points based on the moving speed of the object estimated from the blind spot width. More specifically, the virtual object arrival time prediction unit 306 determines the type of virtual object (vehicle, person, bicycle, etc.) from the width of the blind spot, and estimates the moving speed of the object from the determined type of virtual object. Then, the virtual object arrival time predicting unit 306 calculates the arrival time of the virtual object at each of the plurality of points based on the estimated moving speed of the virtual object.
- the type of virtual object vehicle, person, bicycle, etc.
- the vehicle arrival time prediction unit 307 predicts the arrival time of the vehicle 110 at each of a plurality of points. For example, the vehicle arrival time prediction unit 307 calculates the arrival time of the vehicle 110 at each of a plurality of points based on the current traveling speed of the vehicle 110.
- the collision point prediction unit 308 determines whether or not a collision point exists on the travel route based on the calculation result of the virtual object arrival time prediction unit 306 and the calculation result of the vehicle arrival time prediction unit 307. Specifically, if there is a point where the arrival time of the vehicle 110 and the arrival time of the virtual object match, the collision point prediction unit 308 determines that there is a collision point, and the arrival time of the vehicle 110 and the arrival of the virtual object A point where the time coincides is extracted as a collision point. Then, the collision point prediction unit 308 notifies the traveling management unit 309 of the extracted collision point.
- the traveling management unit 309 determines the traveling state of the vehicle 110 based on the presence / absence of a collision point. Specifically, the traveling management unit 309 determines to maintain the current traveling state of the vehicle 110 when there is no collision point. Specifically, the travel management unit 309 determines to keep the vehicle 110 traveling at the current travel speed. On the other hand, when there is a collision point, the traveling management unit 309 determines to drive the vehicle 110 in a state where the vehicle 110 can stop before the collision point notified by the collision point prediction unit 308. More specifically, the travel management unit 309 generates a travel plan that can stop the vehicle 110 before the collision point.
- the travel management unit 309 generates a travel plan that can decelerate the vehicle 110 at a certain rate and stop the vehicle 110 before the collision point.
- the point before the collision point is any point within a range of 1 to 5 meters before the collision point.
- the travel management unit 309 notifies the travel control unit 310 of the generated travel plan.
- the process performed by the travel management unit 309 corresponds to a travel management process.
- the travel control unit 310 controls the travel of the vehicle 110 according to the travel plan notified by the travel management unit 309. Specifically, if vehicle 110 is an automatic traveling vehicle, traveling control unit 310 outputs a command for realizing a traveling plan to a control mechanism in vehicle 110 via vehicle control interface 105. For example, the travel control unit 310 outputs a command for instructing deceleration at a timing specified in the travel plan. On the other hand, if the vehicle 110 is not an automatic traveling vehicle, the traveling control unit 310 outputs a message addressed to the driver for realizing the traveling plan to the interface device used by the driver via the vehicle control interface 105. For example, the travel control unit 310 outputs a message requesting the driver to decelerate at a timing specified in the travel plan.
- FIG. 6 shows an operation example of the in-vehicle device 100.
- the in-vehicle device 100 periodically performs a series of processes from step S401 to step S409.
- the travel management unit 309 generates a travel plan across the repetition process for each blind spot. For this reason, the travel management unit 309 stores in the memory 102 the travel plan generated by the processing of steps S403 to S408 for one blind spot. Then, the travel management unit 309 updates the travel plan in the memory 102 if it is necessary to update the travel plan in the processing of steps S403 to S408 for another blind spot. In this way, the travel management unit 309 obtains a final travel plan when the processes of steps S403 to S408 are performed for all blind spots.
- step S405 the travel management unit 309 overwrites the current travel plan with the newly obtained travel plan.
- the prediction of the vehicle arrival time in step S405 is performed based on the travel speed of the latest travel plan.
- the broken line connecting step S403 and step S408 in FIG. 6 indicates the correspondence between the start point and end point of the iterative processing from step S403 to S408.
- each step of FIG. 6 will be described.
- step S ⁇ b> 401 the sensor data acquisition unit 301 acquires sensor data of the periphery monitoring sensor 111 via the surrounding state acquisition interface 104.
- step S ⁇ b> 402 the blind spot detection unit 302 detects a blind spot ahead of the vehicle 110. That is, the vehicle 110 estimates the position of the blind spot and the width of the blind spot. Details of step S402 will be described.
- FIG. 8 shows laser light emitted radially from the LiDAR mounted on the vehicle 110 traveling on the travel route 800.
- the laser beam 801 is reflected by the building 803 that is a shield.
- the distance measured by this result is referred to as distance A.
- a laser beam 802 adjacent to the laser beam 801 is reflected by the building 803.
- the distance measured by this result is referred to as distance B.
- the laser beam 804 is reflected by the building 805 which is a shield.
- the distance measured by this result is referred to as distance C.
- the distance A and the distance B are distances to a close point on the same surface of the building 803. For this reason, the difference between the distance A and the distance B is small.
- the blind spot detection unit 302 determines that there is a blind spot 806 when the difference in the distance between two adjacent laser beams exceeds the threshold T.
- the threshold T is approximately obtained from the angle ⁇ formed by the travel path 800 of the vehicle 110 and the laser beam and the minimum width W of the blind spot to be detected.
- the distance 900 between the building 803 and the building 805 is the minimum width W of the blind spot to be detected.
- the threshold T corresponds to the distance 902 when the angle 901 is an angle ⁇ formed by the travel route 800 and the laser beam. For this reason, the threshold value T is obtained by the equation (1).
- T W / cos ( ⁇ ) Equation (1)
- the blind spot detection unit 302 calculates the position of the blind spot angle 807 based on the shorter laser light of the two adjacent laser lights whose distance difference exceeds the threshold T. .
- the blind spot detection unit 302 calculates a reflection position based on the azimuth angle and distance of the laser beam 802, which is a laser beam having a short distance between the laser beam 802 and the laser beam 804, and calculates the calculated reflection position. Designated as a blind spot angle 807.
- the blind spot detection unit 302 further calculates an assumed appearance position based on the position of the blind spot angle 807.
- the assumed appearance position is a position where a virtual object is assumed to appear.
- the blind spot detection unit 302 may approximately treat the blind spot angle 807 as an assumed appearance position. This method is the simplest method.
- the blind spot detection unit 302 calculates an assumed appearance position based on the ability of the object detection algorithm for detecting the appearance of the object, the assumed virtual object width W 1 , and the distance d between the assumed virtual object and the building. Also good.
- the object detection algorithm is generally an algorithm that can detect an object by measuring a part of the object with a sensor.
- the vehicle when an algorithm for detecting a vehicle using a camera is used, the vehicle can be detected if a certain ratio or more of the front surface of the vehicle is reflected in the camera.
- this algorithm a ratio ⁇ that needs to be sensed among the front surface of the object is set as the object detection condition.
- the minimum value of ⁇ is 0, and the maximum value is 1.
- the vertical distance y (reference numeral 1003) can be obtained by Expression (2).
- y d + W 1/2 Equation (2)
- the lateral distance x (reference numeral 1002) can be obtained by Expression (3).
- the ratio ⁇ is set based on detection conditions of an object detection algorithm that is separately mounted on the vehicle 110.
- the width W 1 of the virtual object 1000 to assume is set according to the type of object to be assumed. Further, the interval d between the virtual object 1000 and the building 803 may be 0, or the width between the roadside belt and the sidewalk obtained from nearby map data may be set as the interval d.
- the map data is stored in the auxiliary storage device 103, for example.
- the blind spot detection unit 302 may register the calculated expected appearance position 1001 and the interval d in a database on the auxiliary storage device 103.
- the blind spot detection unit 302 may register the position of the blind spot, for example, the position of the blind spot corner 807 in the database.
- the blind spot detection unit 302 may register a blind spot width described later in a database.
- the blind spot detection unit 302 includes, for example, an assumed appearance position 1001 represented by a relative position from the vehicle 110, an interval d, a blind spot angle 807, a blind spot width, and an absolute position of the vehicle 110 (for example, latitude and longitude). Are registered in a database.
- the absolute position of the vehicle 110 is obtained, for example, by GPS (Global Positioning System) positioning.
- the blind spot detection unit 302 When the vehicle 110 arrives at the same place after registration of these values in the database, the blind spot detection unit 302 has the assumed appearance position 1001, the interval d, the blind spot angle 807, and the blind spot width registered in the database. You may acquire at least 1 or more. And the collision point determination part 303 may determine the presence or absence of a collision point using these values acquired by the blind spot detection part 302. FIG.
- FIG. 7 shows a processing procedure of the blind spot detection unit 302 described above.
- the broken line connecting step S501 and step S505 in FIG. 7 indicates the correspondence between the start point and end point of the iterative processing from step S501 to step S505.
- a broken line connecting step 502 and step 504 indicates the correspondence between the start point and end point of the iterative processing from step S502 to step S504.
- the blind spot detection unit 302 notifies the virtual object arrival time prediction unit 306 of the assumed appearance position 1001 obtained by the above procedure.
- the blind spot detection unit 302 instructs the vehicle arrival time prediction unit 307 to predict the vehicle arrival time.
- step S404 of FIG. 6 the virtual object arrival time prediction unit 306 assumes that the virtual object 1000 has jumped out of the blind spot at the assumed appearance position 1001 at the current time, and the virtual object 1000 has a plurality of points on the travel route 800.
- the time (virtual object arrival time) at which each point is reached is predicted. Since it is unclear to which point on the travel route 800 the virtual object 1000 jumps out, the virtual object arrival time prediction unit 306 predicts virtual object arrival times at a plurality of points on the travel route 800.
- step S405 the vehicle arrival time prediction unit 307 predicts the time (vehicle arrival time) at which the vehicle 110 reaches each of a plurality of points on the travel route 800.
- the virtual object arrival time prediction unit 306 is configured to move the virtual object 1000 from the expected appearance position 1001 toward a plurality of points on the travel route 800 of the vehicle 110 (each black circle in FIG. 11 represents a point).
- the virtual object arrival time prediction unit 306 obtains the virtual object arrival time at each point by dividing the distance between each point on the travel route 800 and the assumed appearance position 1001 by the assumed movement speed of the virtual object 1000. A method for obtaining the assumed moving speed of the virtual object 1000 will be described later.
- the vehicle arrival time prediction unit 307 predicts the time to reach a plurality of points on the travel route 800.
- the vehicle arrival time prediction unit 307 obtains the vehicle arrival time at each point by dividing the distance between the current position of the vehicle 110 and each point on the travel route 800 by the current travel speed of the vehicle 110.
- the virtual object arrival time prediction unit 306 outputs the virtual object arrival time at each point to the collision point prediction unit 308. Further, the vehicle arrival time prediction unit 307 outputs the vehicle arrival time at each point to the collision point prediction unit 308.
- the collision point prediction unit 308 predicts a collision point. Specifically, the collision point prediction unit 308 extracts a point where the virtual object arrival time and the vehicle arrival time match as a collision point.
- FIG. 12 shows the relationship between the virtual object arrival time and the vehicle arrival time.
- the origin 1200 indicates the current position of the vehicle 110.
- a curve 1201 is a curve obtained by plotting the virtual object arrival time at each point on the travel route 800.
- a straight line 1202 is a straight line obtained by plotting the vehicle arrival time at each point on the travel route 800.
- the collision point prediction unit 308 extracts a point indicated by reference numeral 1203 where the virtual object arrival time and the vehicle arrival time coincide with each other as a collision point.
- FIG. 12 shows the relationship between the virtual object arrival time and the vehicle arrival time.
- FIG. 12 shows the relationship between the virtual object arrival time and the vehicle arrival time.
- the origin 1200 indicates the current position of the vehicle 110.
- a curve 1201 is a curve obtained by plotting the virtual object arrival
- the vehicle 110 reaches and passes through a point on the left side of the point indicated by reference numeral 1203, so that no collision occurs. Further, since the virtual object reaches and passes through the point on the right side of the point indicated by reference numeral 1203, no collision occurs.
- the plot result of the virtual object arrival time is a curve 1201
- the plot result of the vehicle arrival time is a straight line 1202. Become. However, the virtual object 1000 and the vehicle 110 may not travel at a constant speed.
- the collision point prediction unit 308 determines a point where the imaginary object arrival time and the vehicle arrival time coincide with each other according to the same procedure as described above. Can be extracted as When the collision point prediction unit 308 extracts the collision point, the collision point prediction unit 308 notifies the traveling management unit 309 of the extracted collision point.
- the virtual object arrival time predicting unit 306 can predict the virtual object arrival time using a fixed speed as the assumed movement speed of the virtual object 1000. For example, the virtual object arrival time prediction unit 306 can predict the virtual object arrival time using the legal speed of the vehicle when the type of the virtual object 1000 is assumed to be a vehicle. Further, the virtual object arrival time predicting unit 306 may determine the type of the virtual object 1000 based on the width of the blind spot, and predict the virtual object arrival time using the assumed moving speed according to the type of the virtual object 1000. .
- the blind spot width is calculated by the blind spot detection unit 302 from the distance difference between adjacent laser beams obtained when calculating the assumed appearance position 1001. More specifically, the blind spot detection unit 302 can obtain the width of the blind spot from the difference in distance between adjacent laser beams and the angle 901 in FIG. Reference numeral 8000 in FIG. 10 is an imaginary line obtained by translating the travel route 800. The width of the blind spot corresponds to the distance 900 between the building 803 and the building 805 in FIG. For example, when the width of the blind spot exceeds the minimum lane width defined by the law, the virtual object arrival time prediction unit 306 determines the vehicle as the type of the virtual object 1000.
- the virtual object arrival time prediction unit 306 estimates a high speed such as 60 km / h as the moving speed of the vehicle.
- the virtual object arrival time prediction unit 306 determines a pedestrian or a bicycle as the type of the virtual object 1000. Then, the virtual object arrival time prediction unit 306 estimates a low speed such as 20 km / h as the moving speed of the pedestrian or the bicycle.
- the minimum lane width defined by laws and regulations is, for example, 2.75 meters for the fourth-class first-class small road of the Road Structure Ordinance in Japan.
- the collision point prediction unit 308 extracts a point where the virtual object arrival time and the vehicle arrival time coincide with each other as a collision point. Instead of this, the collision point prediction unit 308 may extract the collision point in consideration of the width of the vehicle 110 and the width of the virtual object 1000.
- FIG. 13 shows an example in which the collision point prediction unit 308 extracts a collision point in consideration of the width of the vehicle 110 and the width of the virtual object 1000.
- the collision point prediction unit 308 extracts the point 1301 as a collision point in consideration of the width 1302 of the vehicle 110 and the width 1303 of the virtual object 1000.
- step S407 in FIG. 6 when the collision point prediction unit 308 is notified of the collision point, the traveling management unit 309 generates a traveling plan V that can stop the vehicle 110 before the collision point.
- the travel management unit 309 generates a travel plan V that can stop the vehicle 110 at a point 1 meter before the collision point (hereinafter referred to as a collision avoidance point).
- the distance from the current position of the vehicle 110 to the collision avoidance point is L meters. For this reason, the distance from the current position of the vehicle 110 to the collision point is (L + 1) meters.
- the travel management unit 309 decelerates the vehicle 110 at an acceleration a (negative value) meter every second, and a travel plan V that can stop the vehicle 110 at a collision avoidance point that is L meters away from the current position of the vehicle 110, As a function V (l) of the distance l to an arbitrary point on the travel route 800, it is obtained according to the equations (4) and (5).
- V (l) ⁇ ( ⁇ 2al) (l ⁇ L) Equation (4)
- V (l) 0 (L ⁇ l)
- the acceleration a is set so as to satisfy ⁇ G ⁇ a ⁇ 0.
- the travel management unit 309 sets the acceleration a to a value close to 0 and generates the travel plan V.
- the travel management unit 309 notifies the travel control unit 310 of the generated travel plan V.
- the travel management unit 309 does not generate a travel plan. That is, the travel management unit 309 does not limit the travel speed of the vehicle 110.
- step S409 in FIG. 6 the travel control unit 310 controls the travel speed of the vehicle 110 based on the travel plan V when the travel plan V is notified from the travel management unit 309. Specifically, if vehicle 110 is an automatic traveling vehicle, traveling control unit 310 outputs a command for realizing a traveling plan to a control mechanism in vehicle 110 via vehicle control interface 105. For example, the travel control unit 310 outputs a command for instructing deceleration at a timing specified in the travel plan. On the other hand, if the vehicle 110 is not an automatic traveling vehicle, the traveling control unit 310 outputs a message addressed to the driver for realizing the traveling plan to the interface device used by the driver via the vehicle control interface 105. For example, the travel control unit 310 outputs a message requesting the driver to decelerate at a timing specified in the travel plan.
- the in-vehicle device 100 determines whether or not a collision point exists on the travel route, verifies the possibility that the vehicle and the object collide, and the vehicle and the object are An appropriate traveling state of the vehicle can be determined according to the possibility of collision. Specifically, the in-vehicle device 100 can continue the current traveling state of the vehicle if there is no possibility that the vehicle and the object collide. On the other hand, when there is a possibility that the vehicle and the object collide, the in-vehicle device 100 can enter a traveling state in which the vehicle can be stopped before the collision point in order to avoid the collision.
- the blind spot detection unit 302 estimates the position of the blind spot and the width of the blind spot based on the sensor data of the periphery monitoring sensor 111 and specifies the assumed appearance position 1001.
- the blind spot detection unit 302 refers to the map data, estimates the position of the blind spot and the width of the blind spot, and specifies the assumed appearance position 1001.
- a configuration example of the vehicle 110 is as shown in FIG.
- An example of the hardware configuration of the in-vehicle device 100 is also as shown in FIG.
- a functional configuration example of the in-vehicle device 100 is also as shown in FIG.
- differences from the first embodiment will be mainly described. Note that matters not described below are the same as those in the first embodiment.
- the blind spot detection unit 302 can access the map data in the auxiliary storage device 103.
- a positioning unit (not shown in FIG. 3) calculates the latitude and longitude of the position where the vehicle 110 is located by GPS positioning.
- the blind spot detection unit 302 can access the map data only in the vicinity of the location of the vehicle 110.
- the blind spot detection unit 302 refers to the map data and detects a shielding object present in front of the vehicle 110. For example, the blind spot detection unit 302 detects the building 803 and the building 805 shown in FIG. 8 with reference to the map data. Then, the space behind the building 803 is specified as a blind spot 806.
- the blind spot detection unit 302 refers to the map data, calculates the width of the blind spot, and sets the assumed appearance position 1001. Thereafter, the processing after step S403 in FIG. 6 is performed on the assumed appearance position 1001 set by the blind spot detection unit 302.
- the in-vehicle device 100 can specify the position of the blind spot by referring to the map data without using the sensor data. For this reason, it is possible to determine whether or not there is a collision point on the travel route without using sensor data, and to determine an appropriate travel state of the vehicle according to the possibility of collision between the vehicle and the object. can do.
- a processor 101 illustrated in FIG. 2 is an IC (Integrated Circuit) that performs processing.
- the processor 101 is a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or the like.
- the memory 102 shown in FIG. 2 is a RAM (Random Access Memory).
- the auxiliary storage device 103 shown in FIG. 2 is a ROM (Read Only Memory), a flash memory, an HDD (Hard Disk Drive), or the like.
- the auxiliary storage device 103 also stores an OS (Operating System). At least a part of the OS is loaded into the memory 102 and executed by the processor 101. While executing at least a part of the OS, the processor 101 performs sensor data acquisition unit 301, blind spot detection unit 302, collision point determination unit 303, virtual object arrival time prediction unit 306, vehicle arrival time prediction unit 307, and collision point prediction unit 308. The program for realizing the functions of the travel management unit 309 and the travel control unit 310 is executed. When the processor 101 executes the OS, task management, memory management, file management, communication control, and the like are performed. Further, the in-vehicle device 100 may include a plurality of processors that replace the processor 101.
- the plurality of processors include a sensor data acquisition unit 301, a blind spot detection unit 302, a collision point determination unit 303, a virtual object arrival time prediction unit 306, a vehicle arrival time prediction unit 307, a collision point prediction unit 308, a travel management unit 309, and a travel It shares the execution of the program that realizes the function of the control unit 310.
- Each processor is an IC that performs processing in the same manner as the processor 101.
- the sensor data acquisition unit 301, blind spot detection unit 302, collision point determination unit 303, virtual object arrival time prediction unit 306, vehicle arrival time prediction unit 307, collision point prediction unit 308, travel management unit 309, and travel control unit 310 At least one of information, data, a signal value, and a variable value indicating a processing result is stored in at least one of the memory 102, the auxiliary storage device 103, a register in the processor 101, and a cache memory.
- the program that realizes the function may be stored in a portable storage medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD.
- the sensor data acquisition unit 301, blind spot detection unit 302, collision point determination unit 303, virtual object arrival time prediction unit 306, vehicle arrival time prediction unit 307, collision point prediction unit 308, travel management unit 309, and travel control unit 310 “Part” may be read as “circuit” or “process” or “procedure” or “processing”.
- the in-vehicle device 100 may be realized by a processing circuit such as a logic IC (Integrated Circuit), a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array).
- the sensor data acquisition unit 301, blind spot detection unit 302, collision point determination unit 303, virtual object arrival time prediction unit 306, vehicle arrival time prediction unit 307, collision point prediction unit 308, travel management unit 309, and travel control unit 310 is realized as a part of each processing circuit.
- processing circuitry the superordinate concept of the processor, the memory, the combination of the processor and the memory, and the processing circuit. That is, the processor, the memory, the combination of the processor and the memory, and the processing circuit are specific examples of “processing circuitries”.
- 100 in-vehicle device 101 processor, 102 memory, 103 auxiliary storage device, 104 peripheral status acquisition interface, 105 vehicle control interface, 110 vehicle, 111 peripheral monitoring sensor, 301 sensor data acquisition unit, 302 blind spot detection unit, 303 collision point determination unit 306, virtual object arrival time prediction unit, 307, vehicle arrival time prediction unit, 308 collision point prediction unit, 309 travel management unit, 310 travel control unit, 800 travel route, 1000 virtual object, 1001 assumed appearance position.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、車両の走行支援に関する。 The present invention relates to driving support for vehicles.
自律的に走行する車両の開発が進められている。このような車両には、センサが搭載されている。このような車両に搭載されているセンサとして、レーザ、電波または音波を用いた距離測定センサ、可視光センサまたは赤外線センサがある。車両は、センサを用いて当該車両周辺の障害物を検知し、検知した障害物との衝突を避けるように操舵または加速を制御する。
また、このような車両は、検知した障害物との衝突を回避する制御だけでなく、特許文献1に開示されているように、遮蔽物の背後の死角に隠れている物体が飛び出してくることも予想して衝突を回避する制御を行う。特許文献1の技術は、飛び出しが予想される危険箇所を検知し、危険箇所に対応させて車両の減速または停止を行う。
Autonomous vehicles are being developed. Such a vehicle is equipped with a sensor. As a sensor mounted on such a vehicle, there is a distance measuring sensor, a visible light sensor, or an infrared sensor using a laser, a radio wave or a sound wave. The vehicle detects an obstacle around the vehicle using a sensor, and controls steering or acceleration so as to avoid a collision with the detected obstacle.
Such a vehicle is not only controlled to avoid a collision with a detected obstacle, but as disclosed in
特許文献1に開示の技術では、車両は、危険箇所と当該車両との相対距離に基づいて一元的に減速し、危険箇所に一定距離以上は近づかないよう停止する。そして、特許文献1に開示の技術では、車両は、停止しないためには危険箇所を遠巻きに回避する経路を通る必要がある。しかし、車線または道路幅の制約等によって遠巻きの経路を通ることができない場合は、車両は停止する以外にないという課題がある。
In the technique disclosed in
本発明は、上記のような課題を解決することを主な目的とする。より具体的には、本発明は、死角から物体が飛び出してきた場合に車両と物体とが衝突する可能性を検証し、車両と物体とが衝突する可能性に応じて車両の適切な走行状態を決定することを主な目的とする。 The main object of the present invention is to solve the above-described problems. More specifically, the present invention verifies the possibility that the vehicle and the object will collide when the object jumps out from the blind spot, and determines the appropriate traveling state of the vehicle according to the possibility that the vehicle and the object collide. The main purpose is to determine
本発明に係る車載装置は、
車両に搭載される車載装置であって、
前記車両の前方に遮蔽物が存在する場合に、前記遮蔽物の背後の死角から物体が出現して前記車両が走行する走行経路に向かって移動すると前記車両と前記物体とが衝突することになる衝突地点が前記走行経路上に存在するか否かを判定する衝突地点判定部と、
前記衝突地点の有無に基づいて前記車両の走行状態を決定する走行管理部とを有する。
The in-vehicle device according to the present invention is
An in-vehicle device mounted on a vehicle,
When there is a shielding object in front of the vehicle, if the object appears from a blind spot behind the shielding object and moves toward the travel route on which the vehicle travels, the vehicle and the object will collide. A collision point determination unit that determines whether or not a collision point exists on the travel route;
A travel management unit that determines a travel state of the vehicle based on the presence or absence of the collision point.
本発明では、走行経路上に衝突地点が存在するか否かを判定して車両と物体とが衝突する可能性を検証し、車両と物体とが衝突する可能性に応じて車両の適切な走行状態を決定することができる。 In the present invention, it is determined whether or not there is a collision point on the travel route, the possibility of collision between the vehicle and the object is verified, and the vehicle travels appropriately according to the possibility of collision between the vehicle and the object. The state can be determined.
以下、本発明の実施の形態について、図を用いて説明する。以下の実施の形態の説明および図面において、同一の符号を付したものは、同一の部分または相当する部分を示す。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description of the embodiments and drawings, the same reference numerals denote the same or corresponding parts.
実施の形態1.
***構成の説明***
図1は、本実施の形態に係る車両110の構成例を示す。
車両110には、車載装置100が搭載されている。車載装置100は、車両110の走行支援を行う。なお、車載装置100により行われる動作は走行支援方法および走行支援プログラムに相当する。
車両110には、複数の周辺監視センサ111が搭載される。
図1の例では、車両110の前方、後方、側方および屋根上に周辺監視センサ111が搭載されている。周辺監視センサ111は、車両110の周囲を走査して、障害物を検知する。
*** Explanation of configuration ***
FIG. 1 shows a configuration example of a
The
A plurality of surrounding
In the example of FIG. 1, the
図2は、車載装置100のハードウェア構成例を示す。
車載装置100は、コンピュータである。
車載装置100は、ハードウェアとして、プロセッサ101、メモリ102、補助記憶装置103、周辺状況取得インタフェース104および車両制御インタフェース105を備える。
また、車載装置100は、機能構成として、センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310を備える。センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310の詳細は後述する。
補助記憶装置103には、センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310の機能を実現するプログラムが記憶されている。
そして、これらのプログラムがメモリ102にロードされる。プロセッサ101は、これらプログラムをメモリ102から読み出して、これらプログラムを実行する。この結果、プロセッサ101は、後述するセンサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310の動作を行う。
図2では、プロセッサ101がセンサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310の機能を実現するプログラムを実行している状態を模式的に表している。
周囲状況取得インタフェース104は、周辺監視センサ111に接続されている。周辺状況取得インタフェース104は、周辺監視センサ111の走査結果であるセンサデータを周辺監視センサ111から取得する。
車両制御インタフェース105は、車両110内の制御機構に接続されている。車両制御インタフェース105は、制御機構に対して車両の走行を制御するためのコマンドを送信する。例えば、車両制御インタフェース105は、車両110の減速を指示するコマンドを送信する。また、車両制御インタフェース105は、運転手が用いるインタフェース装置と接続されていてもよい。例えば、車両制御インタフェース105は、ダッシュボードのディスプレイ、スピーカーまたはHUD(Head-Up Display)に、運転手宛に車両110の減速を求めるメッセージを送信する。
FIG. 2 shows a hardware configuration example of the in-
The in-
The in-
The in-
The
These programs are loaded into the
In FIG. 2, the
The surrounding
The
周辺監視センサ111は、例えばLaser Imaging Detection and Ranging(LiDAR)である。
LiDARは、レーザ光を照射し、レーザ光が物体で反射して帰ってくるまでの所要時間と光の速度から物体までの距離を計測する。LiDARは、レーザ光の照射方向を水平方向で回転させて、周囲の物体との距離を測定する。LiDARにより得られる距離情報には、レーザを照射した方向を示す方位角と仰角が表される。また、距離情報では、測定された距離により物体の表面が点群として表される。
図4および図5は、LiDARの周囲に存在する物体と、LiDARから照射されるレーザ光を示す。図4は、LiDARおよび物体201~203を上から見下している状態を表す。図5は、LiDARと物体202および物体203を側面から見ている状態を表す。
図4および図5では、地点200に設置されたLiDARにより得られる距離情報の例を示す。なお、図4および図5における実線はレーザ光の反射により距離を計測できていることを示す。一方、図4および図5における破線はレーザ光が反射せずに距離を計測できなかったことを示している。距離を計測できなかった場合は、距離は無限遠として取り扱われる。これにより、物体201~203の形状の一部として黒点で図示される位置の距離情報が得られる。LiDARの種類によっては、垂直方向の異なる角度についても同様の処理を実行することで、周囲の形状情報を得ることができる。
周辺監視センサ111として、LiDARに代えてミリ波レーダを用いてもよい。
ミリ波レーダは、電波を照射し、電波が物体で反射して帰ってくるまでの所要時間と光の速度から物体までの距離を計測するセンサである。ミリ波レーダを用いた場合は、ミリ波レーダを中心として扇状に周囲の距離情報を得ることができる。
また、周辺監視センサ111として、LiDARに代えてステレオカメラを用いてもよい。また、周辺監視センサ111として、LiDARに代えて音波ソナーまたは超音波ソナーを用いてもよい。
周辺監視センサ111としていずれのセンサを用いても、周辺監視センサ111からは距離情報が含まれるセンサデータが得られる。
The surrounding
LiDAR irradiates a laser beam, and measures the distance from the time required for the laser beam to return after being reflected by the object and the speed of the light. LiDAR measures the distance to surrounding objects by rotating the direction of laser light irradiation in the horizontal direction. In the distance information obtained by LiDAR, an azimuth angle and an elevation angle indicating the direction of laser irradiation are represented. In the distance information, the surface of the object is represented as a point group by the measured distance.
4 and 5 show an object existing around the LiDAR and the laser light emitted from the LiDAR. FIG. 4 shows a state where the LiDAR and the
4 and 5 show examples of distance information obtained by LiDAR installed at the
As the surrounding
Millimeter wave radar is a sensor that measures the distance to an object from the time required for the radio wave to irradiate and reflected by the object and returning. When the millimeter wave radar is used, peripheral distance information can be obtained in a fan shape around the millimeter wave radar.
Further, as the
Regardless of which sensor is used as the
図3は、本実施の形態に係る車載装置100の機能構成例を示す。
前述したように、車載装置100は、センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310を含む。センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310はプログラムとして実現される。そして、センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310を実現するプログラムがプロセッサ101により実行される。
FIG. 3 shows a functional configuration example of the in-
As described above, the in-
センサデータ取得部301は、周辺状況取得インタフェース104を介して周辺監視センサ111からセンサデータを取得する。
The sensor
死角検知部302は、センサデータに基づき死角を検知する。より具体的には、死角検知部302は、車両110の前方に遮蔽物が存在する場合に、センサデータに基づき、遮蔽物の背後にある死角を検知する。つまり、死角検知部302は、死角の位置を推定する。また、死角検知部302は、センサデータに基づき、死角の幅を推定する。
また、死角検知部302は、死角から仮想物体が出現する位置である想定出現位置を算出する。
The blind
Also, the blind
衝突地点判定部303は、死角から仮想物体が出現して車両110が走行する走行経路に向かって移動すると車両と仮想物体とが衝突することになる衝突地点が走行経路上に存在するか否かを、死角の位置および死角の幅に基づき判定する。そして、衝突地点判定部303は、走行経路上に衝突地点が存在する場合に、衝突地点を走行管理部309に通知する。衝突地点判定部303は、仮想物体が死角から出現して走行経路上の複数の地点の各々に向かって移動した場合に、複数の地点のうちの車両110と物体とが衝突することになる地点を衝突地点として走行管理部309に通知する。
衝突地点判定部303により行われる処理は、衝突地点判定処理に相当する。
衝突地点判定部303は、仮想物体到達時刻予測部306、車両到達時刻予測部307および衝突地点予測部308を含む。
以下、仮想物体到達時刻予測部306、車両到達時刻予測部307および衝突地点予測部308を説明する。
The collision
The process performed by the collision
The collision
Hereinafter, the virtual object arrival
仮想物体到達時刻予測部306は、走行経路上の複数の地点の各々への仮想物体の到達時刻を予測する。
例えば、仮想物体到達時刻予測部306は、死角の幅から推定される物体の移動速度に基づいて複数の地点の各々への仮想物体の到達時刻を算出する。より具体的には、仮想物体到達時刻予測部306は、死角の幅から仮想物体の種類(車両、人、自転車等)を決定し、決定した仮想物体の種類から物体の移動速度を推定する。そして、仮想物体到達時刻予測部306は、推定した仮想物体の移動速度に基づいて複数の地点の各々への仮想物体の到達時刻を算出する。
The virtual object arrival
For example, the virtual object arrival
車両到達時刻予測部307は、複数の地点の各々への車両110の到達時刻を予測する。
例えば、車両到達時刻予測部307は、車両110の現在の走行速度に基づいて複数の地点の各々への車両110の到達時刻を算出する。
The vehicle arrival
For example, the vehicle arrival
衝突地点予測部308は、仮想物体到達時刻予測部306の算出結果と車両到達時刻予測部307の算出結果とに基づき、走行経路上に衝突地点が存在するか否かを判定する。
具体的には、衝突地点予測部308は、車両110の到達時刻と仮想物体の到達時刻とが一致する地点があれば、衝突地点が存在すると判定し、車両110の到達時刻と仮想物体の到達時刻とが一致する地点を衝突地点として抽出する。そして、衝突地点予測部308は、抽出した衝突地点を走行管理部309に通知する。
The collision
Specifically, if there is a point where the arrival time of the
走行管理部309は、衝突地点の有無に基づいて車両110の走行状態を決定する。
具体的には、走行管理部309は、衝突地点が存在しない場合は、車両110の現在の走行状態を維持することを決定する。具体的には、走行管理部309は車両110を現在の走行速度で走行させ続けることを決定する。
一方、衝突地点が存在する場合は、走行管理部309は、衝突地点予測部308により通知された衝突地点の手前で停止可能な状態で車両110を走行させることを決定する。より具体的には、走行管理部309は、衝突地点の手前で車両110を停止可能な走行計画を生成する。例えば、走行管理部309は、車両110を一定の割合で減速させて衝突地点の手前で車両110を停止可能な走行計画を生成する。衝突地点の手前とは、衝突地点の手前1メートルから5メートルの範囲内のいずれかの地点である。
走行管理部309は、走行計画を生成した場合は、生成した走行計画を走行制御部310に通知する。
走行管理部309により行われる処理は、走行管理処理に相当する。
The traveling
Specifically, the traveling
On the other hand, when there is a collision point, the traveling
When the travel plan is generated, the
The process performed by the
走行制御部310は、走行管理部309により通知された走行計画に従って車両110の走行を制御する。
具体的には、車両110が自動走行車両であれば、走行制御部310は、走行計画を実現するコマンドを車両制御インタフェース105を介して車両110内の制御機構に出力する。例えば、走行制御部310は、走行計画に規定されているタイミングで減速を指示するコマンドを出力する。一方、車両110が自動走行車両でなければ、走行制御部310は、走行計画を実現する、運転手宛のメッセージを車両制御インタフェース105を介して運転手が用いるインタフェース装置に出力する。例えば、走行制御部310は、走行計画に規定されているタイミングで減速を運転手に依頼するメッセージを出力する。
The
Specifically, if
***動作の説明***
図6は、車載装置100の動作例を示す。
車載装置100は、ステップS401からステップS409までの一連の処理を周期的に実施する。
走行管理部309は、死角ごとの繰返し処理を跨いで走行計画を生成する。このため、走行管理部309は、1つの死角に対するステップS403からS408の処理で生成した走行計画をメモリ102に格納する。そして、走行管理部309は、別の死角に対するステップS403からS408の処理において走行計画を更新する必要があれば、メモリ102内の走行計画を更新する。このようにして、走行管理部309は、全ての死角についてステップS403からS408の処理を行った際に最終的な走行計画を得る。
走行管理部309は、ステップS403からS408の繰り返しの中で現在の走行計画よりも遅い走行速度の走行計画が得られた場合は、現在の走行計画を新たに得られた走行計画で上書きする。ステップS405における車両到達時刻の予測は最新の走行計画の走行速度に基づいて行われる。
なお、図6におけるステップS403とステップS408を繋ぐ破線は、ステップS403からS408までの繰り返し処理の始点と終点の対応関係を示している。
以下、図6の各ステップを説明する。
*** Explanation of operation ***
FIG. 6 shows an operation example of the in-
The in-
The
If a travel plan having a travel speed slower than the current travel plan is obtained during the repetition of steps S403 to S408, the
Note that the broken line connecting step S403 and step S408 in FIG. 6 indicates the correspondence between the start point and end point of the iterative processing from step S403 to S408.
Hereinafter, each step of FIG. 6 will be described.
ステップS401では、センサデータ取得部301が周辺状況取得インタフェース104を介して周辺監視センサ111のセンサデータを取得する。
In step S <b> 401, the sensor
ステップS402では、死角検知部302が車両110の前方の死角を検知する。つまり、車両110は、死角の位置および死角の幅を推定する。
ステップS402の詳細を説明する。
In step S <b> 402, the blind
Details of step S402 will be described.
図8は、走行経路800を走行する車両110に搭載されているLiDARから放射状に照射されたレーザ光を示す。
レーザ光801は、遮蔽物である建物803により反射する。この結果により測定される距離を距離Aと称する。レーザ光801に隣接するレーザ光802は、建物803により反射する。この結果により測定される距離を距離Bと称する。レーザ光804は、遮蔽物である建物805に反射する。この結果により測定される距離を距離Cと称する。このとき、距離Aと距離Bは、建物803の同一面上の近い点までの距離である。このため、距離Aと距離Bとの差は小さい。一方、距離Bと距離Cは、それぞれ、異なる建物の面までの距離である。このため、距離Bと距離Cの差は大きい。死角検知部302は、隣接する2つのレーザ光の距離の差が閾値Tを超える場合に、死角806が存在すると判定する。閾値Tは、車両110の走行経路800とレーザ光とが成す角の角度θと、検知すべき死角の最小幅Wから近似的に求められる。
図8から説明上不要な要素を除いて得られる図9において、建物803と建物805との間の距離900が、前述の検知すべき死角の最小幅Wである。また、角度901が走行経路800とレーザ光との成す角の角度θとすると、閾値Tは距離902に相当する。このため、閾値Tは式(1)により求められる。
T=W/cos(θ) 式(1)
FIG. 8 shows laser light emitted radially from the LiDAR mounted on the
The
In FIG. 9 obtained by excluding unnecessary elements from FIG. 8, the
T = W / cos (θ) Equation (1)
死角検知部302は、死角が存在すると判定した場合に、距離の差が閾値Tを超える隣接する2つのレーザ光のうち距離が短い方のレーザ光に基づき、死角の角807の位置を算出する。図8の例では、死角検知部302は、レーザ光802とレーザ光804のうち距離が短いレーザ光であるレーザ光802の方位角と距離を基に反射位置を算出し、算出した反射位置を死角の角807に指定する。
When it is determined that there is a blind spot, the blind
死角検知部302は、更に、死角の角807の位置を基に想定出現位置を算出する。想定出現位置は、仮想物体が出現すると想定される位置である。死角検知部302は、死角の角807を想定出現位置として近似的に扱ってもよい。この方法が最も簡便な方法である。
また、死角検知部302は、物体の出現を検知する物体検知アルゴリズムの能力、想定する仮想物体の幅W1、想定する仮想物体と建物との間隔dを基に、想定出現位置を算出してもよい。物体検知アルゴリズムは一般に物体の一部をセンサにより測定することで物体を検知できるアルゴリズムである。例えばカメラを用いて車両を検知するアルゴリズムを用いた場合は、車両の前面の一定の割合以上がカメラに写れば車両を検知することができる。このアルゴリズムを用いる場合は、物体検知の条件として、物体の前面のうちセンシングする必要がある割合αを設定する。αの最小値は0で、最大値は1である。α=1は物体検知アルゴリズムが物体の前面全てをセンシングすることを物体検知の条件とすることを意味する。
The blind
Further, the blind
図10は、死角の角807と、死角から飛び出してくる仮想物体1000の想定出現位置1001との位置関係を示している。つまり、図10は、想定出現位置1001が、死角の角807から横方向に符号1002で示す距離、縦方向に符号1003で示す距離だけ移動した地点にあることを示している。なお、β=1-αとする。縦距離y(符号1003)は、式(2)で求めることができる。
y=d+W1/2 式(2)
また、横距離x(符号1002)は、式(3)で求めることができる。
x=(d+βW1)/tan(90-θ) 式(3)
割合αは車両110に別途搭載する物体検知アルゴリズムの検知条件を基に設定されるものとする。想定する仮想物体1000の幅W1は想定する物体の種類に応じて設定される。また、仮想物体1000と建物803との間隔dは0でもよいし、付近の地図データから得られる路側帯と歩道との間の幅を間隔dとしてもよい。地図データは、例えば、補助記憶装置103に格納されている。
FIG. 10 shows a positional relationship between the
y =
Further, the lateral distance x (reference numeral 1002) can be obtained by Expression (3).
x = (d + βW 1 ) / tan (90−θ) Equation (3)
It is assumed that the ratio α is set based on detection conditions of an object detection algorithm that is separately mounted on the
死角検知部302は、算出した想定出現位置1001と間隔dを補助記憶装置103上のデータベースに登録してもよい。また、死角検知部302は、死角の位置、例えば、死角の角807の位置をデータベースに登録してもよい。更に、死角検知部302は、後述する死角の幅をデータベースに登録してもよい。
死角検知部302は、例えば、車両110からの相対位置で表した想定出現位置1001と、間隔d、死角の角807、死角の幅と、車両110の絶対的な位置(例えば、緯度と経度)とをデータベースなどに登録する。車両110の絶対的な位置は、例えば、GPS(Global Positioning System)測位により得られる。
これらの値のデータベースへの登録後に、車両110が同じ場所に到達した際に、死角検知部302は、データベースに登録されている想定出現位置1001、間隔d、死角の角807、死角の幅の少なくとも1つ以上を取得してもよい。そして、衝突地点判定部303は、死角検知部302により取得されたこれらの値を用いて衝突地点の有無を判定してもよい。
The blind
The blind
When the
図7は、以上で説明した死角検知部302の処理手順を示す。
図7におけるステップS501とステップS505を繋ぐ破線は、ステップS501からステップS505までの繰り返し処理の始点と終点の対応関係を示している。また、ステップ502とステップ504を繋ぐ破線は、ステップS502からステップS504までの繰り返し処理の始点と終点の対応関係を示している。
FIG. 7 shows a processing procedure of the blind
The broken line connecting step S501 and step S505 in FIG. 7 indicates the correspondence between the start point and end point of the iterative processing from step S501 to step S505. A broken line connecting step 502 and step 504 indicates the correspondence between the start point and end point of the iterative processing from step S502 to step S504.
死角検知部302は、以上の手順により得られた想定出現位置1001を仮想物体到達時刻予測部306に通知する。また、死角検知部302は、車両到達時刻予測部307に車両到達時刻の予測を指示する。
The blind
次に、図6のステップS404において、仮想物体到達時刻予測部306が、現在時刻において仮想物体1000が想定出現位置1001にて死角から飛び出したと仮定し、仮想物体1000が走行経路800上の複数の地点の各地点に到達する時刻(仮想物体到達時刻)を予測する。
仮想物体1000が走行経路800上のどの地点に向かって飛び出してくるかは不明であるため、仮想物体到達時刻予測部306は、走行経路800上の複数の地点の仮想物体到達時刻を予測する。
Next, in step S404 of FIG. 6, the virtual object arrival
Since it is unclear to which point on the
また、ステップS405において、車両到達時刻予測部307が、車両110が走行経路800上の複数の地点の各地点に到達する時刻(車両到達時刻)を予測する。
In step S405, the vehicle arrival
図11に示すように、仮想物体到達時刻予測部306は、車両110の走行経路800上の複数の地点(図11の各黒丸が地点を表す)に向けて仮想物体1000が想定出現位置1001から移動した場合に、仮想物体1000が各地点に到達する時刻を予測する。
仮想物体到達時刻予測部306は、走行経路800上の各地点と想定出現位置1001との距離を、仮想物体1000の想定移動速度で除算することで、各地点の仮想物体到達時刻を得る。仮想物体1000の想定移動速度の求め方は後述する。
車両到達時刻予測部307は、走行経路800上の複数の地点に到達する時刻を予測する。
車両到達時刻予測部307は、車両110の現在位置と走行経路800上の各地点との距離を、車両110の現在の走行速度で除算することで、各地点の車両到達時刻を得る。
仮想物体到達時刻予測部306は、各地点の仮想物体到達時刻を衝突地点予測部308に出力する。また、車両到達時刻予測部307は、各地点の車両到達時刻を衝突地点予測部308に出力する。
As illustrated in FIG. 11, the virtual object arrival
The virtual object arrival
The vehicle arrival
The vehicle arrival
The virtual object arrival
次に、図6のステップS406において、衝突地点予測部308は、衝突地点を予測する。
具体的には、衝突地点予測部308は、仮想物体到達時刻と車両到達時刻とが一致する地点を衝突地点として抽出する。
図12は、仮想物体到達時刻と車両到達時刻との関係を示す。
図12において、原点1200は、車両110の現在位置を示す。
曲線1201は、走行経路800上の各地点の仮想物体到達時刻をプロットして得られる曲線である。直線1202は、走行経路800上の各地点の車両到達時刻をプロットして得られる直線である。
衝突地点予測部308は、仮想物体到達時刻と車両到達時刻とが一致する符号1203で示す地点を衝突地点として抽出する。
なお、図12において、符号1203で示す地点よりも左側の地点には、車両110が先に到達し、通過するため、衝突が発生しない。また、符号1203で示す地点よりも右側の地点には、仮想物体が先に到達し、通過するため、衝突が発生しない。
本実施の形態では、仮想物体1000および車両110が共に等速で走行することを仮定しているため、仮想物体到達時刻のプロット結果は曲線1201になり、車両到達時刻のプロット結果は直線1202になる。
しかし、仮想物体1000および車両110は、それぞれ等速で走行しなくてもよい。仮想物体1000および車両110の少なくともいずれかが等速で走行しない場合にも、上記と同様の手順で、衝突地点予測部308は、想物体到達時刻と車両到達時刻とが一致する地点を衝突地点として抽出することができる。
衝突地点予測部308は、衝突地点を抽出した場合は、抽出した衝突地点を走行管理部309に通知する。
Next, in step S406 of FIG. 6, the collision
Specifically, the collision
FIG. 12 shows the relationship between the virtual object arrival time and the vehicle arrival time.
In FIG. 12, the
A
The collision
In FIG. 12, the
In this embodiment, since it is assumed that both the
However, the
When the collision
仮想物体到達時刻予測部306は、仮想物体1000の想定移動速度として固定の速度を用いて仮想物体到達時刻を予測することができる。例えば、仮想物体到達時刻予測部306は、仮想物体1000の種類を車両と想定した場合には、車両の法定速度を用いて仮想物体到達時刻を予測することができる。また、仮想物体到達時刻予測部306は、死角の幅に基づいて仮想物体1000の種類を決定し、仮想物体1000の種類に応じた想定移動速度を用いて仮想物体到達時刻を予測してもよい。
The virtual object arrival
死角の幅は、想定出現位置1001を算出する際に得られた、隣接するレーザ光の距離差から死角検知部302が算出する。より具体的には、死角検知部302は、隣接するレーザ光の距離の差と図10の角度901から死角の幅を得ることができる。図10の符号8000は、走行経路800を平行移動させて得られる仮想線である。死角の幅は図9の建物803と建物805との間の距離900に相当する。
例えば、死角の幅が、法規が定める車線の最小幅を超える場合は、仮想物体到達時刻予測部306は仮想物体1000の種類として車両を決定する。そして、仮想物体到達時刻予測部306は、車両の移動速度として、例えば時速60キロメートルなどの高い速度を推定する。一方、死角の幅が車線の最小幅を超えない場合は、仮想物体到達時刻予測部306は、仮想物体1000の種類として歩行者または自転車を決定する。そして、仮想物体到達時刻予測部306は、歩行者または自転車の移動速度として、例えば時速20キロメートルなどの低い速度を推定する。なお、法規が定める車線の最小幅とは、例えば日本では、道路構造令の第四種第一級小型道路の2.75メートルである。
The blind spot width is calculated by the blind
For example, when the width of the blind spot exceeds the minimum lane width defined by the law, the virtual object arrival
なお、図11および図12を用いた説明では、衝突地点予測部308は、仮想物体到達時刻と車両到達時刻とが一致する地点を衝突地点として抽出する。
これに代えて、衝突地点予測部308は、車両110の幅と、仮想物体1000の幅を考慮して衝突地点を抽出してもよい。
図13は、衝突地点予測部308が、車両110の幅と、仮想物体1000の幅を考慮して衝突地点を抽出する例を示す。
図13の例では、仮想物体1000が想定出現位置1001から走行経路800上の地点1301に向かって移動する場合に、仮想物体1000の前部と車両110の後部とが接触する。
地点1301の車両到達時刻と仮想物体到達時刻は異なるが、衝突地点予測部308は、車両110の幅1302と仮想物体1000の幅1303を考慮して、地点1301を衝突地点として抽出する。
11 and 12, the collision
Instead of this, the collision
FIG. 13 shows an example in which the collision
In the example of FIG. 13, when the
Although the vehicle arrival time and the virtual object arrival time at the
図6のステップS407では、走行管理部309は、衝突地点予測部308から衝突地点を通知されると、衝突地点の手前で車両110を停止させることができる走行計画Vを生成する。
ここでは、走行管理部309は、衝突地点の手前1メートルの地点(以下、衝突回避地点という)で車両110を停止させることができる走行計画Vを生成するものとする。車両110の現在位置から衝突回避地点までの距離をLメートルとする。このため、車両110の現在位置から衝突地点までの距離は、(L+1)メートルである。
走行管理部309は、車両110を加速度a(負の値)メートルで毎秒減速させて、車両110の現在位置からLメートル離れた衝突回避地点で車両110を停止させることができる走行計画Vを、走行経路800上の任意の地点までの距離lの関数V(l)として、式(4)および式(5)に従って求める。
V(l)=√(-2al) (l≦L) 式(4)
V(l)=0 (L<l) 式(5)
なお、一般に車両110を停止させることができる絶対値が最大になる最小の加速度A(負の値)は、路面の摩擦係数μ、重力加速度Gを用いてA=-μGで表される。加速度aは、-μG≦a≦0を満たすように設定される。仮想物体1000が想定出現位置1001から飛び出した後、車両110を急ブレーキで停止させるようにするには、走行管理部309は、車両110を加速度a=A=-μGで減速させる走行計画Vを生成する。一方、車両110の乗客の乗り心地を優先する場合は、走行管理部309は、加速度aを0に近い値に設定して、走行計画Vを生成する。
走行管理部309は、生成した走行計画Vを走行制御部310に通知する。
なお、衝突地点予測部308から衝突地点が通知されない場合は、走行管理部309は走行計画を生成しない。すなわち、走行管理部309は、車両110の走行速度を制限しない。
In step S407 in FIG. 6, when the collision
Here, it is assumed that the
The
V (l) = √ (−2al) (l ≦ L) Equation (4)
V (l) = 0 (L <l) Formula (5)
In general, the minimum acceleration A (negative value) at which the absolute value at which the
The
When the collision point is not notified from the collision
図6のステップS409において、走行制御部310は、走行管理部309から走行計画Vが通知された場合に、走行計画Vに基づいて車両110の走行速度を制御する。
具体的には、車両110が自動走行車両であれば、走行制御部310は、走行計画を実現するコマンドを車両制御インタフェース105を介して車両110内の制御機構に出力する。例えば、走行制御部310は、走行計画に規定されているタイミングで減速を指示するコマンドを出力する。一方、車両110が自動走行車両でなければ、走行制御部310は、走行計画を実現する、運転手宛のメッセージを車両制御インタフェース105を介して運転手が用いるインタフェース装置に出力する。例えば、走行制御部310は、走行計画に規定されているタイミングで減速を運転手に依頼するメッセージを出力する。
In step S409 in FIG. 6, the
Specifically, if
***実施の形態の効果の説明***
以上のように、本実施の形態では、車載装置100は、走行経路上に衝突地点が存在するか否かを判定して車両と物体とが衝突する可能性を検証し、車両と物体とが衝突する可能性に応じて車両の適切な走行状態を決定することができる。
具体的には、車載装置100は、車両と物体が衝突する可能性が無ければ、車両の現在の走行状態を継続させることができる。一方、車両と物体が衝突する可能性がある場合には、車載装置100は、衝突を回避するために衝突地点の手前で車両を停止させることができる走行状態にすることができる。
*** Explanation of the effect of the embodiment ***
As described above, in the present embodiment, the in-
Specifically, the in-
実施の形態2.
実施の形態1では、死角検知部302は、周辺監視センサ111のセンサデータに基づいて死角の位置および死角の幅を推定し、また、想定出現位置1001を特定していた。
本実施の形態では、死角検知部302は、地図データを参照して、死角の位置および死角の幅を推定し、また、想定出現位置1001を特定する。
本実施の形態でも、車両110の構成例は図1に示す通りである。また、車載装置100のハードウェア構成例も図2に示す通りである。更に、車載装置100の機能構成例も図3に示す通りである。
以下では、主に実施の形態1との差異を説明する。
なお、以下で説明していない事項は、実施の形態1と同様である。
Embodiment 2. FIG.
In the first embodiment, the blind
In the present embodiment, the blind
Also in the present embodiment, a configuration example of the
Hereinafter, differences from the first embodiment will be mainly described.
Note that matters not described below are the same as those in the first embodiment.
前述したように、図2に示す補助記憶装置103に地図データが格納されているものとする。
死角検知部302は、補助記憶装置103内の地図データにアクセスすることができる。
なお、本実施の形態では、図3に図示していない測位部がGPS測位により車両110が所在する位置の緯度および経度を算出する。そして、死角検知部302は、車両110の所在位置の周辺に限定して地図データにアクセスすることができる。
死角検知部302は、地図データを参照して、車両110の前方に存在する遮蔽物を検知する。例えば、死角検知部302は、地図データを参照して、図8に示す建物803および建物805を検知する。そして、建物803の背後の空間を死角806として特定する。また、死角検知部302は、地図データを参照して、死角の幅を算出し、また、想定出現位置1001を設定する。
以降は、死角検知部302により設定された想定出現位置1001に対して、図6のステップS403以降の処理が行われる。
As described above, it is assumed that map data is stored in the
The blind
In the present embodiment, a positioning unit (not shown in FIG. 3) calculates the latitude and longitude of the position where the
The blind
Thereafter, the processing after step S403 in FIG. 6 is performed on the assumed
以上のように、本実施の形態では、車載装置100は、センサデータを用いなくても、地図データを参照することにより死角の位置を特定することができる。このため、センサデータを用いなくても、走行経路上に衝突地点が存在するか否かを判定することができ、車両と物体とが衝突する可能性に応じて車両の適切な走行状態を決定することができる。
As described above, in the present embodiment, the in-
以上、本発明の実施の形態について説明したが、これら2つの実施の形態を組み合わせて実施しても構わない。
あるいは、これら2つの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これら2つの実施の形態を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
Although the embodiments of the present invention have been described above, these two embodiments may be combined and implemented.
Alternatively, one of these two embodiments may be partially implemented.
Alternatively, these two embodiments may be partially combined.
In addition, this invention is not limited to these embodiment, A various change is possible as needed.
***ハードウェア構成の説明***
最後に、車載装置100のハードウェア構成の補足説明を行う。
図2に示すプロセッサ101は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ101は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)等である。
図2に示すメモリ102は、RAM(Random Access Memory)である。
図2に示す補助記憶装置103は、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等である。
*** Explanation of hardware configuration ***
Finally, a supplementary description of the hardware configuration of the in-
A
The
The
The
また、補助記憶装置103には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がメモリ102にロードされ、プロセッサ101により実行される。
プロセッサ101はOSの少なくとも一部を実行しながら、センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310の機能を実現するプログラムを実行する。
プロセッサ101がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
また、車載装置100は、プロセッサ101を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310の機能を実現するプログラムの実行を分担する。それぞれのプロセッサは、プロセッサ101と同じように、プロセッシングを行うICである。
また、センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310の処理の結果を示す情報、データ、信号値および変数値の少なくともいずれかが、メモリ102、補助記憶装置103、プロセッサ101内のレジスタおよびキャッシュメモリの少なくともいずれかに記憶される。
また、センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記憶媒体に記憶されてもよい。
The
At least a part of the OS is loaded into the
While executing at least a part of the OS, the
When the
Further, the in-
The sensor
The sensor
また、センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310の「部」を、「回路」または「工程」または「手順」または「処理」に読み替えてもよい。
また、車載装置100は、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)といった処理回路により実現されてもよい。
この場合は、センサデータ取得部301、死角検知部302、衝突地点判定部303、仮想物体到達時刻予測部306、車両到達時刻予測部307、衝突地点予測部308、走行管理部309および走行制御部310は、それぞれ処理回路の一部として実現される。
なお、本明細書では、プロセッサと、メモリと、プロセッサとメモリの組合せと、処理回路との上位概念を、「プロセッシングサーキットリー」という。
つまり、プロセッサと、メモリと、プロセッサとメモリの組合せと、処理回路とは、それぞれ「プロセッシングサーキットリー」の具体例である。
The sensor
The in-
In this case, the sensor
In this specification, the superordinate concept of the processor, the memory, the combination of the processor and the memory, and the processing circuit is referred to as “processing circuitry”.
That is, the processor, the memory, the combination of the processor and the memory, and the processing circuit are specific examples of “processing circuitries”.
100 車載装置、101 プロセッサ、102 メモリ、103 補助記憶装置、104 周辺状況取得インタフェース、105 車両制御インタフェース、110 車両、111 周辺監視センサ、301 センサデータ取得部、302 死角検知部、303 衝突地点判定部、306 仮想物体到達時刻予測部、307 車両到達時刻予測部、308 衝突地点予測部、309 走行管理部、310 走行制御部、800 走行経路、1000 仮想物体、1001 想定出現位置。
100 in-vehicle device, 101 processor, 102 memory, 103 auxiliary storage device, 104 peripheral status acquisition interface, 105 vehicle control interface, 110 vehicle, 111 peripheral monitoring sensor, 301 sensor data acquisition unit, 302 blind spot detection unit, 303 collision
Claims (15)
前記車両の前方に遮蔽物が存在する場合に、前記遮蔽物の背後の死角から物体が出現して前記車両が走行する走行経路に向かって移動すると前記車両と前記物体とが衝突することになる衝突地点が前記走行経路上に存在するか否かを判定する衝突地点判定部と、
前記衝突地点の有無に基づいて前記車両の走行状態を決定する走行管理部とを有する車載装置。 An in-vehicle device mounted on a vehicle,
When there is a shielding object in front of the vehicle, if the object appears from a blind spot behind the shielding object and moves toward the travel route on which the vehicle travels, the vehicle and the object will collide. A collision point determination unit that determines whether or not a collision point exists on the travel route;
A vehicle-mounted device comprising: a travel management unit that determines a travel state of the vehicle based on the presence or absence of the collision point.
前記走行経路上に前記衝突地点が存在する場合に、前記衝突地点を前記走行管理部に通知し、
前記走行管理部は、
前記衝突地点判定部により通知された前記衝突地点の手前で停止可能な状態で前記車両を走行させることを決定する請求項1に記載の車載装置。 The collision point determination unit
When the collision point exists on the travel route, notify the travel management unit of the collision point,
The travel management unit
The in-vehicle device according to claim 1, wherein the vehicle is determined to travel in a state where the vehicle can be stopped before the collision point notified by the collision point determination unit.
前記物体が前記死角から出現して前記走行経路上の複数の地点の各々に向かって移動した場合に、前記複数の地点のうちの前記車両と前記物体とが衝突することになる地点を前記衝突地点として前記走行管理部に通知する請求項2に記載の車載装置。 The collision point determination unit
When the object appears from the blind spot and moves toward each of a plurality of points on the travel route, a point where the vehicle and the object collide with each other among the plurality of points is determined as the collision. The in-vehicle device according to claim 2, wherein the travel management unit is notified as a point.
前記複数の地点の各々への前記車両の到達時刻と前記物体の到達時刻とを算出し、
前記車両の到達時刻と前記物体の到達時刻とが一致する地点を前記衝突地点として前記走行管理部に通知する請求項3に記載の車載装置。 The collision point determination unit
Calculating the arrival time of the vehicle and the arrival time of the object to each of the plurality of points;
The in-vehicle device according to claim 3, wherein a point at which the arrival time of the vehicle coincides with the arrival time of the object is notified to the travel management unit as the collision point.
前記車両の現在の走行速度に基づいて前記複数の地点の各々への前記車両の到達時刻を算出し、前記死角の幅から推定される前記物体の移動速度に基づいて前記複数の地点の各々への前記物体の到達時刻を算出する請求項4に記載の車載装置。 The collision point determination unit
The arrival time of the vehicle at each of the plurality of points is calculated based on the current traveling speed of the vehicle, and to each of the plurality of points based on the moving speed of the object estimated from the width of the blind spot The in-vehicle device according to claim 4, wherein the arrival time of the object is calculated.
前記死角の幅から前記物体の種類を決定し、決定した前記物体の種類から前記物体の移動速度を推定し、推定した前記物体の移動速度に基づいて前記複数の地点の各々への前記物体の到達時刻を算出する請求項5に記載の車載装置。 The collision point determination unit
The type of the object is determined from the width of the blind spot, the moving speed of the object is estimated from the determined type of the object, and the object is moved to each of the plurality of points based on the estimated moving speed of the object. The in-vehicle device according to claim 5, wherein the arrival time is calculated.
前記死角の位置および前記死角の幅を推定する死角検知部を有し、
前記衝突地点判定部は、
前記死角検知部により推定された前記死角の位置および前記死角の幅に基づき、前記衝突地点が存在するか否かを判定する請求項1に記載の車載装置。 The in-vehicle device further includes
A blind spot detector for estimating the position of the blind spot and the width of the blind spot;
The collision point determination unit
The in-vehicle device according to claim 1, wherein it is determined whether or not the collision point exists based on the position of the blind spot and the width of the blind spot estimated by the blind spot detection unit.
前記車両に搭載され、前記車両の前方を走査するセンサの走査結果を用いて、前記死角の位置および前記死角の幅を推定する請求項7に記載の車載装置。 The blind spot detector is
The in-vehicle device according to claim 7, wherein a position of the blind spot and a width of the blind spot are estimated using a scanning result of a sensor mounted on the vehicle and scanning the front of the vehicle.
推定した前記死角の位置および前記死角の幅をデータベースに登録する請求項8に記載の車載装置。 The blind spot detector is
The in-vehicle device according to claim 8, wherein the estimated position of the blind spot and the width of the blind spot are registered in a database.
前記データベースに前記死角の位置および前記死角の幅を登録した後に、再度、前記車両が前記遮蔽物が前方に存在する位置に到達した場合に、前記データベースに登録されている前記死角の位置および前記死角の幅を取得し、
前記衝突地点判定部は、
前記死角検知部により取得された前記死角の位置および前記死角の幅に基づき、前記衝突地点を抽出する請求項9に記載の車載装置。 The blind spot detector is
After registering the position of the blind spot and the width of the blind spot in the database, the position of the blind spot registered in the database and the position when the vehicle reaches the position where the shielding object exists in the front again and the Get the width of the blind spot,
The collision point determination unit
The in-vehicle device according to claim 9, wherein the collision point is extracted based on the position of the blind spot and the width of the blind spot acquired by the blind spot detection unit.
前記車両を一定の割合で減速させることを決定する請求項2に記載の車載装置。 The travel management unit
The in-vehicle device according to claim 2, wherein it is determined to decelerate the vehicle at a constant rate.
前記衝突地点の手前1メートルから5メートルの範囲内のいずれかの地点で停止可能な状態で前記車両を走行させることを決定する請求項2に記載の車載装置。 The travel management unit
The in-vehicle device according to claim 2, wherein the vehicle is determined to travel in a state where the vehicle can be stopped at any point within a range of 1 meter to 5 meters before the collision point.
地図データを参照して前記死角の位置および前記死角の幅を推定する請求項7に記載の車載装置。 The blind spot detector is
The in-vehicle device according to claim 7, wherein the position of the blind spot and the width of the blind spot are estimated with reference to map data.
前記コンピュータが、前記衝突地点の有無に基づいて前記車両の走行状態を決定する走行支援方法。 When a computer mounted on a vehicle has a shielding object in front of the vehicle and an object appears from a blind spot behind the shielding object and moves toward a travel route on which the vehicle travels, the vehicle and the vehicle Determine whether there is a collision point on the travel route where the object will collide,
A traveling support method in which the computer determines a traveling state of the vehicle based on the presence or absence of the collision point.
前記車両の前方に遮蔽物が存在する場合に、前記遮蔽物の背後の死角から物体が出現して前記車両が走行する走行経路に向かって移動すると前記車両と前記物体とが衝突することになる衝突地点が前記走行経路上に存在するか否かを判定する衝突地点判定処理と、
前記衝突地点の有無に基づいて前記車両の走行状態を決定する走行管理処理とを実行させる走行支援プログラム。 In the computer installed in the vehicle,
When there is a shielding object in front of the vehicle, if the object appears from a blind spot behind the shielding object and moves toward the travel route on which the vehicle travels, the vehicle and the object will collide. A collision point determination process for determining whether or not a collision point exists on the travel route;
A travel support program for executing a travel management process for determining a travel state of the vehicle based on the presence or absence of the collision point.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2017/019035 WO2018216066A1 (en) | 2017-05-22 | 2017-05-22 | Onboard apparatus, traveling assistance method and traveling assistance program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2017/019035 WO2018216066A1 (en) | 2017-05-22 | 2017-05-22 | Onboard apparatus, traveling assistance method and traveling assistance program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018216066A1 true WO2018216066A1 (en) | 2018-11-29 |
Family
ID=64395354
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/019035 Ceased WO2018216066A1 (en) | 2017-05-22 | 2017-05-22 | Onboard apparatus, traveling assistance method and traveling assistance program |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2018216066A1 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021043744A (en) * | 2019-09-12 | 2021-03-18 | アイシン・エィ・ダブリュ株式会社 | Recommended speed determination system and recommended speed determination program |
| CN113631447A (en) * | 2019-04-01 | 2021-11-09 | 三菱电机株式会社 | Travel route generation device, travel route generation method, and vehicle control device |
| CN115731742A (en) * | 2021-08-26 | 2023-03-03 | 博泰车联网(南京)有限公司 | Collision prompt information output method and device, electronic equipment and readable storage medium |
| WO2023127186A1 (en) * | 2021-12-27 | 2023-07-06 | 日立Astemo株式会社 | Electronic control device, and method for managing object |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006260217A (en) * | 2005-03-17 | 2006-09-28 | Advics:Kk | Traveling support device for vehicle |
| JP2011194979A (en) * | 2010-03-18 | 2011-10-06 | Toyota Motor Corp | Driving support device |
| WO2012033173A1 (en) * | 2010-09-08 | 2012-03-15 | 株式会社豊田中央研究所 | Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method |
| WO2013021490A1 (en) * | 2011-08-10 | 2013-02-14 | トヨタ自動車株式会社 | Driving assistance device |
| JP2014002460A (en) * | 2012-06-15 | 2014-01-09 | Toyota Motor Corp | Driving support apparatus |
-
2017
- 2017-05-22 WO PCT/JP2017/019035 patent/WO2018216066A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2006260217A (en) * | 2005-03-17 | 2006-09-28 | Advics:Kk | Traveling support device for vehicle |
| JP2011194979A (en) * | 2010-03-18 | 2011-10-06 | Toyota Motor Corp | Driving support device |
| WO2012033173A1 (en) * | 2010-09-08 | 2012-03-15 | 株式会社豊田中央研究所 | Moving-object prediction device, virtual-mobile-object prediction device, program, mobile-object prediction method, and virtual-mobile-object prediction method |
| WO2013021490A1 (en) * | 2011-08-10 | 2013-02-14 | トヨタ自動車株式会社 | Driving assistance device |
| JP2014002460A (en) * | 2012-06-15 | 2014-01-09 | Toyota Motor Corp | Driving support apparatus |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113631447A (en) * | 2019-04-01 | 2021-11-09 | 三菱电机株式会社 | Travel route generation device, travel route generation method, and vehicle control device |
| JP2021043744A (en) * | 2019-09-12 | 2021-03-18 | アイシン・エィ・ダブリュ株式会社 | Recommended speed determination system and recommended speed determination program |
| JP7379973B2 (en) | 2019-09-12 | 2023-11-15 | 株式会社アイシン | Recommended speed determination system and recommended speed determination program |
| CN115731742A (en) * | 2021-08-26 | 2023-03-03 | 博泰车联网(南京)有限公司 | Collision prompt information output method and device, electronic equipment and readable storage medium |
| WO2023127186A1 (en) * | 2021-12-27 | 2023-07-06 | 日立Astemo株式会社 | Electronic control device, and method for managing object |
| JPWO2023127186A1 (en) * | 2021-12-27 | 2023-07-06 | ||
| JP7705960B2 (en) | 2021-12-27 | 2025-07-10 | Astemo株式会社 | Electronic control device and object management method |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN106985780B (en) | Vehicle safety auxiliary system | |
| JP6380919B2 (en) | Vehicle control device | |
| US20200180636A1 (en) | Apparatus and method for controlling running of vehicle | |
| EP2302412B1 (en) | System and method for evaluation of an automotive vehicle forward collision threat | |
| JP6304223B2 (en) | Driving assistance device | |
| US10967876B2 (en) | Vehicle control system, vehicle control method, and vehicle control program | |
| EP3378707B1 (en) | Collision prediction and forward airbag deployment system for autonomous driving vehicles | |
| US20190073540A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
| US11731692B2 (en) | Driving support device that performs steering control and deceleration control for avoiding an object | |
| JP6393123B2 (en) | Obstacle detection system and transport vehicle | |
| JP6323064B2 (en) | Traveling lane identification device, lane change support device, traveling lane identification method | |
| US10845814B2 (en) | Host vehicle position confidence degree calculation device | |
| JP7163729B2 (en) | vehicle controller | |
| JP2019151185A (en) | Driving support device | |
| US12036978B2 (en) | Driving assistance method and driving assistance device | |
| WO2018216066A1 (en) | Onboard apparatus, traveling assistance method and traveling assistance program | |
| JP2017162178A (en) | Determination device, determination method and determination program | |
| US11353595B2 (en) | Sidelobe subtraction method in automotive radar signal processing | |
| JP6426232B1 (en) | Automatic run control device | |
| JP7038610B2 (en) | Driving support method and driving support device | |
| US20240182052A1 (en) | Driver assistance apparatus and driver assistance method | |
| JP2023105692A (en) | Vehicle driving support device | |
| CN114148328B (en) | Device and method for controlling driving of vehicle | |
| US20240010193A1 (en) | Vehicle control apparatus | |
| EP4212400B1 (en) | Driving assistance method and driving assistance device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17910841 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17910841 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |