WO2019039281A1 - 情報処理装置、情報処理方法、プログラム、及び、移動体 - Google Patents
情報処理装置、情報処理方法、プログラム、及び、移動体 Download PDFInfo
- Publication number
- WO2019039281A1 WO2019039281A1 PCT/JP2018/029733 JP2018029733W WO2019039281A1 WO 2019039281 A1 WO2019039281 A1 WO 2019039281A1 JP 2018029733 W JP2018029733 W JP 2018029733W WO 2019039281 A1 WO2019039281 A1 WO 2019039281A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- unit
- row
- vehicle
- formation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/26—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
- B60Q1/50—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
- B60Q1/503—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking using luminous text or symbol displays in or on the vehicle, e.g. static text
- B60Q1/5035—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking using luminous text or symbol displays in or on the vehicle, e.g. static text electronic displays
- B60Q1/5037—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking using luminous text or symbol displays in or on the vehicle, e.g. static text electronic displays the display content changing automatically, e.g. depending on traffic situation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/26—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
- B60Q1/50—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
- B60Q1/507—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to autonomous vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/26—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
- B60Q1/50—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
- B60Q1/508—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking specific to vehicles driving in fleets or convoys
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/26—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
- B60Q1/50—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
- B60Q1/525—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
- B60W30/165—Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/22—Platooning, i.e. convoy of communicating vehicles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/40—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
- H04W4/46—Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2756/00—Output or target parameters relating to data
- B60W2756/10—Involving external transmission of data to or from the vehicle
Definitions
- the present technology relates to an information processing apparatus, an information processing method, a program, and a moving object, and in particular, an information processing apparatus, an information processing method, a program, and a moving object that can easily obtain information on a formation of a moving object.
- an information processing apparatus an information processing method, a program, and a moving object that can easily obtain information on a formation of a moving object.
- This art is made in view of such a situation, and enables it to acquire easily the information about the formation of mobiles, such as vehicles.
- the information processing apparatus is provided to a first moving body, and the information processing device according to the first aspect of the present technology is based on a first optical signal output from a second moving body in front of the first moving body.
- a formation information detection unit that detects formation information regarding formations up to a second moving body
- a formation information generation unit that updates the formation information by adding information about the first moving body to the formation information
- an output control unit configured to control an output unit such that a second optical signal is output to the rear of the first moving body based on the formation information.
- an information processing apparatus provided in a first moving body is a first optical signal output from a second moving body in front of the first moving body. Based on the formation information regarding the formation up to the second moving body is detected, and the information concerning the first moving body is added to the formation information, thereby updating the formation information, and based on the updated formation information. And an output unit is controlled to output a second optical signal to the rear of the first moving body.
- the program according to the first aspect of the present technology may cause a computer provided in a first mobile unit to generate a program based on a first optical signal output from a second mobile unit in front of the first mobile unit.
- the mobile unit is a receiver configured to receive a first optical signal output from another mobile unit in front, and to the other mobile unit based on the first optical signal.
- the formation information detecting unit for detecting formation information regarding the formation, the formation information generating unit for updating the formation information by adding information about itself to the formation information, an output unit for outputting the second optical signal, and the update
- an output control unit configured to control the output unit such that the second optical signal is output rearward based on the subsequent formation information.
- first optical signal output from a second moving body in front of a first moving body formation information regarding a row to the second moving body is detected
- Information is added to the formation information to update the formation information, and based on the formation information after the update, the second optical signal to the rear of the first movement body
- the output unit is controlled to output.
- a first optical signal output from another moving object in front is received, and based on the first optical signal, formation information regarding a formation to the other moving object Is detected, and information about the user is added to the formation information to update the formation information, and the output unit controls the second optical signal to be output backward based on the updated formation information. Be done.
- the first or second aspect of the present technology it is possible to easily obtain information on a formation of moving objects such as vehicles.
- FIG. 1 is a block diagram showing an embodiment of a row processing system to which the present technology is applied. It is a flowchart for demonstrating row-related processing. It is a figure showing the example of composition of row information. It is a figure which shows the structural example of arrival estimated time information. It is a figure which shows the example of the method of setting the confluence
- FIG. 1 is a block diagram showing a configuration example of a schematic function of a vehicle control system 100 which is an example of a mobile control system to which the present technology can be applied.
- the vehicle control system 100 is a system that is provided in the vehicle 10 and performs various controls of the vehicle 10.
- the vehicle 10 is distinguished from other vehicles, it is referred to as the own vehicle or the own vehicle.
- the vehicle control system 100 includes an input unit 101, a data acquisition unit 102, a communication unit 103, an in-vehicle device 104, an output control unit 105, an output unit 106, a drive system control unit 107, a drive system 108, a body system control unit 109, and a body.
- the system system 110, the storage unit 111, and the automatic driving control unit 112 are provided.
- the input unit 101, the data acquisition unit 102, the communication unit 103, the output control unit 105, the drive system control unit 107, the body system control unit 109, the storage unit 111, and the automatic operation control unit 112 are connected via the communication network 121. Connected to each other.
- the communication network 121 may be, for example, an on-vehicle communication network or bus conforming to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). Become. In addition, each part of the vehicle control system 100 may be directly connected without passing through the communication network 121.
- CAN Controller Area Network
- LIN Local Interconnect Network
- LAN Local Area Network
- FlexRay registered trademark
- each unit of the vehicle control system 100 performs communication via the communication network 121
- the description of the communication network 121 is omitted.
- the input unit 101 and the automatic driving control unit 112 communicate via the communication network 121, it is described that the input unit 101 and the automatic driving control unit 112 merely communicate.
- the input unit 101 includes an apparatus used by a passenger for inputting various data and instructions.
- the input unit 101 includes operation devices such as a touch panel, a button, a microphone, a switch, and a lever, and an operation device and the like that can be input by a method other than manual operation by voice or gesture.
- the input unit 101 may be a remote control device using infrared rays or other radio waves, or an external connection device such as a mobile device or wearable device corresponding to the operation of the vehicle control system 100.
- the input unit 101 generates an input signal based on data, an instruction, and the like input by the passenger, and supplies the input signal to each unit of the vehicle control system 100.
- the data acquisition unit 102 includes various sensors for acquiring data used for processing of the vehicle control system 100 and supplies the acquired data to each unit of the vehicle control system 100.
- the data acquisition unit 102 includes various sensors for detecting the state of the vehicle 10 and the like.
- the data acquisition unit 102 includes a gyro sensor, an acceleration sensor, an inertia measurement device (IMU), an operation amount of an accelerator pedal, an operation amount of a brake pedal, a steering angle of a steering wheel, and an engine speed.
- IMU inertia measurement device
- a sensor or the like for detecting a motor rotation speed or a rotation speed of a wheel is provided.
- the data acquisition unit 102 includes various sensors for detecting information outside the vehicle 10.
- the data acquisition unit 102 includes an imaging device such as a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
- the data acquisition unit 102 includes an environment sensor for detecting weather, weather, etc., and an ambient information detection sensor for detecting an object around the vehicle 10.
- the environment sensor includes, for example, a raindrop sensor, a fog sensor, a sunshine sensor, a snow sensor, and the like.
- the ambient information detection sensor is made of, for example, an ultrasonic sensor, a radar, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), sonar or the like.
- the data acquisition unit 102 includes various sensors for detecting the current position of the vehicle 10.
- the data acquisition unit 102 includes a GNSS receiver or the like which receives a GNSS signal from a Global Navigation Satellite System (GNSS) satellite.
- GNSS Global Navigation Satellite System
- the data acquisition unit 102 includes various sensors for detecting information in the vehicle.
- the data acquisition unit 102 includes an imaging device for imaging a driver, a biological sensor for detecting biological information of the driver, a microphone for collecting sound in a vehicle interior, and the like.
- the biological sensor is provided, for example, on a seat or a steering wheel, and detects biological information of an occupant sitting on a seat or a driver holding the steering wheel.
- the communication unit 103 communicates with the in-vehicle device 104 and various devices outside the vehicle, a server, a base station, etc., and transmits data supplied from each portion of the vehicle control system 100, and receives the received data. Supply to each part of 100.
- the communication protocol supported by the communication unit 103 is not particularly limited, and the communication unit 103 can also support a plurality of types of communication protocols.
- the communication unit 103 performs wireless communication with the in-vehicle device 104 by wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), WUSB (Wireless USB), or the like. Also, for example, the communication unit 103 may use a Universal Serial Bus (USB), a High-Definition Multimedia Interface (HDMI (registered trademark)), or an MHL (Universal Serial Bus) via a connection terminal (and a cable, if necessary) not shown. Wired communication is performed with the in-vehicle device 104 by Mobile High-definition Link) or the like.
- USB Universal Serial Bus
- HDMI High-Definition Multimedia Interface
- MHL Universal Serial Bus
- the communication unit 103 may communicate with an apparatus (for example, an application server or control server) existing on an external network (for example, the Internet, a cloud network, or a network unique to an operator) via a base station or an access point. Communicate. Also, for example, the communication unit 103 may use a P2P (Peer To Peer) technology to connect with a terminal (for example, a pedestrian or a shop terminal, or a MTC (Machine Type Communication) terminal) existing in the vicinity of the vehicle 10. Communicate. Further, for example, the communication unit 103 may perform vehicle to vehicle communication, vehicle to infrastructure communication, communication between the vehicle 10 and a house, and communication between the vehicle 10 and the pedestrian. ) V2X communication such as communication is performed. Also, for example, the communication unit 103 includes a beacon receiving unit, receives radio waves or electromagnetic waves transmitted from radio stations installed on roads, and acquires information such as current position, traffic jam, traffic restriction, or required time. Do.
- an apparatus for example, an application server or control server
- the in-vehicle device 104 includes, for example, a mobile device or wearable device of a passenger, an information device carried in or attached to the vehicle 10, a navigation device for searching for a route to an arbitrary destination, and the like.
- the output control unit 105 controls the output of various information to the occupant of the vehicle 10 or the outside of the vehicle.
- the output control unit 105 generates an output signal including at least one of visual information (for example, image data) and auditory information (for example, audio data), and supplies the generated output signal to the output unit 106.
- the output control unit 105 combines image data captured by different imaging devices of the data acquisition unit 102 to generate an overhead image or a panoramic image, and an output signal including the generated image is generated.
- the output unit 106 is supplied.
- the output control unit 105 generates voice data including a warning sound or a warning message for danger such as collision, contact, entering a danger zone, and the like, and outputs an output signal including the generated voice data to the output unit 106.
- Supply for example, the output control unit 105 generates voice data including a warning sound or a warning message for danger such as collision, contact, entering a danger zone, and the like, and outputs an
- the output unit 106 includes a device capable of outputting visual information or auditory information to an occupant of the vehicle 10 or the outside of the vehicle.
- the output unit 106 includes a display device, an instrument panel, an audio speaker, headphones, wearable devices such as a glasses-type display worn by a passenger, a projector, a lamp, and the like.
- the display device included in the output unit 106 has visual information in the driver's field of vision, such as a head-up display, a transmissive display, and a device having an AR (Augmented Reality) display function, in addition to a device having a normal display. It may be an apparatus for displaying.
- the drive system control unit 107 controls the drive system 108 by generating various control signals and supplying them to the drive system 108. In addition, the drive system control unit 107 supplies a control signal to each unit other than the drive system 108 as necessary, and notifies a control state of the drive system 108, and the like.
- the driveline system 108 includes various devices related to the driveline of the vehicle 10.
- the drive system 108 includes a driving force generating device for generating a driving force of an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering mechanism for adjusting a steering angle.
- a braking system that generates a braking force an antilock brake system (ABS), an electronic stability control (ESC), an electric power steering apparatus, and the like are provided.
- the body control unit 109 controls the body system 110 by generating various control signals and supplying the control signals to the body system 110.
- the body system control unit 109 supplies a control signal to each unit other than the body system 110, as required, to notify the control state of the body system 110, and the like.
- the body system 110 includes various devices of the body system mounted on the vehicle body.
- the body system 110 includes a keyless entry system, a smart key system, a power window device, a power seat, a steering wheel, an air conditioner, and various lamps (for example, headlamps, back lamps, brake lamps, blinkers, fog lamps, etc.) Etc.
- the storage unit 111 includes, for example, a read only memory (ROM), a random access memory (RAM), a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, and a magneto-optical storage device. .
- the storage unit 111 stores various programs, data, and the like used by each unit of the vehicle control system 100.
- the storage unit 111 is map data such as a three-dimensional high-accuracy map such as a dynamic map, a global map that has a lower accuracy than a high-accuracy map and covers a wide area, and information around the vehicle 10 Remember.
- the autonomous driving control unit 112 performs control regarding autonomous driving such as autonomous traveling or driving assistance. Specifically, for example, the automatic driving control unit 112 can avoid collision or reduce the impact of the vehicle 10, follow-up traveling based on the inter-vehicle distance, vehicle speed maintenance traveling, collision warning of the vehicle 10, lane departure warning of the vehicle 10, etc. Coordinated control is carried out to realize the functions of the Advanced Driver Assistance System (ADAS), including: Further, for example, the automatic driving control unit 112 performs cooperative control for the purpose of automatic driving or the like that travels autonomously without depending on the driver's operation.
- the automatic driving control unit 112 includes a detection unit 131, a self position estimation unit 132, a situation analysis unit 133, a planning unit 134, and an operation control unit 135.
- the detection unit 131 detects various types of information necessary for control of automatic driving.
- the detection unit 131 includes an out-of-vehicle information detection unit 141, an in-vehicle information detection unit 142, and a vehicle state detection unit 143.
- the outside-of-vehicle information detection unit 141 performs detection processing of information outside the vehicle 10 based on data or signals from each unit of the vehicle control system 100. For example, the outside information detection unit 141 performs detection processing of an object around the vehicle 10, recognition processing, tracking processing, and detection processing of the distance to the object.
- the objects to be detected include, for example, vehicles, people, obstacles, structures, roads, traffic lights, traffic signs, road markings and the like. Further, for example, the outside-of-vehicle information detection unit 141 performs a process of detecting the environment around the vehicle 10.
- the surrounding environment to be detected includes, for example, weather, temperature, humidity, brightness, road surface condition and the like.
- the information outside the vehicle detection unit 141 indicates data indicating the result of the detection process as the self position estimation unit 132, the map analysis unit 151 of the situation analysis unit 133, the traffic rule recognition unit 152, the situation recognition unit 153, and the operation control unit 135. Supply to the emergency situation avoidance unit 171 and the like.
- the in-vehicle information detection unit 142 performs in-vehicle information detection processing based on data or signals from each unit of the vehicle control system 100.
- the in-vehicle information detection unit 142 performs a driver authentication process and recognition process, a driver state detection process, a passenger detection process, an in-vehicle environment detection process, and the like.
- the state of the driver to be detected includes, for example, physical condition, awakening degree, concentration degree, fatigue degree, gaze direction and the like.
- the in-vehicle environment to be detected includes, for example, temperature, humidity, brightness, smell and the like.
- the in-vehicle information detection unit 142 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
- the vehicle state detection unit 143 detects the state of the vehicle 10 based on data or signals from each unit of the vehicle control system 100.
- the state of the vehicle 10 to be detected includes, for example, speed, acceleration, steering angle, presence / absence of abnormality and contents, state of driving operation, position and inclination of power seat, state of door lock, and other on-vehicle devices. Status etc. are included.
- the vehicle state detection unit 143 supplies data indicating the result of the detection process to the situation recognition unit 153 of the situation analysis unit 133, the emergency situation avoidance unit 171 of the operation control unit 135, and the like.
- Self position estimation unit 132 estimates the position and orientation of vehicle 10 based on data or signals from each part of vehicle control system 100 such as external information detection unit 141 and situation recognition unit 153 of situation analysis unit 133. Do the processing. In addition, the self position estimation unit 132 generates a local map (hereinafter, referred to as a self position estimation map) used to estimate the self position, as necessary.
- the self-location estimation map is, for example, a high-accuracy map using a technique such as SLAM (Simultaneous Localization and Mapping).
- the self position estimation unit 132 supplies data indicating the result of the estimation process to the map analysis unit 151, the traffic rule recognition unit 152, the situation recognition unit 153, and the like of the situation analysis unit 133.
- the self position estimation unit 132 stores the self position estimation map in the storage unit 111.
- the situation analysis unit 133 analyzes the situation of the vehicle 10 and the surroundings.
- the situation analysis unit 133 includes a map analysis unit 151, a traffic rule recognition unit 152, a situation recognition unit 153, and a situation prediction unit 154.
- the map analysis unit 151 uses various data or signals stored in the storage unit 111 while using data or signals from each part of the vehicle control system 100 such as the self position estimation unit 132 and the external information detection unit 141 as necessary. Perform analysis processing and construct a map that contains information necessary for automatic driving processing.
- the map analysis unit 151 is configured of the traffic rule recognition unit 152, the situation recognition unit 153, the situation prediction unit 154, the route planning unit 161 of the planning unit 134, the action planning unit 162, the operation planning unit 163, and the like. Supply to
- the traffic rule recognition unit 152 uses traffic rules around the vehicle 10 based on data or signals from each unit of the vehicle control system 100 such as the self position estimation unit 132, the outside information detection unit 141, and the map analysis unit 151. Perform recognition processing. By this recognition process, for example, the position and state of signals around the vehicle 10, the contents of traffic restrictions around the vehicle 10, and the travelable lanes and the like are recognized.
- the traffic rule recognition unit 152 supplies data indicating the result of the recognition process to the situation prediction unit 154 and the like.
- the situation recognition unit 153 uses data or signals from each unit of the vehicle control system 100 such as the self position estimation unit 132, the outside information detection unit 141, the in-vehicle information detection unit 142, the vehicle state detection unit 143, and the map analysis unit 151. Based on the recognition processing of the situation regarding the vehicle 10 is performed. For example, the situation recognition unit 153 performs recognition processing of the situation of the vehicle 10, the situation around the vehicle 10, the situation of the driver of the vehicle 10, and the like. In addition, the situation recognition unit 153 generates a local map (hereinafter referred to as a situation recognition map) used to recognize the situation around the vehicle 10 as needed.
- the situation recognition map is, for example, an Occupancy Grid Map.
- the situation of the vehicle 10 to be recognized includes, for example, the position, attitude, movement (for example, speed, acceleration, moving direction, etc.) of the vehicle 10, and the presence or absence and contents of abnormality.
- the circumstances around the vehicle 10 to be recognized include, for example, the type and position of surrounding stationary objects, the type, position and movement of surrounding animals (eg, speed, acceleration, movement direction, etc.) Configuration and road surface conditions, as well as ambient weather, temperature, humidity, brightness, etc. are included.
- the state of the driver to be recognized includes, for example, physical condition, alertness level, concentration level, fatigue level, movement of eyes, driving operation and the like.
- the situation recognition unit 153 supplies data (including a situation recognition map, if necessary) indicating the result of the recognition process to the self position estimation unit 132, the situation prediction unit 154, and the like. In addition, the situation recognition unit 153 stores the situation recognition map in the storage unit 111.
- the situation prediction unit 154 performs a prediction process of the situation regarding the vehicle 10 based on data or signals from each part of the vehicle control system 100 such as the map analysis unit 151, the traffic rule recognition unit 152, and the situation recognition unit 153. For example, the situation prediction unit 154 performs prediction processing of the situation of the vehicle 10, the situation around the vehicle 10, the situation of the driver, and the like.
- the situation of the vehicle 10 to be predicted includes, for example, the behavior of the vehicle 10, the occurrence of an abnormality, the travelable distance, and the like.
- the situation around the vehicle 10 to be predicted includes, for example, the behavior of the moving object around the vehicle 10, the change of the signal state, and the change of the environment such as the weather.
- the driver's condition to be predicted includes, for example, the driver's behavior and physical condition.
- the situation prediction unit 154 together with data from the traffic rule recognition unit 152 and the situation recognition unit 153, indicates data indicating the result of the prediction process, the route planning unit 161 of the planning unit 134, the action planning unit 162, and the operation planning unit 163. Supply to etc.
- the route planning unit 161 plans a route to a destination based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. For example, the route planning unit 161 sets a route from the current position to the specified destination based on the global map. In addition, for example, the route planning unit 161 changes the route as appropriate based on traffic jams, accidents, traffic restrictions, conditions such as construction, the physical condition of the driver, and the like. The route planning unit 161 supplies data indicating the planned route to the action planning unit 162 and the like.
- the action planning part 162 safely makes the route planned by the route planning part 161 within the planned time. Plan the action of the vehicle 10 to travel.
- the action planning unit 162 performs planning of start, stop, traveling direction (for example, forward, backward, left turn, right turn, change of direction, etc.), travel lane, travel speed, overtaking, and the like.
- the action plan unit 162 supplies data indicating the planned action of the vehicle 10 to the operation plan unit 163 and the like.
- the operation planning unit 163 is an operation of the vehicle 10 for realizing the action planned by the action planning unit 162 based on data or signals from each unit of the vehicle control system 100 such as the map analysis unit 151 and the situation prediction unit 154. Plan.
- the operation plan unit 163 plans acceleration, deceleration, a traveling track, and the like.
- the operation planning unit 163 supplies data indicating the planned operation of the vehicle 10 to the acceleration / deceleration control unit 172, the direction control unit 173, and the like of the operation control unit 135.
- the operation control unit 135 controls the operation of the vehicle 10.
- the operation control unit 135 includes an emergency situation avoidance unit 171, an acceleration / deceleration control unit 172, and a direction control unit 173.
- the emergency situation avoidance unit 171 is based on the detection results of the external information detection unit 141, the in-vehicle information detection unit 142, and the vehicle state detection unit 143, collision, contact, entry into a danger zone, driver abnormality, vehicle 10 Perform detection processing of an emergency such as When the emergency situation avoidance unit 171 detects the occurrence of an emergency situation, it plans the operation of the vehicle 10 for avoiding an emergency situation such as a sudden stop or a sharp turn.
- the emergency situation avoidance unit 171 supplies data indicating the planned operation of the vehicle 10 to the acceleration / deceleration control unit 172, the direction control unit 173, and the like.
- the acceleration / deceleration control unit 172 performs acceleration / deceleration control for realizing the operation of the vehicle 10 planned by the operation planning unit 163 or the emergency situation avoidance unit 171.
- the acceleration / deceleration control unit 172 calculates a control target value of a driving force generator or a braking device for achieving planned acceleration, deceleration, or sudden stop, and drives a control command indicating the calculated control target value. It is supplied to the system control unit 107.
- the direction control unit 173 performs direction control for realizing the operation of the vehicle 10 planned by the operation planning unit 163 or the emergency situation avoidance unit 171. For example, the direction control unit 173 calculates the control target value of the steering mechanism for realizing the traveling track or the sharp turn planned by the operation plan unit 163 or the emergency situation avoidance unit 171, and performs control indicating the calculated control target value. The command is supplied to the drive system control unit 107.
- this embodiment mainly relates to the processing of the detection unit 131, the situation analysis unit 133, and the action planning unit 162 in the vehicle control system 100 of FIG.
- FIG. 2 is a block diagram showing an embodiment of a row processing system 200 to which the present technology is applied.
- the row processing system 200 is a system that performs processing related to a row of vehicles 10 in which the row processing system 200 is provided.
- the row processing system 200 includes a row information transmission unit 201 and a row behavior planning unit 202.
- the formation information transmission unit 201 transmits formation information regarding formations between a forward vehicle and a rear vehicle of the vehicle 10.
- the formation information transmission unit 201 includes a reception unit 211, a forward sensing unit 212, a formation information processing unit 213, and an output unit 214.
- the receiving unit 211 includes a device capable of receiving formation information wirelessly transmitted from a forward vehicle by an optical method. More specifically, for example, the receiving unit 211 includes a device capable of receiving formation information wirelessly transmitted from a forward vehicle using an optical signal (hereinafter, referred to as an optical signal).
- an optical signal an optical signal
- the signal of an arbitrary system can be used for an optical signal.
- an optical signal of an optical modulation method can be used.
- the optical signal of the optical modulation system is a signal obtained by modulating the intensity or wavelength (color) of light according to a predetermined system.
- the receiving unit 211 includes a device capable of receiving an optical signal such as an imaging device, an image sensor, or a light receiving element (for example, a photodiode).
- a signal of any wavelength such as visible light or near infrared light can be used as the optical signal of the optical modulation method.
- an optical signal of a display method can be used.
- the optical signal of the display method is a visual signal using display information (for example, an image) which represents formation information by characters, figures, and the like.
- display information for example, an image
- an imaging device or an image sensor For example, in a forward vehicle, an image that represents formation information by characters, figures, and the like is displayed on the display, and in the vehicle 10, the image is captured using an imaging device or an image sensor. And image formation is performed with respect to the image
- the receiving unit 211 includes a device capable of capturing display information, such as an imaging device and an image sensor.
- the optical signal (display information) of a display system does not necessarily need to be a signal which can be visually recognized by people, and may be a signal which can be recognized by a device on the receiving side. Therefore, as the optical signal of the display method, a signal of any wavelength such as near infrared light other than visible light can be used.
- the receiving unit 211 converts an optical signal (hereinafter, referred to as a formation information signal) including formation information received from a preceding vehicle into an electric signal, and supplies the electric signal to the formation information detection unit 221 of the formation information processing unit 213.
- a formation information signal an optical signal including formation information received from a preceding vehicle into an electric signal
- the front sensing unit 212 includes at least one of various imaging devices and various sensors for detecting an object in front of the vehicle 10.
- the front sensing unit 212 supplies sensor data indicating the result of sensing the front of the vehicle 10 to the head determination unit 222 of the column information processing unit 213.
- the device for receiving the formation information signal of the reception unit 211 and the device for detecting an object in front of the front sensing unit 212 may be shared.
- the imaging unit, the image sensor, the light receiving element, and the like may be shared by the reception unit 211 and the front sensing unit 212.
- the formation information processing unit 213 performs generation or update of formation information, transmission control of formation information to a rear vehicle, and the like.
- the row information processing unit 213 includes a row information detection unit 221, a head determination unit 222, a row information generation unit 223, and an output control unit 224.
- the row information detection unit 221 detects row information included in the row information signal, and supplies the head determination unit 222, the row information generation unit 223, and the row action plan unit 202.
- the head determination unit 222 determines whether the vehicle 10 is at the head of the formation based on the sensing data from the front sensing unit 212 and the detection result of the formation information by the formation information detection unit 221. The head determination unit 222 supplies the determination result to the row information generation unit 223.
- the formation information generation unit 223 generates or updates formation information, and supplies the output control unit 224.
- the output control unit 224 controls the output of the row information by the output unit 214.
- the output unit 214 includes a device capable of outputting an optical signal of the same type as the receiving unit 211.
- the output unit 214 includes a light emitting element that emits light to the rear of the vehicle 10 when outputting formation information by a formation information signal of the optical modulation method.
- a light emitting element for example, a dedicated light emitting element such as an LED may be used, or a light emitting element provided behind the vehicle 10 such as a tail lamp or a brake lamp may be used.
- the intensity, the wavelength, the frequency, and the like of the formation information signal so as not to give a driver of a rear vehicle or the like an unpleasant sensation such as flickering or dazzling.
- the output unit 214 when outputting the formation information by the formation information signal of the display method, includes a display device such as a display or an electric light bulletin board. This display device is installed at a position easy to view from the rear vehicle.
- the formation action planning unit 202 Based on the formation information, the formation action planning unit 202 performs, for example, planning of the action of the vehicle 10 with respect to the formation such as merging, passing, and tracking.
- the row action plan unit 202 supplies data indicating the created plan to the operation plan unit 163 in FIG.
- This process is started when, for example, an ignition switch, a power switch, a start switch, or the like of the vehicle 10 is turned on when an operation for starting the vehicle 10 and driving is performed. Further, this process ends, for example, when an operation for ending the driving is performed, for example, when an ignition switch, a power switch, a start switch or the like of the vehicle 10 is turned off.
- the vehicle 10 provided with the row processing system 200 is also referred to as a self-vehicle.
- step S1 the formation information detection unit 221 determines whether or not formation information has been received. If it is determined that the row information has not been received, the process proceeds to step S2.
- step S2 the head determination unit 222 determines whether the host vehicle is the head of the formation. Specifically, the head determination unit 222 detects a forward vehicle based on sensing data from the front sensing unit 212. Then, when the preceding vehicle is detected within the range of the predetermined distance, the start determination unit 222 determines that the host vehicle is not the start of the formation, and the process returns to step S1.
- steps S1 and S2 are repeatedly executed until it is determined that the formation information is received in step S1 or the own vehicle is determined to be the head of the formation in step S2.
- step S2 when the preceding vehicle is not detected within the range of the predetermined distance, the head determination unit 222 determines that the host vehicle is the head of the formation, and the process proceeds to step S3. At this time, the start determination unit 222 notifies the formation information generation unit 223 that the host vehicle is the start of the formation.
- step S3 the formation information generation unit 223 determines whether or not it is time to output formation information.
- the formation processing system 200 outputs formation information, for example, every predetermined time (for example, every 10 seconds). Then, when a predetermined time has not passed yet since the formation information is output last time, the formation information generation unit 223 determines that it is not the timing to output the formation information, and the process returns to step S1.
- steps S1 to S3 is repeatedly executed until it is determined in step S1 that the formation information has been received or it is determined in step S3 that the timing for outputting the formation information is reached.
- step S3 when, for example, a predetermined time has passed since the formation information was output last time, or when it is immediately after the own vehicle comes to the top of the formation, the formation information is displayed. It is determined that it is the timing to output, and the process proceeds to step S4.
- step S4 the row information generation unit 223 generates row information. Specifically, the row information generation unit 223 generates row information on a row consisting of only one vehicle of which the host vehicle is the lead vehicle, and supplies the row control information to the output control unit 224.
- FIG. 4 shows a configuration example of formation information.
- the formation information includes, for example, planned route information, estimated arrival time information, formation length information, and a formation train list.
- the planned route information includes information on the destination of the leading vehicle of the formation and the waypoint to the destination.
- the estimated arrival time information includes, for example, the destination of the leading vehicle of the formation and the estimated arrival time of each via point, as shown in FIG.
- the row length information includes, for example, the total length of the row, the total length of each vehicle constituting the row, and the inter-vehicle distance between the vehicles.
- the total length of the formation is set, for example, to the length from the front end of the leading vehicle of the formation to the rear end of the own vehicle. Therefore, in the leading vehicle of the formation, the total length of the vehicle is set to the total length of the formation.
- the row-constituting vehicle list is, for example, a list in which information on each vehicle constituting the row is arranged in order from the leading vehicle.
- the information on each vehicle includes, for example, the size of the vehicle, the type of vehicle, the model name, and the exercise performance.
- the size of the vehicle includes, for example, the dimensions in the width direction and the height direction of the vehicle or the cross-sectional area of the vehicle.
- the types of vehicles are classified into, for example, trucks, buses, ordinary cars, mini cars and the like.
- the total length of each vehicle included in the column length information may be included in the column configuration car list.
- the leading vehicle of the formation only information on the leading vehicle is registered in the formation configuration vehicle list.
- the row information is not limited to this example, and it is possible to increase or decrease the type and content of the information as needed.
- step S5 the output unit 214 outputs formation information under the control of the output control unit 224. Specifically, under the control of the output control unit 224, the output unit 214 outputs a formation information signal of a predetermined system including formation information toward the rear of the vehicle.
- step S1 the process returns to step S1, and the processes after step S1 are performed.
- the reception unit 211 receives the formation information signal, converts it into an electric signal, and supplies it to the formation information detection unit 221.
- the row information detection unit 221 detects the row information included in the row information signal, the row information detection unit 221 determines that the row information is received, and the process proceeds to step S6.
- the row information received from the preceding vehicle includes information on the row from the leading vehicle to the preceding vehicle.
- step S6 the row information generation unit 223 updates the row information.
- the formation information detection unit 221 supplies the detected formation information to the formation information generation unit 223.
- the row information generation unit 223 updates the row information by adding information related to the vehicle to the obtained row information.
- the row information generation unit 223 adds the inter-vehicle distance to the preceding vehicle and the total length of the own vehicle to the total length of the row included in the row length information. In addition, the row information generation unit 223 adds the total length of the own vehicle and the inter-vehicle distance between the vehicle ahead to the row length information. Furthermore, for example, the row information generation unit 223 adds information about the vehicle to the row configuration car list.
- the formation information is updated from the information on the formation of the leading vehicle to the preceding vehicle to the information on the formation of the leading vehicle to the host vehicle.
- the row information generation unit 223 supplies the updated row information to the output control unit 224.
- step S7 formation information is output as in the process of step S5.
- step S8 the row action plan unit 202 determines whether or not the front row has changed. Specifically, the row action plan unit 202 compares the latest row information with the row information acquired last time. Then, the row action plan unit 202 changes, for example, the destination of the row, the via point, the estimated arrival time to the destination, the estimated arrival time to each via point, and the order of the vehicles and vehicles forming the row If not, it is determined that the forward formation has not changed, and the process returns to step S1.
- step S8 the troop action planning unit 202, for example, the destination of the troop, the transit point, the estimated arrival time to the destination, the estimated arrival time to each transit point, and the vehicles and vehicles constituting the troop. If at least one of the orders has changed, it is determined that the preceding formation has changed, and the process proceeds to step S9. For example, if the own vehicle is at the head of the formation, it catches up with the formation in the front, and it is determined that the formation in the front has changed, even when the formation information is newly received from the preceding vehicle, and the process proceeds to step S9. move on.
- step S9 the row action plan unit 202 determines whether the destination of the vehicle is included in the destination or via point of the row based on the latest row information. If it is determined that the destination of the host vehicle is included in the destination or via point of the formation, the process proceeds to step S10.
- step S10 based on the latest formation information, the formation action plan unit 202 determines whether or not the formation has arrived at the destination earlier than the host vehicle.
- the squad action plan unit 202 determines that the formation will arrive earlier than the own vehicle, and the process proceeds to step S11. move on.
- step S11 the row action planning unit 202 sets a joining position to the row.
- the formation action plan unit 202 detects a vehicle having a cross-sectional area larger than that of the own vehicle among vehicles in the formation before the own vehicle, and behind any of the detected vehicles. Set the joining position to.
- the own vehicle travels behind the vehicle having a larger cross-sectional area than the own vehicle, and the air resistance to the own vehicle can be reduced.
- the row action plan unit 202 detects a vehicle having a cross-sectional area smaller than that of the own vehicle among vehicles in the row before the own vehicle, and any of the detected vehicles Set the junction position in front of. As a result, after joining the formation, the host vehicle travels in front of a vehicle having a cross-sectional area smaller than that of the host vehicle, and the air resistance to the rear vehicle can be reduced.
- the merging position of the vehicle may be set by combining the above two.
- the vehicle 10 (own vehicle) joins a formation including the vehicles 301 to 303
- the cross-sectional area of a vehicle shall be vehicle 301> vehicle 302> vehicle 10> vehicle 303.
- the merging position is set behind the vehicle 302 having a larger cross-sectional area than the vehicle 10 and in front of the vehicle 303 having a smaller cross-sectional area than the vehicle 10 indicated by an arrow in the drawing.
- the air resistances of the vehicle 10 and the vehicle 303 can be reduced as compared with the case of traveling alone.
- the row action planning unit 202 generates action plan data indicating a joining plan to a row including the joining position, and supplies the action planning data to the action planning unit 163 in FIG.
- the operation planning unit 163 creates an operation plan based on the activity plan data, and the operation control unit 135 controls the operation of the vehicle according to the operation plan. As a result, the vehicle merges with the set merging position in the formation.
- step S1 the process returns to step S1, and the processes after step S1 are performed.
- step S9 it is determined that the destination of the own vehicle is not included in the destination of the formation and the via point, or in step S10, it is determined that the formation of the formation does not arrive earlier than the own vehicle. If yes, the process proceeds to step S12.
- step S12 the row action plan unit 202 performs overtaking determination of the row. Specifically, based on the latest formation information, the formation action planning unit 202 passes or does not pass the formation based on the full length of the formation, the destination of the formation, the passing place, and the like. It determines whether to follow.
- FIG. 7 an example in which a formation including the vehicles 321 to 324 exists in front of the vehicle 10 (own vehicle) will be described. Note that the destination of the formation and the destination of the vehicle are different, and the directions of the respective destinations are separated at a branch point A in the figure.
- the formation extends ahead of the turning point A, and when the vehicle 10 passes the formation, it passes by the turning point A and can not go to the destination. Therefore, the row action plan unit 202 determines to follow the row.
- the row action plan unit 202 generates action plan data indicating a plan of whether to overtake or follow the row, and supplies this to the operation plan unit 163 or the like in FIG.
- the operation planning unit 163 creates an operation plan based on the activity plan data, and the operation control unit 135 controls the operation of the vehicle according to the operation plan.
- the vehicle overtakes the formation or follows the formation as it is.
- step S1 the process returns to step S1, and the processes after step S1 are performed.
- the host vehicle can easily acquire information on the formations up to the forward vehicle, and can easily transmit information on the formation including the own vehicle to the rear vehicles.
- transmission of vehicle information signals is performed using optical devices such as an image pickup device, tail lamp, brake lamp, etc. provided in the vehicle, and transmission of row information is realized at low cost without providing a new system or device. It will be possible to
- the own vehicle can acquire the formation information only from the forward vehicle, and can transmit the formation information only to the rear vehicle.
- formation information can be transmitted only between the vehicle and the vehicles aligned substantially in a straight line.
- the own vehicle can obtain various information on the forward formation, and can appropriately plan the joining, overtaking, and the like to the formation. As a result, the vehicle can arrive at the destination safely and quickly.
- information on planned routes of vehicles other than the leading vehicle may be added to the planned route information of the formation information.
- information on the estimated arrival time of vehicles other than the leading vehicle may be added to the estimated arrival time information of the formation information.
- the leading vehicle of the formation outputs formation information every predetermined time, but, for example, the formation information may always be output.
- vehicles other than the leading vehicle may transmit formation information to the rear vehicle only when the formation information received from the front vehicle changes. This can reduce power consumption.
- the vehicle behind it may transmit formation information to the rear vehicle.
- the vehicle A detects that the vehicle B (forward vehicle) ahead has left the formation
- the latest formation information from the formation information regarding formations up to the vehicle B) previously received from the vehicle B is detected.
- Information on the vehicle B may be deleted, and information on the vehicle A (vehicle) may be added to update the formation information, and the updated formation information may be output to the rear.
- mobile bodies to which the present technology can be applied include, for example, mobile bodies that are remotely operated (operated) without a user such as a robot being on board.
- the series of processes described above can be performed by hardware or software.
- a program that configures the software is installed on a computer.
- the computer includes, for example, a general-purpose personal computer that can execute various functions by installing a computer incorporated in dedicated hardware and various programs.
- FIG. 8 is a block diagram showing an example of a hardware configuration of a computer that executes the series of processes described above according to a program.
- a central processing unit (CPU) 501 a read only memory (ROM) 502, and a random access memory (RAM) 503 are mutually connected by a bus 504.
- CPU central processing unit
- ROM read only memory
- RAM random access memory
- an input / output interface 505 is connected to the bus 504.
- An input unit 506, an output unit 507, a recording unit 508, a communication unit 509, and a drive 510 are connected to the input / output interface 505.
- the input unit 506 includes an input switch, a button, a microphone, an imaging device, and the like.
- the output unit 507 includes a display, a speaker, and the like.
- the recording unit 508 includes a hard disk, a non-volatile memory, and the like.
- the communication unit 509 is formed of a network interface or the like.
- the drive 510 drives a removable recording medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
- the CPU 501 loads the program recorded in the recording unit 508, for example, to the RAM 503 via the input / output interface 505 and the bus 504, and executes the program. A series of processing is performed.
- the program executed by the computer 500 can be provided by being recorded on, for example, a removable recording medium 511 as a package medium or the like. Also, the program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
- the program can be installed in the recording unit 508 via the input / output interface 505 by attaching the removable recording medium 511 to the drive 510. Also, the program can be received by the communication unit 509 via a wired or wireless transmission medium and installed in the recording unit 508. In addition, the program can be installed in advance in the ROM 502 or the recording unit 508.
- the program executed by the computer may be a program that performs processing in chronological order according to the order described in this specification, in parallel, or when necessary, such as when a call is made. It may be a program to be processed.
- a system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same case. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. .
- the present technology can have a cloud computing configuration in which one function is shared and processed by a plurality of devices via a network.
- each step described in the above-described flowchart can be executed by one device or in a shared manner by a plurality of devices.
- the plurality of processes included in one step can be executed by being shared by a plurality of devices in addition to being executed by one device.
- the present technology can also be configured as follows.
- a row information detection unit that detects row information on a row up to the second moving body based on a first optical signal output from a second moving body in front of the first moving body;
- a row information generation unit that updates the row information by adding information related to the first moving object to the row information;
- An output control unit configured to control an output unit such that a second optical signal is output to the rear of the first moving body based on the updated formation information.
- the convoy information includes at least one of an expected route of the convoy, an estimated arrival time of a destination or a via point of the convoy, a length of the convoy, and information on each mobile unit constituting the convoy
- the information processing apparatus according to (1).
- the information processing apparatus wherein the information related to the moving object includes the size of the moving object.
- the formation information generation unit When the first mobile unit is at the head of the formation, the formation information generation unit generates formation information regarding the formation of only the first movement unit, and the output control unit generates the formation information in the generated formation information.
- the information processing apparatus according to any one of (1) to (3), wherein the output unit is controlled based on the output of the second optical signal to the rear of the first moving body.
- the row information generation unit deletes the information on the second mobile body from the row information on the row up to the second mobile body, and the first And the output control unit is configured to output the second optical signal to the rear of the first mobile body based on the updated coalition information.
- the information processing apparatus controls the output unit to (6)
- the information processing apparatus according to any one of (1) to (5), further including: a convoy behavior planning unit configured to plan an action of the first mobile body with respect to the convoy based on the convoy information.
- a convoy behavior planning unit configured to plan an action of the first mobile body with respect to the convoy based on the convoy information.
- the row action plan unit performs at least one plan of merging, passing, and following the row of the first moving body based on the row information.
- the convoy information includes the size of each moving body that constitutes the convoy,
- the information processing apparatus according to (7), wherein the row action plan unit sets a joining position to the row based on the size of each of the moving objects.
- the row information includes the length of the row, The information processing apparatus according to (7) or (8), wherein the row action plan unit plans to overtake the row based on a length of the row.
- the first mobile unit and the second mobile unit are vehicles.
- the first optical signal is received by an imaging device that captures an area in front of the first moving body.
- the information processing apparatus provided in the first mobile body is Based on a first optical signal output from a second mobile unit in front of the first mobile unit, convoy information regarding a formation up to the second mobile unit is detected, Updating the row information by adding information about the first mobile to the row information; An information processing method for controlling an output unit such that a second optical signal is output to the rear of the first moving body based on the updated formation information.
- a program for executing processing including: an output control step of controlling an output unit such that a second optical signal is output to the rear of the first moving body based on the updated formation information.
- a receiving unit that receives a first optical signal output from another moving object in front of the receiving device;
- a formation information detection unit configured to detect formation information regarding a formation to the other moving object based on the first optical signal;
- a row information generation unit that updates the row information by adding information about itself to the row information;
- An output unit for outputting a second optical signal;
- An output control unit configured to control the output unit such that the second optical signal is output rearward based on the updated formation information.
- Reference Signs List 10 vehicle 100 vehicle control system, 112 automatic driving control unit, 132 self-position estimation unit, 141 external information detection unit, 153 condition recognition unit, 162 action planning unit, 163 operation planning unit, 135 operation control unit, 200 array processing system , 201 formation information transmission unit, 202 formation operation plan unit, 211 reception unit, 213 formation information processing unit, 214 output control unit, 221 formation information detection unit, 223 formation information generation unit, 224 output control unit
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
本技術は、車両等の移動体の隊列に関する情報を容易に取得することができるようにする情報処理装置、情報処理方法、プログラム、及び、移動体に関する。 情報処理装置は、第1の移動体に設けられ、前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出する隊列情報検出部と、前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新する隊列情報生成部と、更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する出力制御部とを備える。本技術は、例えば、自動運転を行う車両に適用できる。
Description
本技術は、情報処理装置、情報処理方法、プログラム、及び、移動体に関し、特に、移動体の隊列に関する情報を容易に取得できるようにした情報処理装置、情報処理方法、プログラム、及び、移動体に関する。
従来、前方車から受信した光データに含まれる識別番号IDを1つインクリメントした値を自車の識別番号IDとし、自車の識別番号IDを含む光データを後方車に送信することが提案されている(例えば、特許文献1参照)。
しかしながら、特許文献1に記載の発明では、隊列走行中の各車両が、識別番号IDにより隊列内の位置を認識することは可能であるが、隊列に関する情報を取得することはできない。
本技術は、このような状況に鑑みてなされたものであり、車両等の移動体の隊列に関する情報を容易に取得できるようにするものである。
本技術の第1の側面の情報処理装置は、第1の移動体に設けられ、前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出する隊列情報検出部と、前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新する隊列情報生成部と、更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する出力制御部とを備える。
本技術の第1の側面の情報処理方法は、第1の移動体に設けられる情報処理装置が、前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出し、前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新し、更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する。
本技術の第1の側面のプログラムは、第1の移動体に設けられるコンピュータに、前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出する隊列情報検出ステップと、前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新する隊列情報生成ステップと、更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する出力制御ステップとを含む処理を実行させる。
本技術の第2の側面の移動体は、前方の他の移動体から出力される第1の光学信号を受信する受信部と、前記第1の光学信号に基づいて、前記他の移動体までの隊列に関する隊列情報を検出する隊列情報検出部と、前記隊列情報に自分に関する情報を加えることにより前記隊列情報を更新する隊列情報生成部と、第2の光学信号を出力する出力部と、更新後の前記隊列情報に基づいて、後方へ前記第2の光学信号が出力されるように前記出力部を制御する出力制御部とを備える。
本技術の第1の側面においては、第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報が検出され、前記隊列情報に前記第1の移動体に関する情報が加えられることにより前記隊列情報が更新され、更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部が制御される。
本技術の第2の側面においては、前方の他の移動体から出力される第1の光学信号が受信され、前記第1の光学信号に基づいて、前記他の移動体までの隊列に関する隊列情報が検出され、前記隊列情報に自分に関する情報が加えられることにより前記隊列情報が更新され、更新後の前記隊列情報に基づいて、後方へ第2の光学信号が出力されるように出力部が制御される。
本技術の第1又は第2の側面によれば、車両等の移動体の隊列に関する情報を容易に取得することができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.車両制御システムの構成例
2.実施の形態
3.変形例
4.その他
1.車両制御システムの構成例
2.実施の形態
3.変形例
4.その他
<<1.車両制御システムの構成例>
図1は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
図1は、本技術が適用され得る移動体制御システムの一例である車両制御システム100の概略的な機能の構成例を示すブロック図である。
車両制御システム100は、車両10に設けられ、車両10の各種の制御を行うシステムである。なお、以下、車両10を他の車両と区別する場合、自車又は自車両と称する。
車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
例えば、データ取得部102は、車両10の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、データ取得部102は、車両10の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、車両10の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部102は、車両10の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である。
例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又は、MHL(Mobile High-definition Link)等により、車内機器104と有線通信を行う。
さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、車両10の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両10と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、車両10に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部105は、車両10の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
出力部106は、車両10の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
駆動系システム108は、車両10の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、車両10の周囲の情報を含むローカルマップ等の地図データを記憶する。
自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、車両10の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両10の衝突警告、又は、車両10のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、車両10の外部の情報の検出処理を行う。例えば、車外情報検出部141は、車両10の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、車両10の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、車両10の状態の検出処理を行う。検出対象となる車両10の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
状況分析部133は、車両10及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、車両10の周囲の信号の位置及び状態、車両10の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10に関する状況の認識処理を行う。例えば、状況認識部153は、車両10の状況、車両10の周囲の状況、及び、車両10の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、車両10の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
認識対象となる車両10の状況には、例えば、車両10の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる車両10の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、車両10に関する状況の予測処理を行う。例えば、状況予測部154は、車両10の状況、車両10の周囲の状況、及び、運転者の状況等の予測処理を行う。
予測対象となる車両10の状況には、例えば、車両10の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる車両10の周囲の状況には、例えば、車両10の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための車両10の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した車両10の行動を示すデータを動作計画部163等に供給する。
動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための車両10の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した車両10の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
動作制御部135は、車両10の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両10の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための車両10の動作を計画する。緊急事態回避部171は、計画した車両10の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された車両10の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
方向制御部173は、動作計画部163又は緊急事態回避部171により計画された車両10の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
<<2.実施の形態>>
次に、図2乃至図7を参照して、本技術の実施の形態について説明する。
次に、図2乃至図7を参照して、本技術の実施の形態について説明する。
なお、この実施の形態は、図1の車両制御システム100のうち、主に検出部131、状況分析部133、及び、行動計画部162の処理に関連するものである。
<隊列処理システムの構成例>
図2は、本技術を適用した隊列処理システム200の一実施の形態を示すブロック図である。
図2は、本技術を適用した隊列処理システム200の一実施の形態を示すブロック図である。
隊列処理システム200は、隊列処理システム200が設けられている車両10の隊列に関連する処理を行うシステムである。隊列処理システム200は、隊列情報伝送部201及び隊列行動計画部202を備える。
隊列情報伝送部201は、車両10の前方車両及び後方車両との間で隊列に関する隊列情報の伝送を行う。隊列情報伝送部201は、受信部211、前方センシング部212、隊列情報処理部213、及び、出力部214を備える。
受信部211は、前方車両から光学的な手法により無線で伝送される隊列情報を受信可能なデバイスを備える。より具体的には、例えば、受信部211は、前方車両から光学的な信号(以下、光学信号と称する)を用いて無線で伝送される隊列情報を受信可能なデバイスを備える。
なお、光学信号には、任意の方式の信号を用いることができる。
例えば、光学変調方式の光学信号を用いることができる。光学変調方式の光学信号とは、光の強度又は波長(色)等を所定の方式により変調した信号のことである。この場合、受信部211は、撮像装置、イメージセンサ、受光素子(例えば、フォトダイオード)等の光学信号を受光可能なデバイスを備える。
なお、光学変調方式の光学信号には、可視光、近赤外光等の任意の波長の信号を用いることができる。
また、例えば、表示方式の光学信号を用いることができる。表示方式の光学信号とは、隊列情報を文字、図形等により表す表示情報(例えば、画像)を用いた視覚的な信号のことである。例えば、前方車両において、隊列情報を文字、図形等により表す画像がディスプレイに表示され、車両10において、撮像装置又はイメージセンサを用いて、その画像が撮影される。そして、撮影された画像に対して画像認識が行われることにより、隊列情報が認識される。この場合、受信部211は、撮像装置、イメージセンサ等の表示情報の撮影が可能なデバイスを備える。
なお、表示方式の光学信号(表示情報)は、必ずしも人が視認可能な信号である必要はなく、受信側のデバイスが認識可能な信号であればよい。従って、表示方式の光学信号には、可視光以外の近赤外光等の任意の波長の信号を用いることができる。
受信部211は、前方車両から受信した隊列情報を含む光学信号(以下、隊列情報信号と称する)を電気信号に変換して、隊列情報処理部213の隊列情報検出部221に供給する。
前方センシング部212は、車両10の前方の物体を検出するための各種の撮像装置及び各種のセンサのうち少なくとも1つを備える。前方センシング部212は、車両10の前方をセンシングした結果を示すセンサデータを隊列情報処理部213の先頭判定部222に供給する。
なお、受信部211の隊列情報信号を受信するデバイスと、前方センシング部212の前方の物体を検出するためのデバイスを共通にしてもよい。例えば、撮像装置、イメージセンサ、受光素子等を、受信部211と前方センシング部212で共有するようにしてもよい。
隊列情報処理部213は、隊列情報の生成又は更新、並びに、後方車両への隊列情報の伝送制御等を行う。隊列情報処理部213は、隊列情報検出部221、先頭判定部222、隊列情報生成部223、及び、出力制御部224を備える。
隊列情報検出部221は、隊列情報信号に含まれる隊列情報を検出し、先頭判定部222、隊列情報生成部223、及び、隊列行動計画部202に供給する。
先頭判定部222は、前方センシング部212からのセンシングデータ、及び、隊列情報検出部221による隊列情報の検出結果に基づいて、車両10が隊列の先頭であるか否かを判定する。先頭判定部222は、判定結果を隊列情報生成部223に供給する。
隊列情報生成部223は、隊列情報の生成又は更新を行い、出力制御部224に供給する。
出力制御部224は、出力部214による隊列情報の出力を制御する。
出力部214は、受信部211と同じ方式の光学信号を出力可能なデバイスを備える。
例えば、出力部214は、光学変調方式の隊列情報信号により隊列情報を出力する場合、車両10の後方に光を発する発光素子を備える。この発光素子には、例えば、LED等の専用の発光素子を用いてもよいし、テールランプ又はブレーキランプ等の車両10の後方に設けられている発光素子を用いてもよい。
なお、隊列情報信号の強度、波長、周波数等は、後方車両の運転者等にちらつきや眩惑等の不快感を与えないように設定することが望ましい。また、ブレーキランプを用いる場合は、隊列情報信号による点灯とブレーキによる点灯を区別できるようにすることが望ましい。
また、例えば、出力部214は、表示方式の隊列情報信号により隊列情報を出力する場合、ディスプレイ又は電光掲示板等の表示デバイスを備える。この表示デバイスは、後方車両から見やすい位置に設置される。
隊列行動計画部202は、隊列情報に基づいて、例えば、合流、追い越し、追従等の隊列に対する車両10の行動の計画を行う。隊列行動計画部202は、作成した計画を示すデータを、図1の動作計画部163等に供給する。
<隊列関連処理>
次に、図3のフローチャートを参照して、隊列処理システム200により実行される隊列関連処理について説明する。なお、この処理は、車両10を起動し、運転を開始するための操作が行われたとき、例えば、車両10のイグニッションスイッチ、パワースイッチ、又は、スタートスイッチ等がオンされたとき開始される。また、この処理は、例えば、運転を終了するための操作が行われたとき、例えば、車両10のイグニッションスイッチ、パワースイッチ、又は、スタートスイッチ等がオフされたとき終了する。
次に、図3のフローチャートを参照して、隊列処理システム200により実行される隊列関連処理について説明する。なお、この処理は、車両10を起動し、運転を開始するための操作が行われたとき、例えば、車両10のイグニッションスイッチ、パワースイッチ、又は、スタートスイッチ等がオンされたとき開始される。また、この処理は、例えば、運転を終了するための操作が行われたとき、例えば、車両10のイグニッションスイッチ、パワースイッチ、又は、スタートスイッチ等がオフされたとき終了する。
なお、以下、この処理において、隊列処理システム200が設けられている車両10のことを自車とも称する。
ステップS1において、隊列情報検出部221は、隊列情報を受信したか否かを判定する。隊列情報を受信していないと判定された場合、処理はステップS2に進む。
ステップS2において、先頭判定部222は、自車が隊列の先頭であるか否かを判定する。具体的には、先頭判定部222は、前方センシング部212からのセンシングデータに基づいて、前方車両の検出を行う。そして、先頭判定部222は、所定の距離の範囲内に前方車両が検出された場合、自車が隊列の先頭でないと判定し、処理はステップS1に戻る。
その後、ステップS1において、隊列情報を受信したと判定されるか、ステップS2において、自車が隊列の先頭であると判定されるまで、ステップS1及びステップS2の処理が繰り返し実行される。
一方、ステップS2において、先頭判定部222は、所定の距離の範囲内に前方車両が検出されなかった場合、自車が隊列の先頭であると判定し、処理はステップS3に進む。このとき、先頭判定部222は、自車が隊列の先頭であることを隊列情報生成部223に通知する。
ステップS3において、隊列情報生成部223は、隊列情報を出力するタイミングであるか否かを判定する。隊列処理システム200は、自車が隊列の先頭である場合、例えば、所定の時間毎(例えば、10秒毎)に隊列情報を出力する。そして、隊列情報生成部223は、前回隊列情報を出力してからまだ所定の時間が経過していない場合、隊列情報を出力するタイミングでないと判定し、処理はステップS1に戻る。
その後、ステップS1において、隊列情報を受信したと判定されるか、ステップS3において、隊列情報を出力するタイミングであると判定されるまで、ステップS1乃至ステップS3の処理が繰り返し実行される。
一方、ステップS3において、隊列情報生成部223は、例えば、前回隊列情報を出力してから所定の時間が経過した場合、或いは、自車が隊列の先頭になった直後である場合、隊列情報を出力するタイミングであると判定し、処理はステップS4に進む。
ステップS4において、隊列情報生成部223は、隊列情報を生成する。具体的には、隊列情報生成部223は、自車が先頭車両であり、かつ、自車のみの1台からなる隊列に関する隊列情報を生成し、出力制御部224に供給する。
図4は、隊列情報の構成例を示している。
隊列情報は、例えば、予定経路情報、到着予定時刻情報、隊列長情報、及び、隊列構成車リストを含む。
予定経路情報は、隊列の先頭車両の目的地及び目的地までの経由地に関する情報を含む。
到着予定時刻情報は、例えば、図5に示されるように、隊列の先頭車両の目的地及び各経由地の到着予定時刻を含む。
隊列長情報は、例えば、隊列の全長、隊列を構成する各車両の全長、及び、各車両間の車間距離を含む。隊列の全長は、例えば、隊列の先頭車両の前端から自車の後端までの長さに設定される。従って、隊列の先頭車両においては、その車両の全長が隊列の全長に設定される。
隊列構成車リストは、例えば、隊列を構成する各車両に関する情報を先頭車両から順番に並べたリストである。各車両に関する情報は、例えば、車両の大きさ、車両の種類、車種名、及び、運動性能を含む。車両の大きさは、例えば、車両の幅方向及び高さ方向の寸法、或いは、車両の断面積を含む。車両の種類は、例えば、トラック、バス、普通自動車、軽自動車等に分類される。なお、隊列長情報に含まれる各車両の全長を、隊列構成車リストに含めてもよい。なお、隊列の先頭車両においては、先頭車両に関する情報のみが隊列構成車リストに登録される。
なお、隊列情報は、この例に限定されるものではなく、必要に応じて、情報の種類や内容を増やしたり、減らしたりすることが可能である。
ステップS5において、出力部214は、出力制御部224の制御の下に、隊列情報を出力する。具体的には、出力部214は、出力制御部224の制御の下に、隊列情報を含む所定の方式の隊列情報信号を自車の後方に向けて出力する。
その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
一方、ステップS1において、自車の前方車両から隊列情報信号が出力された場合、受信部211は、その隊列情報信号を受信し、電気信号に変換して隊列情報検出部221に供給する。そして、隊列情報検出部221は、隊列情報信号に含まれる隊列情報を検出した場合、隊列情報を受信したと判定し、処理はステップS6に進む。なお、前方車両から受信した隊列情報には、先頭車両から前方車両までの隊列に関する情報が含まれる。
ステップS6において、隊列情報生成部223は、隊列情報を更新する。
具体的には、隊列情報検出部221は、検出した隊列情報を隊列情報生成部223に供給する。
隊列情報生成部223は、取得した隊列情報に自車に関する情報を加えることにより隊列情報を更新する。
例えば、隊列情報生成部223は、隊列長情報に含まれる隊列の全長に、前方車両との間の車間距離及び自車の全長を加算する。また、隊列情報生成部223は、自車の全長、及び、前方車両との間の車間距離を隊列長情報に追加する。さらに、例えば、隊列情報生成部223は、隊列構成車リストに自車に関する情報を追加する。
これにより、先頭車両から前方車両までの隊列に関する情報から、先頭車両から自車までの隊列に関する情報に隊列情報が更新される。
隊列情報生成部223は、更新後の隊列情報を出力制御部224に供給する。
ステップS7において、ステップS5の処理と同様に、隊列情報が出力される。
ステップS8において、隊列行動計画部202は、前方の隊列が変化したか否かを判定する。具体的には、隊列行動計画部202は、最新の隊列情報と前回取得した隊列情報を比較する。そして、隊列行動計画部202は、例えば、隊列の目的地、経由地、目的地への到着予定時刻、各経由地への到着予定時刻、並びに、隊列を構成する車両及び車両の順番が変化していない場合、前方の隊列が変化していないと判定し、処理はステップS1に戻る。
その後、ステップS1以降の処理が実行される。
一方、ステップS8において、隊列行動計画部202は、例えば、隊列の目的地、経由地、目的地への到着予定時刻、各経由地への到着予定時刻、並びに、隊列を構成する車両及び車両の順番のうち少なくとも1つが変化している場合、前方の隊列が変化したと判定し、処理はステップS9に進む。なお、例えば、自車が隊列の先頭であった場合に、前方の隊列に追いつき、新たに前方車両から隊列情報を受信した場合も、前方の隊列が変化したと判定され、処理はステップS9に進む。
ステップS9において、隊列行動計画部202は、最新の隊列情報に基づいて、自車の目的地が隊列の目的地又は経由地に含まれているか否かを判定する。自車の目的地が隊列の目的地又は経由地に含まれていると判定された場合、処理はステップS10に進む。
ステップS10において、隊列行動計画部202は、最新の隊列情報に基づいて、隊列の方が自車より目的地に早く到着するか否かを判定する。隊列行動計画部202は、自車の目的地への到着予定時刻が、隊列の方が自車より早い場合、隊列の方が自車より目的地に早く到着すると判定し、処理はステップS11に進む。
ステップS11において、隊列行動計画部202は、隊列への合流位置を設定する。
例えば、隊列行動計画部202は、最新の隊列情報に基づいて、自車より前の隊列内の車両の中から自車より断面積が大きな車両を検出し、検出された車両のいずれかの後ろに合流位置を設定する。これにより、自車は、隊列に合流した後、自車より断面積が大きい車両の後ろを走行することになり、自車への空気抵抗を減らすことができる。
また、例えば、隊列行動計画部202は、最新の隊列情報に基づいて、自車より前の隊列内の車両の中から自車より断面積が小さな車両を検出し、検出された車両のいずれかの前に合流位置を設定する。これにより、自車は、隊列に合流した後、自車より断面積が小さい車両の前を走行することになり、後方車両への空気抵抗を減らすことができる。
なお、上記の2つを組み合わせて、自車の合流位置を設定するようにしてもよい。
例えば、図6に示されるように、車両10(自車)が、車両301乃至車両303からなる隊列に合流する場合の例について説明する。なお、車両の断面積は、車両301>車両302>車両10>車両303であるものとする。
この場合、例えば、図内の矢印で示される、車両10より断面積が大きい車両302の後ろ、かつ、車両10より断面積が小さい車両303の前に合流位置が設定される。これにより、車両10及び車両303の空気抵抗を、それぞれ単独で走行する場合と比較して減らすことができる。
隊列行動計画部202は、合流位置を含む隊列への合流計画を示す行動計画データを生成し、図1の動作計画部163等に供給する。
その後、例えば、動作計画部163が、行動計画データに基づいて動作計画を作成し、動作制御部135が、動作計画に従って、自車の動作の制御を行う。これにより、自車は隊列内の設定された合流位置に合流する。
その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
一方、ステップS9において、自車の目的地が隊列の目的地及び経由地に含まれていないと判定されるか、ステップS10において、隊列の方が自車より目的地に早く到着しないと判定された場合、処理はステップS12に進む。
ステップS12において、隊列行動計画部202は、隊列の追い越し判定を行う。具体的には、隊列行動計画部202は、最新の隊列情報に基づいて、隊列の全長、並びに、隊列の目的地及び経由地等に基づいて、隊列を追い越すか、或いは、追い越さずに隊列に追従するかの判定を行う。
例えば、図7に示されるように、車両10(自車)の前方に車両321乃至車両324からなる隊列が存在する場合の例について説明する。なお、隊列の目的地と自車の目的地が異なり、図内の分岐点Aにおいて、それぞれの目的地の方向が分かれるものとする。
この例の場合、隊列が分岐点Aより前に延びており、車両10が隊列を追い越すと、分岐点Aを通り過ぎてしまい、目的地に向かうことができない。従って、隊列行動計画部202は、隊列に追従すると判定する。
隊列行動計画部202は、隊列を追い越すか又は追従するかの計画を示す行動計画データを生成し、図1の動作計画部163等に供給する。
その後、例えば、動作計画部163が、行動計画データに基づいて動作計画を作成し、動作制御部135が、動作計画に従って、自車の動作の制御を行う。これにより、自車は、隊列を追い越すか、或いは、そのまま隊列に追従する。
その後、処理はステップS1に戻り、ステップS1以降の処理が実行される。
以上の処理により、自車は、前方車両までの隊列に関する情報を容易に取得し、自車を含む隊列に関する情報を後方車両に容易に伝えることができる。特に、自車が備える撮像装置、テールランプ、ブレーキランプ等の光学機器を用いて車両情報信号の伝送を行うことにより、新たなシステムやデバイス等を設けることなく、低コストで隊列情報の伝送を実現することが可能になる。
また、自車は、前方車両からのみ隊列情報を取得し、後方車両へのみ隊列情報を伝送することができる。これにより、他の車線等に複数の隊列が存在しても、自車とほぼ直線状に並ぶ車両との間でのみ隊列情報を伝送することができる。
さらに、自車は、前方の隊列に関する様々な情報を得ることができ、隊列に対する合流、追い越し、追従等を適切に計画することができる。その結果、自車は安全かつ迅速に目的地に到着することができる。
<<3.変形例>>
以下、上述した本開示に係る技術の実施の形態の変形例について説明する。
以下、上述した本開示に係る技術の実施の形態の変形例について説明する。
例えば、隊列情報の予定経路情報に、先頭車両以外の車両の予定経路に関する情報を追加してもよい。この場合、さらに、隊列情報の到着予定時刻情報に、先頭車両以外の車両の到着予定時刻に関する情報を追加してもよい。
また、以上の説明では、隊列の先頭車両が、所定の時間毎に隊列情報を出力する例を示したが、例えば、常に隊列情報を出力するようにしてもよい。
さらに、例えば、先頭車両以外の車両は、前方車両から受信した隊列情報が変化した場合のみ、後方車両に隊列情報を伝送するようにしてもよい。これにより、消費電力を削減することができる。
また、例えば、車両が隊列から離れた場合、その後ろの車両が後方車両に隊列情報を伝送するようにしてもよい。例えば、車両Aが、前方の車両B(前方車両)が隊列から離れたことを検出した場合、その前に車両Bから受信していた最新の隊列情報(車両Bまでの隊列に関する隊列情報)から車両Bに関する情報を削除し、車両A(自車)に関する情報を加えることにより隊列情報を更新し、更新した隊列情報を後方に出力するようにしてもよい。
さらに、本技術は、先に例示した車両以外にも、自動二輪車、自転車、パーソナルモビリティ等の隊列を組んで移動することが可能な移動体に適用することができる。また、本技術が適用可能な移動体には、例えば、ロボット等のユーザが搭乗せずにリモートで運転(操作)する移動体も含まれる。
<<4.その他>>
<コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
<コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図8は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータ500において、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
入力部506は、入力スイッチ、ボタン、マイクロフォン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
以上のように構成されるコンピュータ500では、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ500(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ500では、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
さらに、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
本技術は、以下のような構成をとることもできる。
(1)
第1の移動体に設けられ、
前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出する隊列情報検出部と、
前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新する隊列情報生成部と、
更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する出力制御部と
を備える情報処理装置。
(2)
前記隊列情報は、前記隊列の予定経路、前記隊列の目的地又は経由地の到着予定時刻、前記隊列の長さ、及び、前記隊列を構成する各移動体に関する情報のうち少なくとも1つを含む
前記(1)に記載の情報処理装置。
(3)
前記移動体に関する情報は、移動体の大きさを含む
前記(2)に記載の情報処理装置。
(4)
前記第1の移動体が隊列の先頭である場合、前記隊列情報生成部は、前記第1の移動体のみの隊列に関する隊列情報を生成し、前記出力制御部は、生成された前記隊列情報に基づいて、前記第1の移動体の後方へ前記第2の光学信号が出力されるように前記出力部を制御する
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記第2の移動体が前記隊列から離れた場合、前記隊列情報生成部は、前記第2の移動体までの隊列に関する前記隊列情報から前記第2の移動体に関する情報を削除し、前記第1の移動体に関する情報を加えることにより前記隊列情報を更新し、前記出力制御部は、更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ前記第2の光学信号が出力されるように前記出力部を制御する
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記隊列情報に基づいて、前記第1の移動体の前記隊列に対する行動を計画する隊列行動計画部を
さらに備える前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記隊列行動計画部は、前記隊列情報に基づいて、前記第1の移動体の前記隊列に対する合流、追い越し、及び、追従のうち少なくとも1つの計画を行う
前記(6)に記載の情報処理装置。
(8)
前記隊列情報は、前記隊列を構成する各移動体の大きさを含み、
前記隊列行動計画部は、前記各移動体の大きさに基づいて、前記隊列への合流位置を設定する
前記(7)に記載の情報処理装置。
(9)
前記隊列情報は、前記隊列の長さを含み、
前記隊列行動計画部は、前記隊列の長さに基づいて、前記隊列の追い越しの計画を行う
前記(7)又は(8)に記載の情報処理装置。
(10)
前記第1の光学信号及び前記第2の光学信号は、光の強度又は波長を変調した信号である
前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記第1の移動体及び前記第2の移動体は車両であり、
前記出力制御部は、前記第1の移動体のテールランプ又はブレーキランプを制御することにより、前記第2の光学信号の出力を制御する
前記(10)に記載の情報処理装置。
(12)
前記第1の光学信号は、前記第1の移動体の前方を撮影する撮像装置により受信される
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
第1の移動体に設けられる情報処理装置が、
前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出し、
前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新し、
更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する
情報処理方法。
(14)
第1の移動体に設けられるコンピュータに、
前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出する隊列情報検出ステップと、
前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新する隊列情報生成ステップと、
更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する出力制御ステップと
を含む処理を実行させるためのプログラム。
(15)
前方の他の移動体から出力される第1の光学信号を受信する受信部と、
前記第1の光学信号に基づいて、前記他の移動体までの隊列に関する隊列情報を検出する隊列情報検出部と、
前記隊列情報に自分に関する情報を加えることにより前記隊列情報を更新する隊列情報生成部と、
第2の光学信号を出力する出力部と、
更新後の前記隊列情報に基づいて、後方へ前記第2の光学信号が出力されるように前記出力部を制御する出力制御部と
を備える移動体。
(16)
前記受信部は、前記移動体の前方を撮影する撮像装置を備える
前記(15)に記載の移動体。
(17)
前記出力部は、前記移動体の後方に光を発する発光素子を備える
前記(15)又は(16)に記載の移動体。
(18)
前記移動体及び前記他の移動体は、車両であり、
前記発光素子は、テールランプ又はブレーキランプである
前記(17)に記載の移動体。
第1の移動体に設けられ、
前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出する隊列情報検出部と、
前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新する隊列情報生成部と、
更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する出力制御部と
を備える情報処理装置。
(2)
前記隊列情報は、前記隊列の予定経路、前記隊列の目的地又は経由地の到着予定時刻、前記隊列の長さ、及び、前記隊列を構成する各移動体に関する情報のうち少なくとも1つを含む
前記(1)に記載の情報処理装置。
(3)
前記移動体に関する情報は、移動体の大きさを含む
前記(2)に記載の情報処理装置。
(4)
前記第1の移動体が隊列の先頭である場合、前記隊列情報生成部は、前記第1の移動体のみの隊列に関する隊列情報を生成し、前記出力制御部は、生成された前記隊列情報に基づいて、前記第1の移動体の後方へ前記第2の光学信号が出力されるように前記出力部を制御する
前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
前記第2の移動体が前記隊列から離れた場合、前記隊列情報生成部は、前記第2の移動体までの隊列に関する前記隊列情報から前記第2の移動体に関する情報を削除し、前記第1の移動体に関する情報を加えることにより前記隊列情報を更新し、前記出力制御部は、更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ前記第2の光学信号が出力されるように前記出力部を制御する
前記(1)乃至(4)のいずれかに記載の情報処理装置。
(6)
前記隊列情報に基づいて、前記第1の移動体の前記隊列に対する行動を計画する隊列行動計画部を
さらに備える前記(1)乃至(5)のいずれかに記載の情報処理装置。
(7)
前記隊列行動計画部は、前記隊列情報に基づいて、前記第1の移動体の前記隊列に対する合流、追い越し、及び、追従のうち少なくとも1つの計画を行う
前記(6)に記載の情報処理装置。
(8)
前記隊列情報は、前記隊列を構成する各移動体の大きさを含み、
前記隊列行動計画部は、前記各移動体の大きさに基づいて、前記隊列への合流位置を設定する
前記(7)に記載の情報処理装置。
(9)
前記隊列情報は、前記隊列の長さを含み、
前記隊列行動計画部は、前記隊列の長さに基づいて、前記隊列の追い越しの計画を行う
前記(7)又は(8)に記載の情報処理装置。
(10)
前記第1の光学信号及び前記第2の光学信号は、光の強度又は波長を変調した信号である
前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記第1の移動体及び前記第2の移動体は車両であり、
前記出力制御部は、前記第1の移動体のテールランプ又はブレーキランプを制御することにより、前記第2の光学信号の出力を制御する
前記(10)に記載の情報処理装置。
(12)
前記第1の光学信号は、前記第1の移動体の前方を撮影する撮像装置により受信される
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
第1の移動体に設けられる情報処理装置が、
前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出し、
前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新し、
更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する
情報処理方法。
(14)
第1の移動体に設けられるコンピュータに、
前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出する隊列情報検出ステップと、
前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新する隊列情報生成ステップと、
更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する出力制御ステップと
を含む処理を実行させるためのプログラム。
(15)
前方の他の移動体から出力される第1の光学信号を受信する受信部と、
前記第1の光学信号に基づいて、前記他の移動体までの隊列に関する隊列情報を検出する隊列情報検出部と、
前記隊列情報に自分に関する情報を加えることにより前記隊列情報を更新する隊列情報生成部と、
第2の光学信号を出力する出力部と、
更新後の前記隊列情報に基づいて、後方へ前記第2の光学信号が出力されるように前記出力部を制御する出力制御部と
を備える移動体。
(16)
前記受信部は、前記移動体の前方を撮影する撮像装置を備える
前記(15)に記載の移動体。
(17)
前記出力部は、前記移動体の後方に光を発する発光素子を備える
前記(15)又は(16)に記載の移動体。
(18)
前記移動体及び前記他の移動体は、車両であり、
前記発光素子は、テールランプ又はブレーキランプである
前記(17)に記載の移動体。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
10 車両, 100 車両制御システム, 112 自動運転制御部, 132 自己位置推定部, 141 車外情報検出部, 153 状況認識部, 162 行動計画部, 163 動作計画部, 135 動作制御部, 200 隊列処理システム, 201 隊列情報伝送部, 202 隊列行動計画部, 211 受信部, 213 隊列情報処理部, 214 出力制御部, 221 隊列情報検出部, 223 隊列情報生成部, 224 出力制御部
Claims (18)
- 第1の移動体に設けられ、
前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出する隊列情報検出部と、
前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新する隊列情報生成部と、
更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する出力制御部と
を備える情報処理装置。 - 前記隊列情報は、前記隊列の予定経路、前記隊列の目的地又は経由地の到着予定時刻、前記隊列の長さ、及び、前記隊列を構成する各移動体に関する情報のうち少なくとも1つを含む
請求項1に記載の情報処理装置。 - 前記移動体に関する情報は、移動体の大きさを含む
請求項2に記載の情報処理装置。 - 前記第1の移動体が隊列の先頭である場合、前記隊列情報生成部は、前記第1の移動体のみの隊列に関する隊列情報を生成し、前記出力制御部は、生成された前記隊列情報に基づいて、前記第1の移動体の後方へ前記第2の光学信号が出力されるように前記出力部を制御する
請求項1に記載の情報処理装置。 - 前記第2の移動体が前記隊列から離れた場合、前記隊列情報生成部は、前記第2の移動体までの隊列に関する前記隊列情報から前記第2の移動体に関する情報を削除し、前記第1の移動体に関する情報を加えることにより前記隊列情報を更新し、前記出力制御部は、更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ前記第2の光学信号が出力されるように前記出力部を制御する
請求項1に記載の情報処理装置。 - 前記隊列情報に基づいて、前記第1の移動体の前記隊列に対する行動を計画する隊列行動計画部を
さらに備える請求項1に記載の情報処理装置。 - 前記隊列行動計画部は、前記隊列情報に基づいて、前記第1の移動体の前記隊列に対する合流、追い越し、及び、追従のうち少なくとも1つの計画を行う
請求項6に記載の情報処理装置。 - 前記隊列情報は、前記隊列を構成する各移動体の大きさを含み、
前記隊列行動計画部は、前記各移動体の大きさに基づいて、前記隊列への合流位置を設定する
請求項7に記載の情報処理装置。 - 前記隊列情報は、前記隊列の長さを含み、
前記隊列行動計画部は、前記隊列の長さに基づいて、前記隊列の追い越しの計画を行う
請求項7に記載の情報処理装置。 - 前記第1の光学信号及び前記第2の光学信号は、光の強度又は波長を変調した信号である
請求項1に記載の情報処理装置。 - 前記第1の移動体及び前記第2の移動体は車両であり、
前記出力制御部は、前記第1の移動体のテールランプ又はブレーキランプを制御することにより、前記第2の光学信号の出力を制御する
請求項10に記載の情報処理装置。 - 前記第1の光学信号は、前記第1の移動体の前方を撮影する撮像装置により受信される
請求項1に記載の情報処理装置。 - 第1の移動体に設けられる情報処理装置が、
前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出し、
前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新し、
更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する
情報処理方法。 - 第1の移動体に設けられるコンピュータに、
前記第1の移動体の前方の第2の移動体から出力される第1の光学信号に基づいて、前記第2の移動体までの隊列に関する隊列情報を検出する隊列情報検出ステップと、
前記隊列情報に前記第1の移動体に関する情報を加えることにより前記隊列情報を更新する隊列情報生成ステップと、
更新後の前記隊列情報に基づいて、前記第1の移動体の後方へ第2の光学信号が出力されるように出力部を制御する出力制御ステップと
を含む処理を実行させるためのプログラム。 - 前方の他の移動体から出力される第1の光学信号を受信する受信部と、
前記第1の光学信号に基づいて、前記他の移動体までの隊列に関する隊列情報を検出する隊列情報検出部と、
前記隊列情報に自分に関する情報を加えることにより前記隊列情報を更新する隊列情報生成部と、
第2の光学信号を出力する出力部と、
更新後の前記隊列情報に基づいて、後方へ前記第2の光学信号が出力されるように前記出力部を制御する出力制御部と
を備える移動体。 - 前記受信部は、前記移動体の前方を撮影する撮像装置を備える
請求項15に記載の移動体。 - 前記出力部は、前記移動体の後方に光を発する発光素子を備える
請求項15に記載の移動体。 - 前記移動体及び前記他の移動体は、車両であり、
前記発光素子は、テールランプ又はブレーキランプである
請求項17に記載の移動体。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/638,853 US11014494B2 (en) | 2017-08-22 | 2018-08-08 | Information processing apparatus, information processing method, and mobile body |
| JP2019538059A JPWO2019039281A1 (ja) | 2017-08-22 | 2018-08-08 | 情報処理装置、情報処理方法、プログラム、及び、移動体 |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017159407 | 2017-08-22 | ||
| JP2017-159407 | 2017-08-22 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019039281A1 true WO2019039281A1 (ja) | 2019-02-28 |
Family
ID=65438644
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/029733 Ceased WO2019039281A1 (ja) | 2017-08-22 | 2018-08-08 | 情報処理装置、情報処理方法、プログラム、及び、移動体 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11014494B2 (ja) |
| JP (1) | JPWO2019039281A1 (ja) |
| WO (1) | WO2019039281A1 (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020160728A (ja) * | 2019-03-26 | 2020-10-01 | 本田技研工業株式会社 | 隊列走行支援方法、車両制御装置、及び隊列走行支援システム |
| JP2021086351A (ja) * | 2019-11-27 | 2021-06-03 | トヨタ車体株式会社 | 配送台車、配送システム、配送方法 |
| EP4129790A4 (en) * | 2020-03-31 | 2024-04-10 | Hitachi, Ltd. | MOBILE BODY CONTROL SYSTEM |
| US12097857B2 (en) | 2021-12-23 | 2024-09-24 | Toyota Jidosha Kabushiki Kaisha | Travel controller, method for travel control, and platooning control system |
Families Citing this family (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7241642B2 (ja) * | 2019-08-09 | 2023-03-17 | 本田技研工業株式会社 | 隊列走行システム |
| JP7564706B2 (ja) * | 2020-12-24 | 2024-10-09 | 株式会社Subaru | 車両制御装置 |
| JP7307755B2 (ja) * | 2021-01-14 | 2023-07-12 | 本田技研工業株式会社 | 制御システム、移動体、サーバ、制御方法、及びプログラム |
| US20230095099A1 (en) * | 2021-09-30 | 2023-03-30 | Motional Ad Llc | Vehicle-To-Vehicle Line-Of-Sight Communications |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08163018A (ja) * | 1994-11-30 | 1996-06-21 | Oki Electric Ind Co Ltd | 車両間通信システム及び車両間通信方法 |
| JPH0981899A (ja) * | 1995-09-11 | 1997-03-28 | Toyota Motor Corp | 隊列走行制御装置 |
| JP2008003675A (ja) * | 2006-06-20 | 2008-01-10 | Toyota Motor Corp | 車載用隊列編成装置及び車両の隊列編成方法 |
| JP2013196040A (ja) * | 2012-03-15 | 2013-09-30 | Toshiba Corp | 車両および通信ユニット |
| JP2014153950A (ja) * | 2013-02-08 | 2014-08-25 | Toyota Motor Corp | 運転支援装置及び運転支援方法 |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20020070849A1 (en) * | 2000-12-07 | 2002-06-13 | Teicher Martin H. | Signaling system for vehicles travelling in a convoy |
| JP6015329B2 (ja) * | 2012-10-11 | 2016-10-26 | 株式会社デンソー | 隊列走行システム及び隊列走行装置 |
| SE537259C2 (sv) * | 2013-03-06 | 2015-03-17 | Scania Cv Ab | Anordning och förfarande för ökad trafiksäkerhet vid fordonståg |
| JP5817777B2 (ja) * | 2013-04-17 | 2015-11-18 | 株式会社デンソー | 隊列走行システム |
| US10216196B2 (en) * | 2015-02-01 | 2019-02-26 | Prosper Technology, Llc | Methods to operate autonomous vehicles to pilot vehicles in groups or convoys |
| DE102016122325B4 (de) * | 2016-11-21 | 2023-07-27 | Knorr-Bremse Systeme für Nutzfahrzeuge GmbH | Verfahren zum Betreiben einer nicht-spurgebundenen Kolonne von Fahrzeugen sowie Fahrerassistenzsystem und nicht-spurgebundene Kolonne |
-
2018
- 2018-08-08 US US16/638,853 patent/US11014494B2/en active Active
- 2018-08-08 WO PCT/JP2018/029733 patent/WO2019039281A1/ja not_active Ceased
- 2018-08-08 JP JP2019538059A patent/JPWO2019039281A1/ja active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08163018A (ja) * | 1994-11-30 | 1996-06-21 | Oki Electric Ind Co Ltd | 車両間通信システム及び車両間通信方法 |
| JPH0981899A (ja) * | 1995-09-11 | 1997-03-28 | Toyota Motor Corp | 隊列走行制御装置 |
| JP2008003675A (ja) * | 2006-06-20 | 2008-01-10 | Toyota Motor Corp | 車載用隊列編成装置及び車両の隊列編成方法 |
| JP2013196040A (ja) * | 2012-03-15 | 2013-09-30 | Toshiba Corp | 車両および通信ユニット |
| JP2014153950A (ja) * | 2013-02-08 | 2014-08-25 | Toyota Motor Corp | 運転支援装置及び運転支援方法 |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020160728A (ja) * | 2019-03-26 | 2020-10-01 | 本田技研工業株式会社 | 隊列走行支援方法、車両制御装置、及び隊列走行支援システム |
| JP7233997B2 (ja) | 2019-03-26 | 2023-03-07 | 本田技研工業株式会社 | 隊列走行支援システム |
| JP2021086351A (ja) * | 2019-11-27 | 2021-06-03 | トヨタ車体株式会社 | 配送台車、配送システム、配送方法 |
| JP7310569B2 (ja) | 2019-11-27 | 2023-07-19 | トヨタ車体株式会社 | 配送台車、配送システム、配送方法 |
| EP4129790A4 (en) * | 2020-03-31 | 2024-04-10 | Hitachi, Ltd. | MOBILE BODY CONTROL SYSTEM |
| US12097857B2 (en) | 2021-12-23 | 2024-09-24 | Toyota Jidosha Kabushiki Kaisha | Travel controller, method for travel control, and platooning control system |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2019039281A1 (ja) | 2020-10-15 |
| US11014494B2 (en) | 2021-05-25 |
| US20200361369A1 (en) | 2020-11-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7136106B2 (ja) | 車両走行制御装置、および車両走行制御方法、並びにプログラム | |
| US11014494B2 (en) | Information processing apparatus, information processing method, and mobile body | |
| US11501461B2 (en) | Controller, control method, and program | |
| US11377101B2 (en) | Information processing apparatus, information processing method, and vehicle | |
| US11200795B2 (en) | Information processing apparatus, information processing method, moving object, and vehicle | |
| US12151677B2 (en) | Vehicle control device, vehicle control method, program, and vehicle | |
| WO2019077999A1 (ja) | 撮像装置、画像処理装置、及び、画像処理方法 | |
| WO2019111702A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
| WO2020100585A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
| CN112534297B (zh) | 信息处理设备和信息处理方法、计算机程序、信息处理系统以及移动设备 | |
| US20210300401A1 (en) | Information processing device, moving body, information processing method, and program | |
| JPWO2019082669A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び、移動体 | |
| WO2019082670A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び、移動体 | |
| JPWO2020009060A1 (ja) | 情報処理装置及び情報処理方法、コンピュータプログラム、並びに移動体装置 | |
| US11257374B2 (en) | Information processing apparatus, information processing method, and moving object | |
| US20200191975A1 (en) | Information processing apparatus, self-position estimation method, and program | |
| WO2019150918A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び移動体 | |
| WO2020116204A1 (ja) | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 | |
| JP2020101960A (ja) | 情報処理装置、情報処理方法及びプログラム | |
| US20200357284A1 (en) | Information processing apparatus and information processing method | |
| US20240426997A1 (en) | Information processing apparatus, information processing method, and information processing system | |
| US20220277556A1 (en) | Information processing device, information processing method, and program | |
| US20210396532A1 (en) | Mobile-object control device, mobile-object control method, mobile object, information processing apparatus, information processing method, and program | |
| WO2020158489A1 (ja) | 可視光通信装置、可視光通信方法及び可視光通信プログラム | |
| WO2019097884A1 (ja) | 情報処理装置と管理装置および方法とプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18848463 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2019538059 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18848463 Country of ref document: EP Kind code of ref document: A1 |