WO2019031372A1 - センサ制御装置 - Google Patents
センサ制御装置 Download PDFInfo
- Publication number
- WO2019031372A1 WO2019031372A1 PCT/JP2018/028973 JP2018028973W WO2019031372A1 WO 2019031372 A1 WO2019031372 A1 WO 2019031372A1 JP 2018028973 W JP2018028973 W JP 2018028973W WO 2019031372 A1 WO2019031372 A1 WO 2019031372A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- sensor
- information
- feature
- range
- sensors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/484—Transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C15/00—Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C7/00—Tracing profiles
- G01C7/02—Tracing profiles of land surfaces
- G01C7/04—Tracing profiles of land surfaces involving a vehicle which moves along the profile to be traced
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/4861—Circuits for detection, sampling, integration or read-out
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
Definitions
- the present invention relates to a control device that controls a sensor capable of acquiring current information of a feature.
- a mobile body such as a vehicle may be provided with a sensor for recognizing a feature or another mobile body located on the moving path or around the path.
- a mobile body one provided with a plurality of laser radars as sensors has been proposed (see, for example, Patent Document 1).
- road features are measured by scanning laser light.
- the subject of this invention is mentioned as an example in providing the sensor control apparatus which can make small the data size of the total of the information which a sensor acquires, acquiring the present information of a feature by a sensor.
- the sensor control apparatus of the present invention acquires a first acquisition unit that acquires feature information on a feature, and obtains current information on the feature Controlling the sensor based on a second acquisition unit for acquiring sensor information on possible sensors, the feature information acquired by the first acquisition unit, and the sensor information acquired by the second acquisition unit And a control unit.
- the sensor control method of the present invention is a sensor control method used by the sensor control device, comprising: a first acquisition step of acquiring feature information on a feature; and current information of the feature The sensor is controlled based on a second acquisition step of acquiring sensor information on an obtainable sensor, the feature information acquired in the first acquisition step, and the sensor information acquired in the second acquisition unit. And a control process.
- a sensor control device includes a first acquisition unit that acquires feature information on a feature, a second acquisition unit that obtains sensor information on a sensor that can acquire current information on a feature, and A control unit configured to control a sensor based on the feature information acquired by the first acquisition unit and the sensor information acquired by the second acquisition unit.
- the senor can be appropriately operated as needed by controlling the sensor based on the feature information on the feature and the sensor information on the sensor. .
- the sensor can be appropriately operated as needed by controlling the sensor based on the feature information on the feature and the sensor information on the sensor. .
- the sensor while acquiring detailed current information of the feature by the sensor, it is possible to reduce the total data size of the information acquired by the sensor.
- the system further includes a current position information acquisition unit that acquires current position information of the sensor or the mobile object in which the sensor is disposed, the feature information includes feature position information regarding the position of the feature, and the sensor information is recognizable by the sensor It is preferable to include recognizable range information on the range.
- the control unit sets the sensor to the first Operated in a state (for example, a high sensitivity state with high sensing sensitivity), and it is determined that the position indicated by the feature position information is out of the recognizable range (in other words, it is determined that the sensor can not acquire current feature information In the case of), it is more preferable to operate the sensor in the second state (for example, the low sensitivity state in which the sensing sensitivity is low).
- a state for example, a high sensitivity state with high sensing sensitivity
- operating the sensor in the second state also includes operating so that the output from the sensor is 0 (that is, not performing sensing).
- the senor may increase at least one of the number of measurements in a predetermined scan range and the energy consumption per one measurement than in the second state. By doing this, it is possible to efficiently obtain current information of features.
- the sensor information includes detailed recognition range information on the proximity recognition range in the recognizable range and the normal recognition range outside the proximity recognition range in the recognizable range, and the control unit normally calculates the position indicated by the feature position information.
- the sensor When the position is within the recognition range, the sensor is operated in the first high sensitivity state, and when the position indicated by the feature position information is located within the approach recognition range, the sensor is operated in the second high sensitivity state
- the sensor may operate at a lower sensitivity than the first high sensitivity state in the second high sensitivity state. Thereby, the data size of the information acquired by the sensor can be reduced.
- the approach recognition range may be appropriately set according to the performance of the sensor or the like.
- control unit is configured to be able to control the plurality of sensors, and independently controls the plurality of sensors based on the feature information and the respective sensor information of the plurality of sensors.
- each sensor can be operated appropriately. For example, when a sensor is provided on both sides in the width direction of the movable body, when the feature is positioned on one side in the width direction with respect to the movable body, no sensing is performed in the other side sensor. Control can be performed to switch between the first state and the second state based on whether or not the position indicated by the feature position information is located within the recognizable range.
- current information of a feature can be collected on an external server or the like, and map data stored in the external server or the like can be updated.
- a sensor and a sensor control device be provided in a plurality of mobile bodies, and current information of a feature be output from the external output unit of each sensor control device to a common external server.
- the map data stored in the external server can be updated widely and frequently, and the accuracy of the map data can be improved.
- the sensor may have a projection unit that projects an electromagnetic wave and a reception unit that receives a reflected wave of the electromagnetic wave from the feature.
- the sensor control device is disposed on the moving body, and the sensor includes, as the current information, information on a path upper feature located on the path of the moving body and information on peripheral features located on the periphery of the path. At least one of them may be obtainable.
- a sensor control method is a sensor control method used by the sensor control apparatus, and a first acquisition step of acquiring feature information on a feature and current information of the feature are obtained. And a control step of controlling the sensor based on the feature information acquired in the first acquisition step and the sensor information acquired in the second acquisition unit. .
- the sensor control method of the present embodiment as in the above-described sensor control device, the sensor is appropriately operated as needed, and the sensor acquires detailed current information of the feature by the sensor. The data size of the total of the information to be acquired can be reduced.
- it may be a sensor control program that causes a computer to execute the above-described sensor control method. By doing this, it is possible to reduce the total data size of the information acquired by the sensor while acquiring detailed current information of the feature by the sensor using a computer.
- the above-described sensor control program may be stored in a computer readable recording medium. By doing this, it is possible to distribute the program alone as well as incorporating the program into the device, and to easily upgrade the version.
- the sensor control device 1 is disposed in a vehicle 100 as a moving object, and as shown in FIG. 1, a communication unit 2, a current position acquisition unit 3, a control unit 4, and a storage unit 5. Equipped with In the present embodiment, as shown in FIGS. 2 and 3, a total of four sensors 20A to 20D are provided on each of the front, rear, left, and right of the vehicle 100.
- the vehicle 100 may be a measurement vehicle for the purpose of collecting road information and current information about a feature, or may be a general vehicle for the purpose of passenger movement, passenger transportation, and transportation. Good.
- the sensor control device 1 communicates with the storage device (external server) 300.
- the external server 300 includes a storage unit main body 301, a communication unit 302, and a control unit 303.
- the sensors 20A to 20D each have a projection unit that projects an electromagnetic wave, and a reception unit that receives a reflected wave of the electromagnetic wave from the irradiation target (a ground object to be described later). These sensors may be light sensors (so-called LIDAR; Laser Imaging Detection and Ranging) that project light and receive light reflected by the object to be irradiated.
- LIDAR Laser Imaging Detection and Ranging
- the sensors 20A to 20D will be described as being constituted by light sensors.
- the longest recognition distance L means a distance such that the reflected light has an intensity that can be recognized by the light receiving unit when the irradiated laser light is reflected by the object and reaches the light receiving unit.
- each of the sensors 20A to 20D has an angle range ⁇ in a direction in which the laser beam can be irradiated in the horizontal plane and an angle range ⁇ in a direction in which the laser beam can be irradiated in the vertical direction. . Therefore, the recognizable range of each of the sensors 20A to 20D is determined by the fan shape determined by the longest recognition distance L and the angle range ⁇ in plan view, and by the longest recognition distance L and the angle range ⁇ in front view and side view It forms a fan-shaped area.
- the longest recognition distance L and the angle ranges ⁇ and ⁇ as described above are stored in the storage unit 5 as a database. That is, as the sensor information on the sensors 20A to 20D, the storage unit 5 stores recognizable range information on a range in which each sensor can obtain current information of the feature (a range in which the sensor can recognize the feature). There is.
- the sensors 20A to 20D may have different performances, and the storage unit 5 stores sensor information for each of the sensors 20A to 20D.
- the storage unit 5 also stores detailed recognition range information on the proximity recognition range in the recognizable range and the normal recognition range outside the proximity recognition range in the recognizable range as sensor information.
- the approach recognition range is a range determined in consideration of the influence on the human body, and may be appropriately set according to the performance of the sensors 20A to 20D.
- An example of the sensor information stored in the storage unit 5 as described above is shown in Table 1.
- control unit 4 may perform control to continuously change the recognition sensitivity of each of the sensors 20A to 20D. Alternatively, control may be performed to simply turn on and off each of the sensors 20A to 20D.
- the recognition sensitivity refers to the number of measurements when scanning a predetermined scan range (the number of times the projection unit emits laser light per unit time), and the energy consumed per measurement (the projection unit irradiates It is determined by the intensity of the laser beam and the like. That is, the recognition sensitivity is higher as the number of measurements (the number of laser beam irradiations) in a predetermined scan range is larger, and the recognition sensitivity is higher as the consumption energy per one measurement (intensity of laser light to be irradiated) is larger.
- the communication unit 2 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public line, and communicates with the external server 300 to transmit and receive information.
- the communication unit 2 acquires map information and feature information on features from the external server 300.
- the acquisition timing from the server 300 may be before the start of traveling of the vehicle or may be during traveling.
- the acquired map information and feature information may be stored in the storage unit 5.
- the feature information includes feature position information and the like regarding the position of the feature.
- the communication unit 2 outputs current information of the features acquired by the sensors 20A to 20D to the outside as described later, and functions as an external output unit.
- the feature is a concept including all natural or artificial objects present on the ground.
- features include path features located on the vehicle's path (i.e., the road) and peripheral features located on the periphery of the road.
- the route top feature a road sign, a traffic light, a guardrail, a footbridge, etc. may be mentioned, and the road itself is also included. That is, characters and figures drawn on the road surface, and the shape of the road (road width and curvature) are also included in the route features.
- examples of the peripheral features include buildings (houses, stores) and billboards located along the road.
- feature information is information related to the above-mentioned feature.
- Examples of information included in the feature information include feature position information (including position information indicating feature absence due to removal of feature) indicating the position of the feature, an image or video obtained by photographing the feature in advance And feature point information indicating features such as the shape of the feature obtained by analyzing and change point information in which changes such as the shape of the feature in the secular change of the feature and the like are recorded. That is, by using the sensor, it is possible to acquire (collect) current information of the feature, and thereby, besides recognizing the feature itself, it is possible to recognize the change of the feature, the absence of the feature, etc. It becomes possible.
- the sensors 20A to 20D are sensors capable of acquiring current information of a feature by recognizing (detecting and detecting) the feature described above.
- the recognition of the features by the sensors 20A to 20D means not only the recognition of the features of the features, the recognition of the features such as the recognition of the surface of the features, etc., but also the change of the features and the removal of the features. It also includes the recognition of what has been done. For example, when the sensors 20A to 20D recognize a road sign as a feature, a figure written on the road sign may be recognized, or a surface state (such as peeling or discoloration of a paint) may be recognized. In addition, it may be recognized that the orientation of the sign has changed, or that the sign that should have been present (previously present) has been removed.
- the current position acquisition unit 3 is a GPS reception unit, and receives electric waves transmitted from a plurality of GPS (Global Positioning System) satellites as known, and obtains current position information of the vehicle 100.
- GPS Global Positioning System
- a GPS receiving unit disposed in a vehicle as a part of the navigation device may be used as the current position acquisition unit 3.
- the positions of the sensors 20A to 20D may be the same as the current position of the vehicle, or may be calculated based on the current position information of the vehicle and the information on the mounting location (arrangement location) on the vehicle. Information on the attachment location may be stored in advance in a memory or the like.
- the current position acquisition unit 3 may function as a current position information acquisition unit by using the acquired current position information of the vehicle 100 as the current position information of the sensors 20A to 20D as it is, or the acquired current of the vehicle 100 The position information may be appropriately corrected, and the current position information acquisition unit may function as the current position information of the sensors 20A to 20D.
- the feature information acquired by the communication unit 2 from the external server 300 includes feature position information.
- the control unit 4 determines the distance between the feature and the sensors 20A to 20D based on the feature position information included in the feature information acquired by the communication unit 2 and the current position information acquired by the current position acquisition unit 3. calculate. Note that the position of a feature estimated using the distance between the sensors 20A to 20D and the feature, which is calculated using the output signals of the sensors 20A to 20D and the current position information obtained by the current position obtaining unit 3, If a deviation occurs between the position information and the feature position information included in the feature information, the present position information may be calibrated using the amount of deviation.
- the control unit 4 includes, for example, a central processing unit (CPU) including a memory such as a random access memory (RAM) or a read only memory (ROM), and controls the entire sensor control device 1.
- CPU central processing unit
- RAM random access memory
- ROM read only memory
- the control unit 4 also acquires sensor information of the sensors 20A to 20D from the storage unit 5, and also functions as a second acquisition unit.
- the storage unit 5 includes, for example, a hard disk and a non-volatile memory, and is necessary for sensor information of the sensors 20A to 20D, map information and feature information acquired from the external server 300, a control program of the control unit 4, and various calculations. Formulas and tables are stored, and reading and writing are performed under the control of the control unit 4.
- the storage unit main body 301 of the external server 300 is configured of, for example, a hard disk, nonvolatile memory, and the like, stores the map information and feature information described above, and is read and written under control of the control unit 303.
- the storage unit main body 301 may separately store the map information and the feature information as described above due to the data structure of the storage, or may be integrated with the map information (that is, the feature information May be stored as in the map information.
- sensor control device 1 when acquiring sensor data as mentioned above, sensor control device 1 does not necessarily need to acquire this from external server 300, and may pre-install packaged feature data. .
- map data may be acquired when a feature data transmission process described later is executed.
- Feature information stored in the storage unit main body 301 includes feature data.
- the feature data includes at least one of recognized information on a recognizable range where the sensor can recognize the feature and permission information on permission or non-permission of sensing by the sensor. It has a data structure (feature data structure).
- the recognizable range indicates a range in which it is predicted that the feature can be recognized when the sensor is in the recognizable range.
- the recognizable range is set according to, for example, the size of the feature, the shape of the feature, the position of the feature (for example, the height from the ground), the reflectance of the feature to electromagnetic waves (for example, light), etc. .
- the recognition information may include at least information on the longest distance.
- a circular two-dimensional area within the longest distance centering on the feature may be set as a recognizable range, or a spherical three-dimensional area within the longest distance centering on the feature should be recognized It may be a possible range.
- the to-be-recognizable range is not limited to a circle or a sphere, and may be a shape in which a circle or a sphere is changed according to the shape of a feature.
- a recognizable range may be set only on the road side, and may be a semicircular or hemispherical recognizable range.
- a recognizable range may be set only on the front side to be a semicircular or hemispherical recognizable range.
- the recognition information may be one information or a plurality of information for each feature.
- the range in which the sensor can recognize a feature varies depending on the type and specifications of the assumed sensor. Therefore, the feature data may have a plurality of pieces of to-be-recognized information indicating different to-be-recognized ranges depending on the type and specifications of the sensor.
- the permission information is information indicating whether to allow the sensor to recognize the feature information.
- An example of the permission information is information for permitting execution of sensing when the vehicle 100 (or the sensors 20A to 20D) is located within the recognizable range, and for disallowing execution of sensing when not located.
- Such feature data structure is created by the time of execution of the second sensor control process described later, and is stored in the storage unit main body 301 as a part of map information or feature information (storage step).
- the feature data structure does not have to be created for all features, but may be created for features that are to be preferentially measured by the sensors 20A to 20D (ie, having a high degree of importance).
- the estimation accuracy may be improved using information on the result of the sensor sensing a surrounding feature.
- the result of sensing road signs placed at appropriate intervals on the road may be used. Therefore, it is desirable to configure the feature data structure indicating the road signs preferentially to other features as described above.
- a method of determining the degree of importance of a feature it may be determined according to the purpose of sensing. For example, in the case of sensing for the purpose of acquiring road information, the importance of the route upper feature such as a sign or a traffic light is increased, and in the case of sensing for the purpose of acquiring facility information in the vicinity of the road There are methods such as increasing the importance of surrounding features such as houses, stores) and billboards. It is possible to determine the importance of features by other methods.
- the communication unit 302 includes a circuit, an antenna, and the like for communicating with a network such as the Internet or a public network, and communicates with the communication unit 2 of the sensor control device 1 provided in each of the plurality of vehicles 100 to transmit and receive information.
- the external server 300 is configured to acquire the current position information acquired by the sensor control device 1 by the current position acquisition unit 3 through communication between the communication unit 302 and the communication unit 2. Therefore, the communication unit 302 functions as a position information acquisition unit that acquires position information of the vehicle 100 in which the sensors 20A to 20D are disposed.
- the external server 300 transmits feature data to the sensor control device 1 as described later by communication between the communication unit 302 and the communication unit 2. Therefore, the communication unit 302 functions as a transmitting unit that transmits feature data to the vehicle 100 in which the sensors 20A to 20D are disposed.
- the control unit 303 includes, for example, a central processing unit (CPU) including a memory such as a random access memory (RAM) or a read only memory (ROM), and controls the entire external server 300.
- CPU central processing unit
- RAM random access memory
- ROM read only memory
- the procedure in which the control unit 4 executes the sensor control process shown in FIG. 4 will be described. While the vehicle is traveling, the control unit 4 executes the sensor control process at an appropriate timing (for example, each time a predetermined time elapses or every time the vehicle travels a predetermined distance).
- the sensor control process may be performed independently for each of the sensors 20A to 20D.
- the control unit 4 acquires current position information of the vehicle by the current position acquisition unit 3 (step S1).
- the control unit 4 exists around the current position from feature information stored in the storage unit 5 (that is, feature information acquired and stored in advance from the external server 300 as described later).
- step S2 feature information indicating a feature to be predicted is extracted, and feature position information included in the feature information is acquired.
- the control unit 4 extracts feature absence information indicating that the feature has been removed and the like as feature information around the current position, and the feature location information (feature exists) (Information on the position where the user is not) may be acquired.
- the control unit 4 determines the relative position between the position indicated by the feature position information and the position of the sensor based on the feature position information and the current position information (the distance between the position indicated by the feature position information and the position of the sensor ) Is calculated (step S3, first acquisition step).
- the control unit 4 acquires the recognizable range information and the detailed recognition range information from the storage unit 5 (step S4, second acquisition step).
- control unit 4 determines whether the position indicated by the feature position information is located within the recognizable range (step S5). When the position indicated by the feature position information is out of the recognizable range (N in step S5), the control unit 4 operates the sensors 20A to 20D in the low sensitivity state to acquire sensor acquisition information (step S6). , Control process).
- the control unit 4 determines whether the position indicated by the feature position information is located within the normal recognition range Is determined (step S7).
- the control unit 4 operates the sensors 20A to 20D in the first high sensitivity state to acquire sensor acquisition information (Ste S8, control step).
- the control unit 4 sets the sensors 20A to 20D to the second high sensitivity.
- the sensor acquisition information is acquired by operating in the state (step S9, control step).
- the control unit 4 holds the sensor acquisition information acquired in steps S6, S8 and S9 as it is in the recording device provided in the sensor control device 1, or causes the communication unit 2 to transmit it to the external server 300 (step S10), the sensor control process ends.
- the sensor acquisition information is held in the storage device, the sensor acquisition information is collectively uploaded to the external server after the end of traveling.
- the horizontal axis represents the distance (relative distance) between the sensors 20A to 20D and the feature
- the vertical axis represents the recognition sensitivity of the sensors 20A to 20D
- the first control example is indicated by a solid line.
- a control example is shown by a broken line
- a third control example is shown by an alternate long and short dashed line
- a fourth control example is shown by an alternate long and two short dashed line.
- the recognition sensitivity is substantially constant in each of the first high sensitivity state, the second high sensitivity state, and the low sensitivity state, and is not 0 in the low sensitivity state (that is, sensor 20A). ⁇ 20D is working). Also, the recognition sensitivity in the first high sensitivity state and the second high sensitivity state is higher than the recognition sensitivity in the low sensitivity state, and the recognition sensitivity in the first high sensitivity state is higher than the recognition sensitivity in the second high sensitivity state. ing.
- the recognition sensitivity increases as the relative distance decreases in the first high sensitivity state, decreases as the relative distance decreases in the second high sensitivity state, and becomes zero in the low sensitivity state. Further, in the first high sensitivity state and the second high sensitivity state, the graph of the recognition sensitivity is curved upward.
- the recognition sensitivity increases stepwise (discontinuously) as the relative distance decreases in the first high sensitivity state, is substantially constant in the second high sensitivity state, and is 0 in the low sensitivity state. It has become.
- the recognition sensitivity may be changed or substantially constant according to the relative distance in each sensitivity state. Further, when the recognition sensitivity changes in accordance with the relative distance, the mode of the change may be set arbitrarily. Furthermore, in the low sensitivity state, the recognition sensitivity may be 0 and the sensors 20A to 20D may be turned off (do not operate), or the recognition sensitivity may not be 0 and the sensors 20A to 20D may operate. Further, the shape of the graph in each control example may be a straight line, a curve, or a multidimensional polynomial other than the shape shown in FIG.
- the control unit 303 of the external server 300 executes the feature data transmission process illustrated in FIG. 6 . While the external server 300 is in operation, the control unit 303 always executes feature data transmission processing to all corresponding sensor control devices 1.
- the control unit 303 acquires current position information of the vehicle 100 in which the sensors 20A to 20D are arranged (step S21, position information acquiring step).
- the control unit 303 determines whether a feature exists around the vehicle 100 (step S22). As a specific example of the determination, the control unit 303 determines whether or not there is feature position information included in a predetermined range from the position indicated by the current position information of the vehicle 100 acquired in step S21.
- the predetermined range refers to a range wider than the recognizable range of the feature. That is, when the predetermined range and the recognizable range are circular (or spherical), the radius of the circle (or sphere) formed by the predetermined range is the circle formed by the recognizable range. It means longer than the radius of (or sphere).
- the determination may be made based on only the current position of the vehicle 100, or based on the moving direction of the vehicle 100. For example, even when the position indicated by the feature position information of certain feature information is included in a predetermined range from the current position of the vehicle 100, the vehicle 100 is moved away from the feature In this case, it may be determined that the feature is not located around the vehicle 100.
- the control unit 303 controls the feature data of the feature existing around the vehicle 100 stored in the storage unit main body 301 as the sensor control device 1 (Step S23, transmission step), and the process returns to step S21 again.
- the control unit 303 returns to step S21 again.
- the sensor control device 1 can acquire current information by sensing the target specific feature.
- the control unit 4 of the sensor control device 1 determines the sensors 20A to 20D by determining based on the feature data, for example, in steps S5 to S9 of the sensor control process described above. It just works. That is, the control unit 4 may operate the sensors 20A to 20D based on the current position information and the recognition information or permission information included in the acquired feature data.
- step S31 the control unit 4 acquires current position information of the vehicle by the current position acquisition unit 3
- step S32 the control unit 4 acquires the recognized information of the feature from the external server 300
- step S33 the recognition information of the feature may be acquired by executing step S23 in the feature data transmission process.
- step S33 the control unit 4 determines whether the vehicle is located within the recognizable range.
- the control unit 4 When the vehicle is positioned within the recognizable range (Y in step S33), the control unit 4 operates the sensors 20A to 20D in the first state (for example, the high sensitivity state described above). On the other hand, when the vehicle is positioned outside the recognizable range (N in step S33), the control unit 4 operates the sensors 20A to 20D in the second state (for example, the low sensitivity state described above).
- the control unit 4 holds the sensor acquisition information acquired in steps S34 and S35 as it is in the recording device provided in the sensor control device 1 or causes the communication unit 2 to transmit it to the external server 300 (step S36) ,
- the second sensor control process ends.
- the sensor acquisition information is held in the storage device, the sensor acquisition information is collectively uploaded to the external server after the end of traveling.
- the control unit 4 of the sensor control device 1 needs the sensors 20A to 20D by controlling the sensors 20A to 20D based on feature information on features and sensor information on the sensors 20A to 20D. Accordingly, the data size of the total of the information acquired by the sensors 20A to 20D can be reduced while appropriately operating according to the acquisition of detailed current information of the features by the sensors 20A to 20D.
- the position indicated by the feature position information when the position indicated by the feature position information is located within the recognizable range, detailed current information of the feature can be obtained by operating the sensors 20A to 20D in the high sensitivity state, and the feature When the position indicated by the position information is positioned outside the recognizable range, the data size of the information to be acquired can be reduced by operating the sensors 20A to 20D in the low sensitivity state.
- the position indicated by the feature position information is located within the approach recognition range, sensitivity is lower than when the position is within the normal recognition range, thereby obtaining detailed current information of the feature while the human body is obtained. It is possible to perform sensing taking into account the impact on the environment. In addition, the data size of the information to be acquired can be reduced.
- control unit 4 can operate each of the sensors 20A to 20D appropriately by controlling the plurality of sensors 20A to 20D independently.
- the sensor control device 1 transmits the acquired sensor acquisition information to the external server 300, whereby the sensor acquisition information can be collected in the external server 300, and the map data stored in the external server 300 can be updated.
- the sensor control device 1 is provided in a plurality of vehicles 100, and sensor acquisition information is transmitted from each vehicle 100 to one external server 300, so that one map data can be updated in a wide range and at a high frequency. The accuracy of map data can be improved.
- the present invention is not limited to the above-described embodiment, but includes other configurations and the like that can achieve the object of the present invention, and the following modifications and the like are also included in the present invention.
- the sensor control apparatus 1 transmits sensor acquisition information to the external server 300 in the above embodiment, the sensor control apparatus does not output the sensor acquisition information to the outside, and stores the sensor acquisition information in its own memory. You may use for update of the map data memorize
- control unit 4 independently controls the plurality of sensors 20A to 20D.
- a range that can be recognized by the plurality of sensors is combined into one region, and a feature is detected in this one region
- a plurality of sensors may be operated uniformly based on whether or not the position indicated by the position information is located. Such control can simplify the control process.
- the sensitivity when the position indicated by the feature position information is located within the approach recognition range, the sensitivity is lower than that when the position is within the normal recognition range.
- the position and sensor of the feature The relationship with the sensitivity of the sensor may be appropriately set according to the performance of the sensor, etc.
- the sensor sensitivity may be constant when the position indicated by the feature position information is located in the recognizable range, or the ground The closer the distance between the object and the sensor, the higher the sensitivity.
- step SS5 of the sensor control process it is determined in step SS5 of the sensor control process whether or not the position indicated by the feature position information is located within the recognizable range, and it is determined whether the high sensitivity state or the low sensitivity state is to be made. Although a range smaller than the recognizable range is defined, it is determined whether the position indicated by the feature position information falls within this range, and the high sensitivity state or the low sensitivity state is determined. You may decide
- the sensors 20A to 20D when the position indicated by the feature position information is located within the recognizable range, the sensors 20A to 20D are operated in the high sensitivity state, and the position indicated by the feature position information is out of the recognizable range.
- the sensors 20A to 20D When located, the sensors 20A to 20D are operated in the low sensitivity state, but the scan range of the sensor is changed based on whether or not the position indicated by the feature position information is within the recognizable range. May be That is, when the position indicated by the feature position information is located outside the recognizable range, the scan range is narrowed (including 0), and when the position indicated by the feature position information is located within the recognizable range.
- the scan range may be wide enough to obtain current information of features in sufficient detail.
- the sensor control device 1 is disposed in the vehicle as a movable body, but may be disposed in another mobile body such as a ship or an aircraft, and the feature that is a recognition object of the sensor May be any suitable one according to the route of the mobile unit on which the sensor control device is disposed.
- the sensors 20A to 20D are light sensors.
- the sensors may be any sensor having a limited recognizable range, and even if sound waves or electromagnetic waves are used. Good.
- sensor control device 1 sensor control device 2 communication unit (first acquisition unit, external output unit) 3 Current position acquisition unit (Current position information acquisition unit) 4 control unit (first acquisition unit, second acquisition unit) 20A to 20D Sensor 100 Vehicle (mobile)
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
センサによって地物の詳細な現在情報を取得しつつ、センサが取得する情報の合計のデータサイズを小さくすることができるセンサ制御装置を提供する。センサ制御装置(1)の制御部(4)が、地物に関する地物情報、及び、センサ(20A)~(20D)に関するセンサ情報に基づいてセンサ(20A)~(20D)を制御することで、センサ(20A)~(20D)を必要に応じて適切に動作させ、センサ(20A)~(20D)によって地物の詳細な現在情報を取得しつつ、センサ(20A)~(20D)が取得する情報の合計のデータサイズを小さくすることができる。
Description
本発明は、地物の現在情報を取得可能なセンサを制御する制御装置に関する。
一般に、車両等の移動体には、移動経路上または経路周辺に位置する地物や他の移動体を認識するためのセンサが設けられることがある。このような移動体として、センサとしてのレーザレーダが複数設けられたものが提案されている(例えば、特許文献1参照)。特許文献1に記載された移動体では、レーザ光を走査することによって道路地物を計測するようになっている。
しかしながら、移動体の移動時には、移動体から見て地物が次々と周囲を通過することとなり、特許文献1に記載されたようなレーザレーダを備えた移動体において、走行時に常に道路地物を計測しようとすると、計測データのデータサイズが膨大となってしまう。このとき、センシング精度や計測頻度を低下させればデータサイズを小さくすることができるものの、地物についての必要な情報が得られなくなってしまう可能性がある。
したがって、本発明の課題は、センサによって地物の現在情報を取得しつつ、センサが取得する情報の合計のデータサイズを小さくすることができるセンサ制御装置を提供することが一例として挙げられる。
前述した課題を解決し目的を達成するために、請求項1に記載の本発明のセンサ制御装置は、地物に関する地物情報を取得する第1取得部と、前記地物の現在情報を取得可能なセンサに関するセンサ情報を取得する第2取得部と、前記第1取得部によって取得された前記地物情報、及び、前記第2取得部によって取得された前記センサ情報に基づいて前記センサを制御する制御部と、を備えることを特徴としている。
請求項10に記載の本発明のセンサ制御方法は、センサ制御装置によって利用されるセンサ制御方法であって、地物に関する地物情報を取得する第1取得工程と、前記地物の現在情報を取得可能なセンサに関するセンサ情報を取得する第2取得工程と、前記第1取得工程において取得した前記地物情報、及び、前記第2取得部において取得した前記センサ情報に基づいて前記センサを制御する制御工程と、を含むことを特徴としている。
以下、本発明の実施形態を説明する。本発明の実施形態に係るセンサ制御装置は、地物に関する地物情報を取得する第1取得部と、地物の現在情報を取得可能なセンサに関するセンサ情報を取得する第2取得部と、第1取得部によって取得された地物情報、及び、第2取得部によって取得されたセンサ情報に基づいてセンサを制御する制御部と、を備える。
このような本実施形態のセンサ制御装置によれば、地物に関する地物情報、及び、センサに関するセンサ情報に基づいてセンサを制御することで、センサを必要に応じて適切に動作させることができる。また、センサによって地物の詳細な現在情報を取得しつつ、センサが取得する情報の合計のデータサイズを小さくすることができる。
センサ又はセンサが配置された移動体の現在位置情報を取得する現在位置情報取得部をさらに備え、地物情報は、地物の位置に関する地物位置情報を含み、センサ情報は、センサによる認識可能範囲に関する認識可能範囲情報を含むことが好ましい。さらに、制御部は、地物位置情報によって示される位置が認識可能範囲内に位置する場合(言い換えれば、センサによって地物の現在情報を取得できると判断した場合)には、センサを第1の状態(例えば、センシング感度が高い高感度状態)で動作させ、地物位置情報によって示される位置が認識可能範囲外に位置する場合(言い換えれば、センサによって地物の現在情報を取得できないと判断した場合)には、センサを第2の状態(例えば、センシング感度が低い低感度状態)で動作させることがより好ましい。これにより、地物の現在情報を取得できると判断した場合に、センサによって詳細な地物の現在情報を取得し、地物の現在情報を取得できないと判断した場合に、センサが取得する情報のデータサイズを小さくすることができる。尚、センサを第2の状態で動作させることは、センサからの出力が0となるように動作させる(即ちセンシングを行わない)ことも含む。
このとき、センサは、第1の状態において第2の状態よりも、所定のスキャン範囲における測定回数と、一回の測定あたりの消費エネルギーと、のうち少なくとも一方を大きくすればよい。こうすることにより、効率的に地物の現在情報の取得が可能となる。
センサ情報は、認識可能範囲における接近認識範囲と、認識可能範囲における接近認識範囲の外側の通常認識範囲と、に関する詳細認識範囲情報を含み、制御部は、地物位置情報によって示される位置が通常認識範囲内に位置する場合には、センサを第1高感度状態で動作させ、地物位置情報によって示される位置が接近認識範囲内に位置する場合には、センサを第2高感度状態で動作させ、センサは、第2高感度状態において第1高感度状態よりも低感度で動作してもよい。これにより、センサが取得する情報のデータサイズを小さくすることができる。また、センサが放射する電磁波等の人体への影響を考慮した制御が可能となる。尚、接近認識範囲はセンサの性能等によって適宜に設定されればよい。
制御部は、複数のセンサを制御可能に構成され、地物情報および複数のセンサのそれぞれのセンサ情報に基づいて、複数のセンサを独立に制御することが好ましい。これにより、各センサを適切に動作させることができる。例えば、移動体の幅方向の両側それぞれにセンサが設けられる場合、移動体に対して幅方向一方側に地物が位置する際、他方側のセンサにおいてセンシングせず、一方側のセンサについては、地物位置情報によって示される位置が認識可能範囲内に位置するか否かに基づいて第1の状態と第2の状態とを切り換えるといった制御を行うことができる。
センサによって取得された現在情報を外部に出力する外部出力部をさらに備えることが好ましい。これにより、外部サーバ等に地物の現在情報を集め、外部サーバ等に記憶された地図データを更新することができる。また、複数の移動体にセンサ及びセンサ制御装置が設けられ、各センサ制御装置の外部出力部から共通の外部サーバに対して地物の現在情報が出力されることがより好ましい。それにより、外部サーバに記憶された地図データを広範囲かつ高頻度で更新することができ、地図データの精度を向上させることができる。
センサは、電磁波を投射する投射部と、地物による電磁波の反射波を受信する受信部と、を有していてもよい。また、センサ制御装置は、移動体に配置され、センサは、現在情報として、移動体の経路上に位置する経路上地物に関する情報と、経路の周辺に位置する周辺地物に関する情報と、のうち少なくとも一方を取得可能であってもよい。
また、本発明の実施形態に係るセンサ制御方法は、センサ制御装置によって利用されるセンサ制御方法であって、地物に関する地物情報を取得する第1取得工程と、地物の現在情報を取得可能なセンサに関するセンサ情報を取得する第2取得工程と、第1取得工程において取得した地物情報、及び、第2取得部において取得したセンサ情報に基づいてセンサを制御する制御工程と、を含む。このような本実施形態のセンサ制御方法によれば、上記のセンサ制御装置と同様に、センサを必要に応じて適切に動作させ、センサによって地物の詳細な現在情報を取得しつつ、センサが取得する情報の合計のデータサイズを小さくすることができる。
また、上述したセンサ制御方法をコンピュータにより実行させるセンサ制御プログラムとしてもよい。このようにすることにより、コンピュータを用いて、センサによって地物の詳細な現在情報を取得しつつ、センサが取得する情報の合計のデータサイズを小さくすることができる。
また、上述したセンサ制御プログラムをコンピュータ読み取り可能な記録媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。
以下、本発明の実施例について具体的に説明する。センサ制御装置1は、移動体としての車両100に配置されるものであって、図1に示すように、通信部2と、現在位置取得部3と、制御部4と、記憶部5と、を備える。本実施形態では、図2、3に示すように、車両100の前後左右のそれぞれに計4つのセンサ20A~20Dが設けられている。尚、車両100は、道路情報や地物に関する現在情報を収集することを目的とする計測車両であってもよいし、搭乗者の移動や旅客輸送、運送を目的とした一般車両であってもよい。
センサ制御装置1は、記憶装置(外部サーバ)300と通信する。外部サーバ300は、記憶部本体301と、通信部302と、制御部303と、を有する。
センサ20A~20Dは、電磁波を投射する投射部と、照射対象物(後述する地物)による電磁波の反射波を受光する受信部と、を有する。これらのセンサは、光を投射して照射対象物による反射光を受光する光センサ(いわゆるLIDAR; Laser Imaging Detection and Ranging)であってもよい。以下、センサ20A~20Dが光センサで構成されているものとして説明する。センサ20A~20Dから出力される出力信号を処理することで、レーザ光を投射する方向、且つ、レーザ光の強度等に応じた最長認識距離Lよりも近くに位置する対象物を認識することが可能となる。尚、最長認識距離Lとは、照射したレーザ光が対象物によって反射され受光部に到達した際に、この反射光が、受光部が認識可能な強度を有するような距離を意味する。さらに、センサ20A~20Dは、センサ毎に水平面内においてレーザ光を照射可能な方向の角度範囲θと、鉛直方向においてレーザ光を照射可能な方向の角度範囲φと、をペアで有している。従って、センサ20A~20Dのそれぞれの認識可能範囲は、平面視において、最長認識距離Lと角度範囲θとによって定まる扇形状、正面視および側面視において、最長認識距離Lと角度範囲φとによって定まる扇形状の領域を成す。
上記のような最長認識距離Lと角度範囲θ、φとは、データベースとして記憶部5に記憶されている。即ち、記憶部5には、センサ20A~20Dに関するセンサ情報として、各センサが地物の現在情報を取得可能な範囲(センサが地物を認識可能な範囲)に関する認識可能範囲情報が記憶されている。尚、センサ20A~20Dは、互いに異なる性能を有していてもよく、記憶部5には、センサ20A~20Dのそれぞれについてセンサ情報が記憶されている。
さらに、記憶部5には、センサ情報として、認識可能範囲における接近認識範囲と、認識可能範囲における接近認識範囲の外側の通常認識範囲と、に関する詳細認識範囲情報も記憶する。接近認識範囲とは、人体への影響を考慮して決定される範囲であり、センサ20A~20Dの性能に応じて適宜に設定されていればよい。このように記憶部5に記憶されるセンサ情報の一例を表1に示す。
ここで、制御部4は、センサ20A~20Dのそれぞれの認識感度を連続的に変化させる制御を行ってもよい。或いは、センサ20A~20Dのそれぞれを単にオンオフする制御を行ってもよい。尚、認識感度とは、所定のスキャン範囲をスキャンする際の測定回数(単位時間当たりに投射部がとレーザ光を照射する回数)や、一回の測定あたりの消費エネルギー(投射部が照射するレーザ光の強度)等で決まる。即ち、所定のスキャン範囲における測定回数(レーザ光の照射回数)が多いほど認識感度が高く、一回の測定あたりの消費エネルギー(照射するレーザ光の強度)が大きいほど認識感度が高い。
通信部2は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、外部サーバ300と通信して情報を送受信する。通信部2は、外部サーバ300から地図情報および地物に関する地物情報を取得する。サーバ300からの取得タイミングは、車両の走行開始前であってもよいし、走行中であってもよい。取得した地図情報および地物情報は記憶部5に記憶すればよい。この地物情報には地物の位置に関する地物位置情報等が含まれている。また、通信部2は、後述するようにセンサ20A~20Dによって取得した地物の現在情報を外部に出力し、外部出力部として機能する。
ここで、地物とは、地上に存在する天然または人工のあらゆる物体を含む概念である。地物の例としては、車両の経路(即ち道路)上に位置する経路上地物と、道路の周辺に位置する周辺地物と、が含まれる。経路上地物の例としては、道路標識や信号機、ガードレール、歩道橋等が挙げられ、道路そのものも含まれる。即ち、路面に描写された文字や図形、及び、道路の形状(道幅や曲率)も経路上地物に含まれる。また、周辺地物の例としては、道路に沿って位置する建築物(住宅、店舗)や看板が挙げられる。また、地物情報とは、上述の地物に関連する情報である。地物情報に含まれる情報の例としては、地物の位置を示す地物位置情報(地物の撤去に伴う地物不在を示す位置情報も含む)、事前に地物を撮影した画像や映像を解析することで得られた地物の形状等の特徴を示す特徴点情報、地物の経年変化等における地物の形状等の変化を記録した変化点情報、などが挙げられる。すなわち、センサを利用することによって、地物の現在情報を取得(収集)することが可能となり、これにより地物そのものを認識することの他、地物の変化や地物不在等の認識等も可能となる。
センサ20A~20Dは、上述した地物を認識(検知、検出)することで地物の現在情報を取得可能なセンサである。センサ20A~20Dによる地物の認識とは、地物の外形の認識、地物の表面の認識等の地物が存在することの認識のみならず、地物の変化や、当該地物が撤去されたこと等の認識も含まれる。例えばセンサ20A~20Dが地物としての道路標識を認識する場合、道路標識に記された図形を認識してもよいし、表面状態(塗装の剥がれや色褪せ等)を認識してもよい。また、標識の向きが変化していることや、あるはずの(過去に存在していた)標識が撤去されていること等の状態を認識してもよい。
現在位置取得部3は、GPS受信部であって、公知であるように複数のGPS(Global Positioning System)衛星から発信される電波を受信して、車両100の現在位置情報を求めるものである。尚、ナビゲーション装置の一部として車両に配置されたGPS受信部を現在位置取得部3として利用すればよい。尚、センサ20A~20Dの位置は、車両の現在位置と同じとしてもよいし、車両の現在位置情報と車両における取付箇所(配置箇所)に関する情報とに基づいて算出してもよい。取付箇所に関する情報は、予めメモリ等に記憶させておくようにしてもよい。即ち、現在位置取得部3は、取得した車両100の現在位置情報をそのままセンサ20A~20Dの現在位置情報とすることで現在位置情報取得部として機能してもよいし、取得した車両100の現在位置情報を適宜に補正し、センサ20A~20Dの現在位置情報することで現在位置情報取得部として機能してもよい。
通信部2が外部サーバ300から取得する地物情報には、地物位置情報が含まれている。制御部4は、通信部2が取得した地物情報に含まれる地物位置情報と、現在位置取得部3が取得した現在位置情報と、に基づいて地物とセンサ20A~20Dとの距離を算出する。尚、センサ20A~20Dの出力信号と現在位置取得部3が取得した現在位置情報を用いて算出された、センサ20A~20Dと地物との距離を用いて推定される地物の位置と、地物情報に含まれる地物位置情報と、の間にずれが生じている場合には、当該ずれ量を用いて現在位置情報を較正するようにしてもよい。
制御部4は、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリを備えたCPU(Central Processing Unit)で構成され、センサ制御装置1の全体制御を司る。また、制御部4は、記憶部5からセンサ20A~20Dのセンサ情報を取得し、第2取得部としても機能する。
記憶部5は、例えばハードディスクや不揮発性メモリなどで構成され、センサ20A~20Dのセンサ情報や、外部サーバ300から取得した地図情報及び地物情報、制御部4の制御プログラム、各種演算に必要な数式及びテーブルを記憶し、制御部4からの制御により読み書きがなされる。
外部サーバ300の記憶部本体301は、例えばハードディスクや不揮発性メモリなどで構成され、上述した地図情報及び地物情報を記憶し、制御部303からの制御により読み書きがなされる。尚、記憶部本体301は、その記憶のデータ構造上、上記のように地図情報と地物情報とを別個に記憶するようにしてもよいし、地図情報と一体的に(即ち、地物情報が地図情報に含まれるように)記憶するようにしてもよい。また、尚、センサ制御装置1は、上記のように地図データを取得する際、必ずしもこれを外部サーバ300から取得する必要はなく、パッケージ化された地物データをプリインストールしておいてもよい。また、後述する地物データ送信処理が実行された際に、地図データを取得してもよい。
記憶部本体301に記憶される地物情報には、地物データが含まれる。この地物データは、センサによって地物が認識可能となるような被認識可能範囲についての被認識情報と、センサによるセンシングの実行許可または不許可についての許可情報と、との少なくとも一方を含んだデータ構造(地物データ構造)を有している。被認識可能範囲は、センサが当該認識可能範囲にある場合に、当該地物を認識可能になると予測される範囲を示すものである。被認識可能範囲は、例えば、地物の大きさや、地物の形状、地物の位置(例えば地面からの高さ)、地物の電磁波(例えば光)に対する反射率等に応じて設定される。尚、被認識情報は、少なくとも最長距離についての情報を含んでいればよい。即ち、地物を中心とする最長距離内の円状の二次元的な領域を被認識可能範囲としてもよいし、地物を中心とする最長距離内の球状の三次元的な領域を被認識可能範囲としてもよい。なお、被認識可能範囲は、円状又は球状に限定されるものではなく、地物の形状に応じて円又は球を変化させた形状であってもよい。また、最長距離だけでなく、地物の配置に応じて被認識可能範囲を設定してもよい。例えば、道路に沿って配置された地物については、道路側にのみ被認識可能範囲を設定し、半円状又は半球状の被認識可能範囲としてもよい。また、看板等の表裏がある地物については、表面側にのみ被認識可能範囲を設定し、半円状又は半球状の被認識可能範囲としてもよい。また、被認識情報は、地物ごとに一つの情報であってもよいし、複数の情報としてもよい。例えば、想定されるセンサの種類やスペックによって、当該センサが地物を認識可能になる範囲は異なる。このため、地物データは、センサの種類やスペックによって異なる被認識範囲を示す複数の被認識情報を有することとしてもよい。
許可情報とは、センサに対しその地物情報の認識を許可するか否かを示す情報である。許可情報の一例は、被認識可能範囲に車両100(又はセンサ20A~20D)が位置する場合にセンシングを実行許可し、位置しない場合にセンシングを実行不許可とする情報である。このような地物データ構造は、後述する第2のセンサ制御処理の実行時までに作成され、地図情報又は地物情報の一部として記憶部本体301に記憶される(記憶工程)。尚、地物データ構造は、全ての地物について作成されている必要はなく、センサ20A~20Dによって優先的に測定したい(即ち重要度が高い)地物について作成されるものでもよい。例えば、センサが配置された移動体が、自己位置推定を行なう際に、当該センサが周囲の地物をセンシングした結果の情報を用いて、当該推定精度を向上させる場合がある。この場合は、道路にある適度な間隔で配置されている道路標識をセンシングした結果が用いられることがある。したがって、他の地物に対して優先的に道路標識を示す地物データ構造は上述のように構成しておくことが望ましい。
地物の重要度を決める方法の一例として、センシング目的によって決定するようにしてもよい。例えば、道路情報の取得を目的としてセンシングする場合には、標識や信号機等の経路上地物の重要度を高くし、道路周辺の施設情報の取得を目的としてセンシングする場合には、建築物(住宅、店舗)や看板等の周辺地物の重要度を高くする等の方法がある。その他の方法でも地物の重要度を決めることは可能である。
通信部302は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、複数の車両100のそれぞれに設けられたセンサ制御装置1の通信部2と通信して情報を送受信する。このとき、外部サーバ300は、通信部302と通信部2との通信により、現在位置取得部3によってセンサ制御装置1が取得した現在位置情報を取得するようになっている。従って、通信部302が、センサ20A~20Dが配置された車両100の位置情報を取得する位置情報取得部として機能する。
また、外部サーバ300は、通信部302と通信部2との通信により、後述するようにセンサ制御装置1に対して地物データを送信する。従って、通信部302が、センサ20A~20Dが配置された車両100に対して地物データを送信する送信部として機能する。
制御部303は、例えばRAM(Random Access Memory)やROM(Read Only Memory)などのメモリを備えたCPU(Central Processing Unit)で構成され、外部サーバ300の全体制御を司る。
ここで、制御部4が図4に示すセンサ制御処理を実行する手順について説明する。車両の走行中、適宜なタイミング(例えば所定の時間が経過する毎や、車両が所定距離だけ走行する毎)に制御部4がセンサ制御処理を実行する。尚、センサ制御処理は、センサ20A~20Dのそれぞれについて独立に実行されればよい。センサ制御処理において、まず制御部4は、現在位置取得部3によって車両の現在位置情報を取得する(ステップS1)。次いで、制御部4は、記憶部5に記憶された地物情報(即ち、後述のように、外部サーバ300から事前に取得して記憶させておいた地物情報)から、現在位置周辺に存在すると予測される地物を示す地物情報を抽出し、当該地物情報に含まれる地物位置情報を取得する(ステップS2)。ここで、制御部4は、ステップS2において、現在位置周辺の地物情報として、地物が撤去されたこと等を示す地物不存在の情報を抽出し、地物位置情報(地物が存在しない位置の情報)を取得するようにしてもよい。次いで、制御部4は、地物位置情報と現在位置情報とに基づいて、地物位置情報が示す位置とセンサの位置との相対位置(地物位置情報が示す位置とセンサの位置との距離)を算出する(ステップS3、第1取得工程)。次いで、制御部4は、記憶部5から認識可能範囲情報および詳細認識範囲情報を取得する(ステップS4、第2取得工程)。
次に、制御部4は、算出した相対位置に基づき、地物位置情報によって示される位置が認識可能範囲内に位置するか否かを判定する(ステップS5)。地物位置情報によって示される位置が認識可能範囲外に位置する場合(ステップS5でN)、制御部4は、センサ20A~20Dを低感度状態で動作させてセンサ取得情報を取得する(ステップS6、制御工程)。
一方、地物位置情報によって示される位置が認識可能範囲内に位置する場合(ステップS5でY)、制御部4は、地物位置情報によって示される位置が通常認識範囲内に位置するか否かを判定する(ステップS7)。地物位置情報によって示される位置が通常認識範囲内に位置する場合(ステップS7でY)、制御部4は、センサ20A~20Dを第1高感度状態で動作させてセンサ取得情報を取得する(ステップS8、制御工程)。一方、地物位置情報によって示される位置が通常認識範囲外に位置する(即ち接近認識範囲内に位置する)場合(ステップS7でN)、制御部4は、センサ20A~20Dを第2高感度状態で動作させてセンサ取得情報を取得する(ステップS9、制御工程)。
制御部4は、ステップS6、S8、S9において取得したセンサ取得情報を、センサ制御装置1に設けられた記録装置内にそのまま保持するか、もしくは、通信部2によって外部サーバ300に送信させ(ステップS10)、センサ制御処理を終了する。センサ取得情報を記憶装置内に保持する場合は、走行終了後にセンサ取得情報を外部サーバに一括アップロードする。
ここで、上記の高感度状態および低感度状態の具体例について図5に基づいて説明する。図5のグラフは、横軸がセンサ20A~20Dと地物との距離(相対距離)であり、縦軸がセンサ20A~20Dの認識感度であり、第1制御例を実線で示し、第2制御例を破線で示し、第3制御例を一点鎖線で示し、第4制御例を二点鎖線で示す。尚、図5では、地物情報と感度状態との関係を、距離のみについて示しているが、レーザ光を照射可能な方向の角度範囲内に、地物位置情報によって示される位置が位置していることを前提としている。
まず、第1制御例では、認識感度は、第1高感度状態、第2高感度状態および低感度状態のそれぞれにおいて略一定となっており、且つ、低感度状態において0ではない(即ちセンサ20A~20Dが動作している)。また、第1高感度状態および第2高感度状態における認識感度は、低感度状態における認識感度よりも高く、第1高感度状態における認識感度は、第2高感度状態における認識感度よりも高くなっている。
第2制御例では、認識感度は、第1高感度状態において、相対距離が小さくなるほど高くなり、第2高感度状態において、相対距離が小さくなるほど低くなり、低感度状態において0となっている。また、第1高感度状態および第2高感度状態において、認識感度のグラフは上向きに凸の曲線状となっている。
第3制御例では、認識感度は、第1高感度状態において、相対距離が小さくなるほど段階的に(不連続的に)高くなり、第2高感度状態において略一定であり、低感度状態において0となっている。
以上の第1~第3制御例に示したように、各感度状態において認識感度が相対距離に応じて変化してもよいし略一定であってもよい。また、認識感度が相対距離に応じて変化する場合、その変化の態様は任意に設定されればよい。さらに、低感度状態において、認識感度が0となりセンサ20A~20Dがオフ(動作しない)となってもよいし、認識感度が0とはならずセンサ20A~20Dが動作してもよい。また、各制御例におけるグラフの形状は、図5で示した形状以外の直線、曲線、または多次元多項式であってもよい。
次に、外部サーバ300の制御部303が図6に示す地物データ送信処理を実行する手順について説明する。制御部303は、外部サーバ300の稼働中、対応する全てのセンサ制御装置1に対し、常に地物データ送信処理を実行する。まず、制御部303は、センサ20A~20Dが配置された車両100の現在位置情報を取得する(ステップS21、位置情報取得工程)。次いで、制御部303は、車両100の周辺に地物が存在するか否かを判定する(ステップS22)。当該判定の具体例としては、制御部303は、ステップS21で取得した車両100の現在位置情報が示す位置から所定の範囲内に含まれる地物位置情報が存在するか否かを判定する。ここで、「所定の範囲内」とは、その地物の被認識可能範囲よりも広い範囲を指す。即ち、所定の範囲及び被認識可能範囲を円(又は球)状であるとした場合には、所定の範囲が形成する円(又は球)の半径の方が、被認識可能範囲が構成する円(又は球)の半径よりも長いことを意味する。また、ステップS22では、車両100の現在位置のみに基づいて判定してもよいし、車両100の移動方向にも基づいて判定してもよい。例えば、とある地物情報の地物位置情報が示す位置が車両100の現在位置から所定の範囲内に含まれる場合であっても、車両100が当該地物からと遠ざかるように移動している際には、当該地物の車両100の周辺に位置しないと判定してもよい。
車両100の周辺に地物が存在する場合(ステップS22でY)、制御部303は、記憶部本体301に記憶された、車両100の周辺に存在する地物の地物データをセンサ制御装置1に送信し(ステップS23、送信工程)、再びステップS21に戻る。一方、車両100の周辺に地物が存在しない場合(ステップS22でN)、制御部303は再びステップS21に戻る。このように、地物データがセンサ制御装置1に送信されることにより、センサ制御装置1は、対象とする特定の地物についてセンシングして現在情報を取得することが可能となる。センサ制御装置1の制御部4は、外部サーバ300から地物データを取得した場合、例えば上記のセンサ制御処理のステップS5~S9において、地物データに基づいて判定することによりセンサ20A~20Dを動作させればよい。即ち、制御部4は、現在位置情報と、取得した地物データに含まれる被認識情報又は許可情報と、に基づいてセンサ20A~20Dを動作させればよい。
上記のように外部サーバ300から地物データを取得した場合に制御部4がセンサ20A~20Dを制御する第2のセンサ制御処理の手順の一例を図7に示す。第2のセンサ制御処理において、まず制御部4は、現在位置取得部3によって車両の現在位置情報を取得する(ステップS31)。次いで、制御部4は、外部サーバ300から地物の被認識情報を取得する(ステップS32)。ステップS32では、上記の地物データ送信処理におけるステップS23が実行されることにより、地物の被認識情報を取得すればよい。次に、制御部4は、その車両が被認識可能範囲内に位置するか否かを判定する(ステップS33)。車両が被認識可能範囲内に位置する場合(ステップS33でY)、制御部4は、センサ20A~20Dを第1の状態(例えば上記の高感度状態)で動作させる。一方、車両が被認識可能範囲外に位置する場合(ステップS33でN)、制御部4は、センサ20A~20Dを第2の状態(例えば上記の低感度状態)で動作させる。
制御部4は、ステップS34、S35において取得したセンサ取得情報を、センサ制御装置1に設けられた記録装置内にそのまま保持するか、もしくは、通信部2によって外部サーバ300に送信させ(ステップS36)、第2のセンサ制御処理を終了する。センサ取得情報を記憶装置内に保持する場合は、走行終了後にセンサ取得情報を外部サーバに一括アップロードする。
上記の構成により、センサ制御装置1の制御部4が、地物に関する地物情報、及び、センサ20A~20Dに関するセンサ情報に基づいてセンサ20A~20Dを制御することで、センサ20A~20Dを必要に応じて適切に動作させ、センサ20A~20Dによって地物の詳細な現在情報を取得しつつ、センサ20A~20Dが取得する情報の合計のデータサイズを小さくすることができる。
さらに、地物位置情報が示す位置が認識可能範囲内に位置する場合に、センサ20A~20Dを高感度状態で動作させることにより、地物の詳細な現在情報を取得することができ、地物位置情報が示す位置が認識可能範囲外に位置する場合に、センサ20A~20Dを低感度状態で動作させることにより、取得する情報のデータサイズを小さくすることができる。
また、地物位置情報が示す位置が接近認識範囲内に位置する場合に、通常認識範囲内に位置する場合よりも低感度とすることにより、地物の詳細な現在情報を取得しつつも人体への影響を考量したセンシングが可能となる。また、取得する情報のデータサイズを小さくすることができる。
さらに、制御部4が複数のセンサ20A~20Dを独立に制御することにより、各センサ20A~20Dを適切に動作させることができる。
センサ制御装置1が、取得したセンサ取得情報を外部サーバ300に送信することにより、外部サーバ300にセンサ取得情報を集め、外部サーバ300に記憶された地図データを更新することができる。また、複数の車両100にセンサ制御装置1が設けられ、各車両100から1つの外部サーバ300にセンサ取得情報が送信されることで、1つの地図データを広範囲かつ高頻度で更新することができ、地図データの精度を向上させることができる。
なお、本発明は、前記実施例に限定されるものではなく、本発明の目的が達成できる他の構成等を含み、以下に示すような変形等も本発明に含まれる。
例えば、前記実施例では、センサ制御装置1がセンサ取得情報を外部サーバ300に送信するものとしたが、センサ制御装置は、センサ取得情報を外部に出力せず、センサ取得情報を、自身の記憶部に記憶された地図データの更新に用いてもよい。
また、前記実施例では、制御部4が複数のセンサ20A~20Dを独立に制御するものとしたが、例えば複数のセンサによる認識可能範囲を合わせて1つの領域とし、この1つの領域に地物位置情報が示す位置が位置するか否かに基づき、複数のセンサを一律に動作させてもよい。このような制御とすれば、制御工程を簡素化することができる。
また、前記実施例では、地物位置情報が示す位置が接近認識範囲内に位置する場合に、通常認識範囲内に位置する場合よりも低感度とするものとしたが、地物の位置とセンサの感度との関係は、センサの性能等に応じて適宜に設定されていればよく、地物位置情報が示す位置が認識可能範囲に位置する場合にセンサの感度を一定としてもよいし、地物とセンサとの距離が近くなるほど高感度としてもよい。
また、前記実施例では、センサ制御処理のステップSS5において、地物位置情報が示す位置が認識可能範囲に位置するか否かを判定し、高感度状態とするか又は低感度状態とするかを決定するものとしたが、認識可能範囲よりも狭い範囲を定義し、地物位置情報が示す位置がこの範囲に位置するか否かを判定し、高感度状態とするか又は低感度状態とするかを決定してもよい。
また、前記実施例では、地物位置情報が示す位置が認識可能範囲内に位置する場合に、センサ20A~20Dを高感度状態で動作させ、地物位置情報が示す位置が認識可能範囲外に位置する場合に、センサ20A~20Dを低感度状態で動作させるものとしたが、地物位置情報が示す位置が認識可能範囲内に位置するか否かに基づいて、センサのスキャン範囲を変更してもよい。即ち、地物位置情報が示す位置が認識可能範囲外に位置する場合には、スキャン範囲を狭く(0も含む)し、地物位置情報が示す位置が認識可能範囲内に位置する場合には、地物の現在情報を充分に詳細に取得できる程度にスキャン範囲を広くしてもよい。
また、前記実施例では、センサ制御装置1が移動体としての車両に配置されるものとしたが、船舶や航空機等の他の移動体に配置されてもよく、センサの認識対象である地物は、センサ制御装置が配置される移動体の経路に応じた適宜なものであればよい。
また、前記実施例では、センサ20A~20Dが光センサであるものとしたが、センサは、認識可能な範囲が制限されているものであればよく、音波や電磁波を用いたものであってもよい。
その他、本発明を実施するための最良の構成、方法などは、以上の記載で開示されているが、本発明は、これに限定されるものではない。すなわち、本発明は、主に特定の実施例に関して特に図示され、且つ、説明されているが、本発明の技術的思想および目的の範囲から逸脱することなく、以上述べた実施例に対し、形状、材質、数量、その他の詳細な構成において、当業者が様々な変形を加えることができるものである。従って、上記に開示した形状、材質などを限定した記載は、本発明の理解を容易にするために例示的に記載したものであり、本発明を限定するものではないから、それらの形状、材質などの限定の一部、もしくは全部の限定を外した部材の名称での記載は、本発明に含まれるものである。
1 センサ制御装置
2 通信部(第1取得部、外部出力部)
3 現在位置取得部(現在位置情報取得部)
4 制御部(第1取得部、第2取得部)
20A~20D センサ
100 車両(移動体)
2 通信部(第1取得部、外部出力部)
3 現在位置取得部(現在位置情報取得部)
4 制御部(第1取得部、第2取得部)
20A~20D センサ
100 車両(移動体)
Claims (12)
- 地物に関する地物情報を取得する第1取得部と、
前記地物の現在情報を取得可能なセンサに関するセンサ情報を取得する第2取得部と、
前記第1取得部によって取得された前記地物情報、及び、前記第2取得部によって取得された前記センサ情報に基づいて前記センサを制御する制御部と、を備えることを特徴とするセンサ制御装置。 - 前記センサ又は前記センサが配置された移動体の現在位置情報を取得する現在位置情報取得部をさらに備え、
前記地物情報は、前記地物の位置に関する地物位置情報を含み、
前記センサ情報は、前記センサによる認識可能範囲に関する認識可能範囲情報を含むことを特徴とする請求項1に記載のセンサ制御装置。 - 前記制御部は、前記地物位置情報によって示される位置が前記認識可能範囲内に位置する場合には、前記センサを第1の状態で動作させ、前記地物位置情報によって示される位置が前記認識可能範囲外に位置する場合には、前記センサを第2の状態で動作させることを特徴とする請求項2に記載のセンサ制御装置。
- 前記センサは、前記第1の状態において前記第2の状態よりも、所定のスキャン範囲における測定回数と、一回の測定あたりの消費エネルギーと、のうち少なくとも一方を大きくすることを特徴とする請求項3に記載のセンサ制御装置。
- 前記センサ情報は、前記認識可能範囲における接近認識範囲と、前記認識可能範囲における前記接近認識範囲の外側の通常認識範囲と、に関する詳細認識範囲情報を含み、
前記制御部は、前記地物位置情報によって示される位置が前記通常認識範囲内に位置する場合には、前記センサを第1高感度状態で動作させ、前記地物位置情報によって示される位置が前記接近認識範囲内に位置する場合には、前記センサを第2高感度状態で動作させ、
前記センサは、前記第2高感度状態において前記第1高感度状態よりも低感度で動作することを特徴とする請求項4に記載のセンサ制御装置。 - 前記制御部は、複数の前記センサを制御可能に構成され、前記地物情報および前記複数のセンサのそれぞれの前記センサ情報に基づいて、前記複数のセンサを独立に制御することを特徴とする請求項1に記載のセンサ制御装置。
- 前記センサによって取得された前記現在情報を外部に出力する外部出力部をさらに備えることを特徴とする請求項1に記載のセンサ制御装置。
- 前記センサは、電磁波を投射する投射部と、前記地物による前記電磁波の反射波を受信する受信部と、を有することを特徴とする請求項1に記載のセンサ制御装置。
- 移動体に配置され、
前記センサは、前記現在情報として、前記移動体の経路上に位置する経路上地物に関する情報と、前記経路の周辺に位置する周辺地物に関する情報と、のうち少なくとも一方を取得可能であることを特徴とする請求項1に記載のセンサ制御装置。 - センサ制御装置によって利用されるセンサ制御方法であって、
地物に関する地物情報を取得する第1取得工程と、
前記地物の現在情報を取得可能なセンサに関するセンサ情報を取得する第2取得工程と、
前記第1取得工程において取得した前記地物情報、及び、前記第2取得部において取得した前記センサ情報に基づいて前記センサを制御する制御工程と、を含むことを特徴とするセンサ制御方法。 - 請求項10に記載のセンサ制御方法を、コンピュータにより実行させることを特徴とするセンサ制御プログラム。
- 請求項11に記載のセンサ制御プログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019535149A JPWO2019031372A1 (ja) | 2017-08-09 | 2018-08-02 | センサ制御装置 |
| EP18843688.5A EP3667368B1 (en) | 2017-08-09 | 2018-08-02 | Sensor control device |
| US16/637,662 US11585656B2 (en) | 2017-08-09 | 2018-08-02 | Sensor control device |
| JP2023092884A JP2023111952A (ja) | 2017-08-09 | 2023-06-06 | センサ制御装置 |
| JP2024146362A JP2024161151A (ja) | 2017-08-09 | 2024-08-28 | センサ制御装置 |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017154121 | 2017-08-09 | ||
| JP2017-154121 | 2017-08-09 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019031372A1 true WO2019031372A1 (ja) | 2019-02-14 |
Family
ID=65272105
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/028973 Ceased WO2019031372A1 (ja) | 2017-08-09 | 2018-08-02 | センサ制御装置 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11585656B2 (ja) |
| EP (1) | EP3667368B1 (ja) |
| JP (3) | JPWO2019031372A1 (ja) |
| WO (1) | WO2019031372A1 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6925526B2 (ja) * | 2018-06-12 | 2021-08-25 | 三菱電機株式会社 | 地図生成装置および地図生成システム |
| DE102019200764A1 (de) * | 2019-01-23 | 2020-07-23 | Robert Bosch Gmbh | Optisches System, insbesondere LiDAR-System, sowie Fahrzeug |
| CN111856492B (zh) * | 2020-06-22 | 2021-04-23 | 北京驭光科技发展有限公司 | 动态船舶测高方法和装置 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007232381A (ja) * | 2006-02-27 | 2007-09-13 | Omron Corp | レーダ装置 |
| JP2011196916A (ja) | 2010-03-23 | 2011-10-06 | Mitsubishi Electric Corp | 計測車両、道路地物計測システム |
| JP2013156138A (ja) * | 2012-01-30 | 2013-08-15 | Ihi Corp | 移動物体検出装置 |
| JP2017072422A (ja) * | 2015-10-05 | 2017-04-13 | パイオニア株式会社 | 情報処理装置、制御方法、プログラム及び記憶媒体 |
| WO2017060965A1 (ja) * | 2015-10-06 | 2017-04-13 | パイオニア株式会社 | 光制御装置、制御方法、プログラム及び記憶媒体 |
| US9719801B1 (en) * | 2013-07-23 | 2017-08-01 | Waymo Llc | Methods and systems for calibrating sensors using road map data |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4086298B2 (ja) * | 2003-06-17 | 2008-05-14 | アルパイン株式会社 | 物体検出方法及び装置 |
| JP4357266B2 (ja) * | 2003-10-30 | 2009-11-04 | 富士通テン株式会社 | レーダ装置及びレーダ装置の異常判定方法 |
| DE102012021831A1 (de) | 2012-11-08 | 2014-05-08 | Valeo Schalter Und Sensoren Gmbh | Abtastende optoelektronische Detektionseinrichtung mit einer Detektionsschwelle, Kraftfahrzeg und entsprechendes Verfahren |
| US10082797B2 (en) * | 2015-09-16 | 2018-09-25 | Ford Global Technologies, Llc | Vehicle radar perception and localization |
-
2018
- 2018-08-02 JP JP2019535149A patent/JPWO2019031372A1/ja active Pending
- 2018-08-02 EP EP18843688.5A patent/EP3667368B1/en active Active
- 2018-08-02 WO PCT/JP2018/028973 patent/WO2019031372A1/ja not_active Ceased
- 2018-08-02 US US16/637,662 patent/US11585656B2/en active Active
-
2023
- 2023-06-06 JP JP2023092884A patent/JP2023111952A/ja active Pending
-
2024
- 2024-08-28 JP JP2024146362A patent/JP2024161151A/ja active Pending
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007232381A (ja) * | 2006-02-27 | 2007-09-13 | Omron Corp | レーダ装置 |
| JP2011196916A (ja) | 2010-03-23 | 2011-10-06 | Mitsubishi Electric Corp | 計測車両、道路地物計測システム |
| JP2013156138A (ja) * | 2012-01-30 | 2013-08-15 | Ihi Corp | 移動物体検出装置 |
| US9719801B1 (en) * | 2013-07-23 | 2017-08-01 | Waymo Llc | Methods and systems for calibrating sensors using road map data |
| JP2017072422A (ja) * | 2015-10-05 | 2017-04-13 | パイオニア株式会社 | 情報処理装置、制御方法、プログラム及び記憶媒体 |
| WO2017060965A1 (ja) * | 2015-10-06 | 2017-04-13 | パイオニア株式会社 | 光制御装置、制御方法、プログラム及び記憶媒体 |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP3667368A4 |
Also Published As
| Publication number | Publication date |
|---|---|
| US11585656B2 (en) | 2023-02-21 |
| US20200166339A1 (en) | 2020-05-28 |
| JP2024161151A (ja) | 2024-11-15 |
| EP3667368A4 (en) | 2021-05-05 |
| EP3667368A1 (en) | 2020-06-17 |
| EP3667368B1 (en) | 2024-04-10 |
| JP2023111952A (ja) | 2023-08-10 |
| JPWO2019031372A1 (ja) | 2020-07-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7297017B2 (ja) | オンボードセンサの外部パラメータを較正する方法及び装置、並びに関連する車両 | |
| CN111077506B (zh) | 对毫米波雷达进行标定的方法、装置及系统 | |
| JP2023111952A (ja) | センサ制御装置 | |
| US11960028B2 (en) | Determining specular reflectivity characteristics using LiDAR | |
| CN110888146B (zh) | 自主交通工具计算系统、光检测和测距校准系统及其方法 | |
| US10565721B2 (en) | Information processing device and information processing method for specifying target point of an object | |
| WO2019140950A1 (zh) | 一种车辆定位的方法以及车辆定位装置 | |
| KR20220035894A (ko) | 객체 인식 방법 및 이를 수행하는 객체 인식 장치 | |
| US11971536B2 (en) | Dynamic matrix filter for vehicle image sensor | |
| JP6745169B2 (ja) | レーザ計測システム及びレーザ計測方法 | |
| US11067676B2 (en) | Lidar intensity calibration | |
| US20210316743A1 (en) | Integrated fiducial marker for simultaneously calibrating sensors of different types | |
| JP6973351B2 (ja) | センサ校正方法、及びセンサ校正装置 | |
| TW201934967A (zh) | 用於校準光強度的系統和方法 | |
| US8744752B2 (en) | Apparatus and method for detecting locations of vehicle and obstacle | |
| JP5875492B2 (ja) | 風計測装置 | |
| JP6073944B2 (ja) | レーザ計測システム、反射ターゲット体及びレーザ計測方法 | |
| JP2018119852A (ja) | 位置特定装置、位置特定方法、位置特定システム、位置特定用プログラム、無人航空機および無人航空機識別用ターゲット | |
| CN114102577B (zh) | 一种机器人及应用于机器人的定位方法 | |
| JP2023164502A (ja) | 静止物データ生成装置、制御方法、プログラム及び記憶媒体 | |
| WO2019031373A1 (ja) | 地物データ構造 | |
| JPWO2019151106A1 (ja) | 周辺情報処理方法 | |
| JP6919663B2 (ja) | 衛星マスク生成方法および衛星マスク生成装置 | |
| JP7452349B2 (ja) | 交通用検知装置および交通用検知方法 | |
| JP7582008B2 (ja) | インフラ用電波レーダ、インフラ用電波レーダのデータ補正方法、補正用データ生成装置、補正用データ生成方法、及びコンピュータプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18843688 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2019535149 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2018843688 Country of ref document: EP Effective date: 20200309 |