[go: up one dir, main page]

WO2017168576A1 - 光制御装置、光制御方法およびプログラム - Google Patents

光制御装置、光制御方法およびプログラム Download PDF

Info

Publication number
WO2017168576A1
WO2017168576A1 PCT/JP2016/060166 JP2016060166W WO2017168576A1 WO 2017168576 A1 WO2017168576 A1 WO 2017168576A1 JP 2016060166 W JP2016060166 W JP 2016060166W WO 2017168576 A1 WO2017168576 A1 WO 2017168576A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
unit
inclination
angle
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2016/060166
Other languages
English (en)
French (fr)
Inventor
和俊 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to PCT/JP2016/060166 priority Critical patent/WO2017168576A1/ja
Priority to US16/088,774 priority patent/US11016290B2/en
Priority to JP2018507892A priority patent/JP6595095B2/ja
Publication of WO2017168576A1 publication Critical patent/WO2017168576A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a light control device that controls transition of emitted light.
  • a lidar (LIDAR) is known that scans in the horizontal direction while emitting laser light intermittently and receives the reflected light to detect a point cloud on the surface of the object.
  • Patent Document 1 describes a method of detecting information about the situation of the automobile by scanning the surroundings in one or two dimensions with a lidar mounted on the automobile.
  • the multi-layered lidar requires an optical transmitter / receiver for the number of layers, which is very expensive.
  • the direction of laser light emitted from the rider changes, and the object cannot be detected correctly.
  • the invention according to claim 1 is a light control device installed in the moving body, wherein the light emitting section that emits light, the light receiving section that receives the light reflected by the object, and the moving body An acquisition unit that acquires inclination information related to an inclination, and a control unit that controls an emission direction of the light emitted by the emission unit based on the inclination information.
  • the invention according to claim 6 is a light control method executed by a light control device that is installed in a moving body and includes a light emitting unit that emits light and a light receiving unit that receives the light reflected by an object. Then, an acquisition step of acquiring inclination information related to the inclination of the moving body, and a control step of controlling the emission direction of the light emitted by the emission unit based on the inclination information.
  • the invention according to claim 7 is a program executed by a light control device that is installed in a moving body and includes an emitting unit that emits light, a light receiving unit that receives the light reflected by an object, and a computer. Then, the computer is caused to function as an acquisition unit that acquires inclination information related to the inclination of the moving body, and a control unit that controls the emission direction of the light emitted by the emission unit based on the inclination information.
  • the invention according to claim 8 is a light control device installed in the moving body, wherein the light emitting section that emits light, the light receiving section that receives the light reflected by the object, and the moving body.
  • the acquisition unit that acquires inclination information regarding inclination, and the emission unit that emits light based on the inclination information so that the locus of the light emitted by the emission unit has a constant shape regardless of the inclination.
  • a control unit that controls the light emission direction.
  • the example of the scanning state by an omnidirectional scanning part is shown.
  • the trajectory of spiral scanning is shown.
  • the scanning field by spiral scanning is shown.
  • trajectory of a helical scan is shown.
  • the change of the detection state of the target object by the inclination of a vehicle is shown typically.
  • the correction of the scanning range by adaptive spiral scanning is shown.
  • trajectory of the adaptive spiral scan of 1st Example is shown.
  • trajectory of the adaptive spiral scan of 1st Example is shown.
  • trajectory of the adaptive spiral scan of 1st Example is shown.
  • trajectory of the adaptive spiral scan of 1st Example is shown. It is a flowchart of the adaptive spiral scanning of 1st Example. The pitching movement of a vehicle is shown typically.
  • trajectory of the adaptive spiral scanning of 2nd Example is shown. It is a flowchart of the adaptive spiral scanning of 2nd Example.
  • the light control device installed in the moving body relates to an emission unit that emits light, a light receiving unit that receives the light reflected by the object, and an inclination of the moving body.
  • An acquisition unit that acquires inclination information; and a control unit that controls an emission direction of the light emitted by the emission unit based on the inclination information.
  • the above-described light control device emits light from the emitting unit, and receives light reflected by the object by the light receiving unit.
  • the acquisition unit acquires inclination information related to the inclination of the moving body, and the control unit controls the emission direction of the light emitted from the emission unit based on the inclination information. Thereby, the direction of the emitted light can be appropriately controlled according to the inclination of the moving body.
  • the inclination information is information indicating a direction angle of the moving body in a first direction and an inclination angle of the moving body in a second direction intersecting with the first direction. including.
  • the light emission direction is controlled based on the direction angle in the first direction and the inclination angle in the second direction.
  • the tilt information includes a direction angle of the rotational motion of the moving body in a first direction and an amplitude angle of the rotational motion in a second direction intersecting with the first direction. And the frequency of the rotational motion.
  • the light emission direction is controlled based on the direction angle, the amplitude angle, and the frequency of the rotational motion.
  • control unit continuously shifts the light emitted by the emission unit in the first direction and the second direction, so that the light
  • the emission unit is controlled so that the transition locus of the spiral is spiral.
  • Another aspect of the light control device further includes a detection unit that detects at least one of a distance and an angle to the object based on a light reception result of the light receiving unit. In this aspect, it is possible to obtain at least one of the distance to the object and the angle based on the light reception result of the light receiving unit.
  • a light control method executed by a light control device that is installed on a moving body and includes a light emitting unit that emits light and a light receiving unit that receives the light reflected by the object.
  • a light control device that is installed on a moving body and includes a light emitting unit that emits light and a light receiving unit that receives the light reflected by the object.
  • the direction of the emitted light can be appropriately controlled according to the inclination of the moving body.
  • a program that is installed in a moving body and that is executed by a light control device that includes an emitting unit that emits light, a light receiving unit that receives the light reflected by an object, and a computer.
  • a light control device that includes an emitting unit that emits light, a light receiving unit that receives the light reflected by an object, and a computer.
  • the light control device installed in the moving body includes an emitting unit that emits light, a light receiving unit that receives the light reflected by the object, and the moving unit.
  • the acquisition unit that acquires inclination information regarding inclination, and the emission unit that emits light based on the inclination information so that the locus of the light emitted by the emission unit has a constant shape regardless of the inclination.
  • a control unit that controls the light emission direction.
  • the above-described light control device emits light from the emitting unit, and receives light reflected by the object by the light receiving unit.
  • the acquisition unit acquires inclination information related to the inclination of the moving body, and the control unit, based on the inclination information, causes the locus of the light emitted by the emission unit to have a constant shape regardless of the inclination.
  • the emission direction of the light emitted from the emission unit is controlled. Thereby, the direction of the emitted light can be appropriately controlled according to the inclination of the moving body.
  • FIG. 1 is a block diagram showing a configuration of a lidar unit 100 according to an embodiment of the light control apparatus of the present invention.
  • the rider unit 100 according to the embodiment is mounted on a moving body such as a vehicle.
  • the lidar unit 100 is a TOF (Time Of Flight) type lidar (Lidar: Light Detection and Ranging, or Laser Illuminated Detection And Ranging), and measures an object (object) in all horizontal directions.
  • the lidar unit 100 includes a light transmitting / receiving unit 1, a signal processing unit 2, an omnidirectional scanning unit 3, a scanning angle control unit 4, a scanning angle detection unit 5, and an attitude angle detection unit 6. Prepare.
  • the light transmitting / receiving unit 1 includes a laser diode or the like, generates a laser pulse PL, and supplies the laser pulse PL to the omnidirectional scanning unit 3.
  • the omnidirectional scanning unit 3 emits a laser pulse (hereinafter also referred to as “transmission light pulse Pt”) in all directions of 360 ° in the horizontal direction while changing the emission direction to the vertical direction. At this time, the omnidirectional scanning unit 3 emits a transmission light pulse Pt for each segment (900 segments in the present embodiment) obtained by dividing 360 ° in the horizontal direction at equal angles.
  • the omnidirectional scanning unit 3 receives the reflected light of the transmission light pulse Pt (hereinafter also referred to as “reception light pulse Pr”) within a predetermined period after emission of the transmission light pulse Pt, and sends it to the light transmission / reception unit 1. Supply.
  • the light transmitting / receiving unit 1 generates a signal related to the received light intensity for each segment (hereinafter also referred to as “segment signal Sseg”) based on the received light pulse Pr, and outputs the signal to the signal processing unit 2.
  • the scanning angle detection unit 5 detects the horizontal angle ⁇ and the vertical angle ⁇ indicating the emission direction of the transmission light pulse Pt emitted from the omnidirectional scanning unit 3, and supplies it to the signal processing unit 2.
  • the attitude angle detection unit 6 is a sensor attached to the vehicle, for example, and detects the attitude of the vehicle on which the rider unit 100 is mounted. Specifically, the posture angle detection unit 6 detects the inclination of the vehicle caused by the external (road) environment, and uses the angle of the direction in which the vehicle is inclined (hereinafter referred to as “inclination direction”) as an estimated inclination value indicating the inclination. .Theta..sub.dir and the angle at which the vehicle is inclined (hereinafter referred to as "inclination angle"). Phi.tilt is detected and supplied to the signal processing unit 2. FIG. In addition, the inclination of the vehicle here does not mean the inclination (attachment error) that occurs when the rider unit 100 is attached to the vehicle.
  • the attitude angle control unit 6 detects the pitching motion of the vehicle, and uses the pitching motion direction ⁇ dir , the frequency f pitch , the amplitude ⁇ pitch , and the phase shift with respect to the pitching motion frame time as the pitching motion estimation value indicating the pitching motion.
  • p pitch is detected and supplied to the signal processing unit 2.
  • a sensor may be attached to the omnidirectional scanning unit 3 instead of attaching a sensor to the vehicle, and the inclination of the omnidirectional scanning unit 3 itself may be detected.
  • the signal processing unit 2 outputs the surrounding environment information including at least one of the distance to the target object or the angle of the target object based on the segment signal Sseg for each segment received from the light transmitting / receiving unit 1.
  • the surrounding environment information is information indicating the surrounding environment of the vehicle on which the lidar unit 100 is mounted. Specifically, the surrounding environment information is information indicating a distance and an angle of an object existing in all directions around the vehicle.
  • the signal processing unit 2 generates a target horizontal angle ⁇ x and a target vertical angle ⁇ x as control targets based on the horizontal angle ⁇ and the vertical angle ⁇ detected by the scanning angle detection unit 5, and the scanning angle control unit 4 To supply.
  • the scanning angle control unit 4 controls the scanning angle of the transmission light pulse Pt by the omnidirectional scanning unit 3 based on the target horizontal angle ⁇ x and the target vertical angle ⁇ x supplied from the signal processing unit 2.
  • the omnidirectional scanning unit 3 is controlled to emit transmitted light pulse Pt to the target horizontal angle theta x and the target vertical angle phi.
  • the signal processing unit 2 detects the scan angle ⁇ detected by the scan angle detection unit 5 and the tilt estimation detected by the posture angle detection unit 6.
  • a vertical angle (hereinafter referred to as “corrected vertical angle”) ⁇ after correcting the fluctuation of the scanning angle due to the inclination or pitching motion of the vehicle is generated based on the value or the estimated pitching motion value, and this is generated as a target. supplied to the scanning angle control unit 4 as a vertical angle phi x. Therefore, the scanning angle control unit 4 can control the scanning angle of the transmission light pulse Pt so as to correct the influence of the vehicle inclination or pitching motion.
  • the configuration of the light transmitting / receiving unit 1 is shown in FIG.
  • the light transmission / reception unit 1 mainly includes a crystal oscillator 10, a synchronization control unit 11, an LD driver 12, a laser diode (LD) 13, a light receiving element 16, a current-voltage conversion circuit (transimpedance amplifier) 17, An A / D converter 18 and a segmentator 19 are included.
  • the crystal oscillator 10 outputs a pulsed clock signal S1 to the synchronization control unit 11 and the A / D converter 18.
  • the clock frequency is assumed to be 1.8 GHz.
  • the clock indicated by the clock signal S1 is also referred to as a “sample clock”.
  • the synchronization control unit 11 outputs a pulse-like signal (hereinafter referred to as “trigger signal S2”) to the LD driver 12.
  • a period from when the trigger signal S2 is asserted to when it is asserted next is also referred to as a “segment period”.
  • the synchronization control unit 11 outputs a signal (hereinafter referred to as “segment extraction signal S3”) that determines the timing at which the segmenter 19 described later extracts the output of the A / D converter 18 to the segmenter 19.
  • the trigger signal S2 and the segment extraction signal S3 are logic signals and are synchronized as shown in FIG.
  • the synchronization control unit 11 asserts the segment extraction signal S3 by a time width corresponding to 2048 sample clocks (also referred to as “gate width Wg”).
  • the LD driver 12 causes a pulse current to flow to the laser diode 13 in synchronization with the trigger signal S2 input from the synchronization control unit 11.
  • the laser diode 13 is, for example, an infrared (905 nm) pulse laser, and emits an optical pulse based on a pulse current supplied from the LD driver 12. In this embodiment, the laser diode 13 emits a light pulse of about 5 nsec.
  • the light pulse emitted from the laser diode 13 is sent to the omnidirectional scanning unit 3 via the optical system.
  • the omnidirectional scanning unit 3 emits the transmission light pulse Pt, receives the light pulse reflected by the object as the reception light pulse Pr, and sends it to the light receiving element 16.
  • the light receiving element 16 is, for example, an avalanche photodiode, and generates a weak current corresponding to the light amount of the received light pulse Pr guided by the omnidirectional scanning unit 3.
  • the light receiving element 16 supplies the generated weak current to the current-voltage conversion circuit 17.
  • the current-voltage conversion circuit 17 amplifies the weak current supplied from the light receiving element 16 and converts it into a voltage signal, and inputs the converted voltage signal to the A / D converter 18.
  • the A / D converter 18 converts the voltage signal supplied from the current-voltage conversion circuit 17 into a digital signal based on the clock signal S1 supplied from the crystal oscillator 10, and supplies the converted digital signal to the segmenter 19.
  • the digital signal generated by the A / D converter 18 every clock is also referred to as “sample”.
  • the segmenter 19 generates, as a segment signal Sseg, a digital signal that is an output of the A / D converter 18 for 2048 sample clocks in a period corresponding to the gate width Wg in which the segment extraction signal S3 is asserted.
  • the segmentator 19 supplies the generated segment signal Sseg to the signal processing unit 2.
  • FIG. 3 shows waveforms in time series of the trigger signal S2 and the segment extraction signal S3.
  • the segment period which is a period of one cycle in which the trigger signal S2 is asserted, is set to a length of 131072 sample clocks (denoted as “smpclk” in the drawing).
  • the pulse width of the trigger signal S2 is set to a length corresponding to 64 sample clocks, and the gate width Wg is set to a length corresponding to 2048 sample clocks.
  • the segmentator 19 since the segment extraction signal S3 is asserted only for the period of the gate width Wg after the trigger signal S2 is asserted, the segmentator 19 includes 2048 A / D converters 18 for which the trigger signal S2 is being asserted. Will extract the sample output. The longer the gate width Wg, the longer the maximum distance measurement distance (range measurement limit distance) from the lidar unit 100.
  • the omnidirectional scanning unit 3 includes, for example, a rotatable mirror and an optical system for scanning the transmission light pulse Pt at 360 °.
  • the direction in which the omnidirectional scanning unit 3 transmits and receives optical pulses to and from the surrounding environment (hereinafter also referred to as “exit direction”) is determined by the horizontal angle ⁇ and the vertical angle ⁇ .
  • FIG. 4 shows an example of a scanning state by the omnidirectional scanning unit 3.
  • FIG. 4A is a perspective view showing a state in which the omnidirectional scanning unit 3 performs horizontal scanning.
  • FIG. 4B is a plan view of the omnidirectional scanning unit 3 as viewed from above.
  • FIG. 4C shows a state in which the omnidirectional scanning unit 3 is scanning above the horizontal scanning state shown in FIG. Specifically, the omnidirectional scanning unit 3 scans the optical pulse at a vertical angle ⁇ with respect to the vertical reference axis. As described above, the omnidirectional scanning unit 3 can perform three-dimensional scanning by continuously changing the angle in the horizontal direction and the vertical direction.
  • the light transmitting / receiving unit 1 is an example of the emitting unit and the light receiving unit in the present invention
  • the attitude angle detecting unit 6 is an example of the acquiring unit in the present invention
  • the scanning angle control unit 4 is an example of a control unit in the present invention
  • the signal processing unit 2 is an example of a detection unit in the present invention.
  • FIG. 5 shows a spiral scanning locus.
  • FIG. 5A is a perspective view of a locus by spiral scanning
  • FIG. 5B is a plan view of the locus by spiral scanning
  • FIG. 5C is a side view of the locus by spiral scanning.
  • FIG. 5 shows a trajectory formed by a point at a certain distance in the emission direction of the transmission light pulse Pt by the scanning of the omnidirectional scanning unit 3.
  • FIG. 5 shows a trajectory drawn by the transmission light pulse Pt emitted by the omnidirectional scanning unit 3 on a spherical surface having a predetermined radius in space.
  • the one-time (one frame) spiral scan by the omnidirectional scanning unit 3 reaches the end point E through the spiral turn of seven layers (seven windings) from the start point S, and then the start point S.
  • the omnidirectional scanning unit 3 repeats this spiral scanning. Specifically, the horizontal angle ⁇ repeats a change from 0 ° to 360 ° seven times during one frame of spiral scanning. Meanwhile, the vertical angle phi, is changed at a constant rate of change and the vertical angle phi 0 at the end point E from the vertical angle -.phi 0 at the start of S.
  • the time during which the emission direction of the transmission light pulse Pt returns from the end point E to the start point S is called a “return line range”.
  • the blanking range is a range for returning the emission direction of the transmission light pulse Pt to a predetermined direction in order to repeat the helical scanning.
  • FIG. 6A shows a horizontal field of view of spiral scanning.
  • the blanking range is 90 °
  • FIG. 7 shows an example of a trajectory of spiral scanning when no vehicle tilt or pitching motion occurs.
  • 7A is a perspective view of the above spiral scanning
  • FIG. 7B is an XY plan view
  • FIG. 7C is an XZ plan view
  • FIG. 7D is a YZ plan view. is there.
  • the first embodiment relates to adaptive spiral scanning when the vehicle is tilted.
  • the rider unit 100 that performs the spiral scanning is mounted on a vehicle.
  • the omnidirectional scanning unit 3 mounted on the vehicle is similarly tilted.
  • the rider unit 100 is driven by the light beam emitted from the omnidirectional scanning unit 3 as shown in FIG.
  • the low-position object OB L and the high-position object OB H can be detected.
  • the lidar unit 100 detects the object OB L at a low position by the light beam as shown in FIG. 8D. It is possible to detect the object OB H at a high position.
  • the rider unit 100 can detect the object OB H at the high position, but the object OB L at the low position can be detected. It can no longer be detected.
  • the vertical angle of the light beam emitted by the omnidirectional scanning unit 3 is corrected according to the direction and angle.
  • the light beam emitted from the omnidirectional scanning unit 3 is standardized as shown by an arrow X in FIG. 9B.
  • the correction is made so as to be directed upward from the emission direction.
  • FIG. 9C shows a spiral scanning locus when the vehicle V is not inclined.
  • the omnidirectional scanning unit 3 changes the vertical angle of the spiral scanning to an angle ⁇ c upward as shown in FIG.
  • the omnidirectional scanning unit 3 orients the horizontal reference axis V 0 of the spiral scanning upward by the angle ⁇ c. As a result, even when the vehicle V is inclined, the lidar unit 100 can correctly detect the object OB L at the low position and the object OB H at the high position.
  • the attitude angle detection unit 6 detects the inclination of the vehicle.
  • the inclination of the vehicle is indicated by an inclination direction ⁇ dir indicating a direction in which the vehicle is inclined in a horizontal plane and an inclination angle ⁇ tilt that is an angle in which the vehicle is inclined in a vertical plane.
  • the signal processing unit 2 calculates the corrected vertical angle ⁇ by the following equation (2) based on the inclination direction ⁇ dir and the inclination angle ⁇ tilt supplied from the posture angle detection unit 6.
  • Expression (2) is an approximate expression established in a range where the tilt angle is small, such as ⁇ tilt ⁇ 30 °, and the corrected vertical angle ⁇ can be expressed as a simple function of the horizontal scanning angle ⁇ ′. Suitable for implementation.
  • the signal processing unit 2 supplies the calculated corrected vertical angle phi, the scanning angle control unit 4 as the target vertical angle phi x.
  • Scan angle control unit 4 based on the input target vertical angle phi x, controls the vertical angle of the transmitted light pulse Pt. In this way, fluctuations in the spiral scanning range due to vehicle inclination can be corrected correctly.
  • 10A is a perspective view of the spiral scan after correction
  • FIG. 10B is an XY plan view
  • FIG. 10C is an XZ plan view
  • FIG. 10D is a YZ plan view. It is.
  • 11A is a perspective view of the spiral scan after correction
  • FIG. 11B is an XY plan view
  • FIG. 11C is an XZ plan view
  • FIG. 11D is a YZ plan view. It is.
  • 12A is a perspective view of the spiral scan after correction
  • FIG. 12B is an XY plan view
  • FIG. 12C is an XZ plan view
  • FIG. 12D is a YZ plan view. It is.
  • 13A is a perspective view of the spiral scan after correction
  • FIG. 13B is an XY plan view
  • FIG. 13C is an XZ plan view
  • FIG. 13D is a YZ plan view. It is.
  • FIG. 14 is a flowchart of adaptive spiral scanning of the first embodiment.
  • the posture angle detector 6 detects the inclination of the vehicle (step S11).
  • the attitude angle detector 6 estimates the vehicle inclination direction ⁇ dir and the inclination angle ⁇ tilt (step S12).
  • the detected inclination direction ⁇ dir and inclination angle ⁇ tilt (hereinafter referred to as “inclination estimation value”) are sent to the signal processing unit 2 as an inclination estimation value.
  • the signal processing unit 2 calculates the corrected vertical angle ⁇ by the equation (2) based on the vertical angle ⁇ detected by the scanning angle detection unit 5 and the estimated tilt value detected by the posture angle detection unit 6 (step S13). ).
  • Calculated correction vertical angle phi is sent as the target vertical angle phi x to the scanning angle control unit 4.
  • the scanning angle control unit 4 controls the vertical angle ⁇ of the transmission light pulse Pr based on the target vertical angle ⁇ x (step S14).
  • the second embodiment relates to adaptive spiral scanning when the vehicle is pitching.
  • a pitching motion which is a variation in the pitch direction, may occur in the vehicle V due to the condition of the traveling road surface and the like.
  • the direction of the light beam emitted from the omnidirectional scanning unit 3 is also changed by the pitching motion. Therefore, in the second embodiment, the lidar unit 100 detects the pitching motion of the vehicle V and corrects the vertical angle of the light beam emitted by the omnidirectional scanning unit 3 in accordance with this.
  • posture angle detection unit 6 detects the pitching motion of the vehicle.
  • the pitching motion of the vehicle is indicated by the pitching motion direction ⁇ dir , the frequency f pitch , the amplitude ⁇ pitch, and the phase shift p pitch with respect to the frame time of the pitching motion.
  • the signal processing unit 2 calculates the corrected vertical angle ⁇ by the following equation (3) based on these values supplied from the posture angle detection unit 6.
  • the signal processing unit 2 supplies the calculated corrected vertical angle phi, the scanning angle control unit 4 as the target vertical angle phi x.
  • Scan angle control unit 4 based on the input target vertical angle phi x, controls the vertical angle of the transmitted light pulse Pt. In this way, fluctuations in the spiral scanning range due to vehicle inclination can be corrected correctly.
  • 16A is a perspective view of the spiral scan after correction
  • FIG. 16B is an XY plan view
  • FIG. 16C is an XZ plan view
  • FIG. 16D is a YZ plan view. It is.
  • FIG. 17 is a flowchart of adaptive spiral scanning according to the second embodiment.
  • the posture angle detector 6 detects the pitching motion of the vehicle (step S21).
  • the posture angle detection unit 6 estimates the pitching motion direction ⁇ dir , the frequency f pitch , the amplitude ⁇ pitch, and the phase shift p pitch with respect to the frame time of the pitching motion as the pitching motion estimation values (step) S22).
  • the obtained pitching motion estimation value is sent to the signal processing unit 2.
  • the signal processing unit 2 calculates the corrected vertical angle ⁇ according to Equation (3) (step S3).
  • Calculated correction vertical angle phi is sent as the target vertical angle phi x to the scanning angle control unit 4.
  • the scanning angle control unit 4 controls the vertical angle ⁇ of the transmission light pulse Pr based on the target vertical angle ⁇ x (step S24).
  • the number of layers in the spiral scanning or the partial multilayer scanning is 7.
  • scanning can be performed with an arbitrary number of layers.
  • the vertical angle ⁇ is increased from the lowermost layer to the upper layer side to move the emission direction.
  • the vertical angle ⁇ is decreased from the uppermost layer to the lower layer side to change the emission direction. It may be moved.
  • correction processing related to pitching motion is performed, but correction processing related to rolling motion may be performed.
  • the present invention can be used in a technique for acquiring ambient environment information by emitting laser light.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

光制御装置は、出射部から光を出射し、対象物にて反射された光を受光部により受光する。また、取得部は、移動体の傾斜に関する傾斜情報を取得し、制御部は、傾斜情報に基づいて、前記出射部が出射する光の出射方向を制御する。

Description

光制御装置、光制御方法およびプログラム
 本発明は、出射光の遷移を制御する光制御装置に関する。
 レーザ光を間欠的に発光させつつ水平方向を走査し、その反射光を受信することで物体表面の点群を検出するライダ(LIDAR)が知られている。特許文献1は、自動車に搭載したライダにより1次元又は2次元で周囲を走査し、自動車の周囲の状況についての情報を検出する手法を記載している。
特開2014-89691号公報
 周囲の状況についての情報を3次元で取得したい場合、多層型のライダを使用する必要がある。しかし、多層型のライダは層数分の光送受信器を必要とするため、非常に高コストとなる。また、ライダを搭載した車両などの移動体が傾斜した場合、それによりライダが出射するレーザ光の方向が変動してしまい、物体を正しく検出できなくなってしまう。
 本発明が解決しようとする課題としては、上記のものが例として挙げられる。本発明は、移動体が傾斜した状態でも、単一の送受信器を用いて3次元の情報を取得することを可能とする光制御装置を提供することを目的とする。
 請求項1に記載の発明は、移動体に設置される光制御装置であって、光を出射する出射部と、対象物にて反射された前記光を受光する受光部と、前記移動体の傾斜に関する傾斜情報を取得する取得部と、前記傾斜情報に基づいて、前記出射部が出射する前記光の出射方向を制御する制御部と、を備える。
 請求項6に記載の発明は、移動体に設置され、光を出射する出射部及び対象物にて反射された前記光を受光する受光部を備える光制御装置によって実行される光制御方法であって、前記移動体の傾斜に関する傾斜情報を取得する取得工程と、前記傾斜情報に基づいて、前記出射部が出射する前記光の出射方向を制御する制御工程と、を備える。
 請求項7に記載の発明は、移動体に設置され、光を出射する出射部、対象物にて反射された前記光を受光する受光部及びコンピュータを備える光制御装置によって実行されるプログラムであって、前記移動体の傾斜に関する傾斜情報を取得する取得部、前記傾斜情報に基づいて、前記出射部が出射する前記光の出射方向を制御する制御部、として前記コンピュータを機能させる。
 請求項8に記載の発明は、移動体に設置される光制御装置であって、光を出射する出射部と、対象物にて反射された前記光を受光する受光部と、前記移動体の傾斜に関する傾斜情報を取得する取得部と、前記傾斜情報に基づいて、前記出射部が出射する前記光の軌跡が、前記傾斜によらず一定の形状となるように、前記出射部が出射する前記光の出射方向を制御する制御部と、を備える。
実施例に係るライダユニットの構成を示すブロック図である。 送受光部の構成を示すブロック図である。 トリガ信号及びセグメント抽出信号の波形を示す。 全方位走査部による走査状態の例を示す。 螺旋走査の軌跡を示す。 螺旋走査による走査視野を示す。 螺旋走査の軌跡の例を示す。 車両の傾斜による目標物の検出状態の変化を模式的に示す。 適応螺旋走査による走査範囲の補正を示す。 第1実施例の適応螺旋走査の軌跡の例を示す。 第1実施例の適応螺旋走査の軌跡の他の例を示す。 第1実施例の適応螺旋走査の軌跡の他の例を示す。 第1実施例の適応螺旋走査の軌跡の他の例を示す。 第1実施例の適応螺旋走査のフローチャートである。 車両のピッチング運動を模式的に示す。 第2実施例の適応螺旋走査の軌跡の例を示す。 第2実施例の適応螺旋走査のフローチャートである。
 本発明の好適な実施形態では、移動体に設置される光制御装置は、光を出射する出射部と、対象物にて反射された前記光を受光する受光部と、前記移動体の傾斜に関する傾斜情報を取得する取得部と、前記傾斜情報に基づいて、前記出射部が出射する前記光の出射方向を制御する制御部と、を備える。
 上記の光制御装置は、出射部から光を出射し、対象物にて反射された光を受光部により受光する。また、取得部は、移動体の傾斜に関する傾斜情報を取得し、制御部は、傾斜情報に基づいて、前記出射部が出射する光の出射方向を制御する。これにより、移動体の傾斜に応じて、出射する光の方向を適切に制御することができる。
 上記の光制御装置の一態様では、前記傾斜情報は、第1の方向における前記移動体の方向角度、及び、前記第1の方向と交わる第2の方向における前記移動体の傾斜角度を示す情報を含む。この態様では、第1の方向における方向角度と第2の方向における傾斜角度に基づいて、光の出射方向が制御される。
 上記の光制御装置の他の一態様では、前記傾斜情報は、第1の方向における前記移動体の回転運動の方向角度、前記第1の方向と交わる第2の方向における前記回転運動の振幅角度、及び、前記回転運動の周波数を含む。この態様では、回転運動の方向角度、振幅角度及び周波数に基づいて、光の出射方向が制御される。
 上記の光制御装置の他の一態様では、前記制御部は、前記出射部によって出射される光を、前記第1の方向と前記第2の方向とに連続的に推移させることで、前記光の遷移軌跡が螺旋状となるように前記出射部を制御する。この態様では、遷移軌跡が螺旋状となるように光が出射されるため、全方位の対象物により反射された光を受光することができる。
 上記の光制御装置の他の一態様は、前記受光部の受光結果に基づいて、前記対象物までの距離及び角度の少なくとも一方を検出する検出部をさらに備える。この態様では、受光部の受光結果に基づいて、対象物までの距離及び角度の少なくとも一方を得ることができる。
 本発明の他の好適な実施形態では、移動体に設置され、光を出射する出射部及び対象物にて反射された前記光を受光する受光部を備える光制御装置によって実行される光制御方法は、前記移動体の傾斜に関する傾斜情報を取得する取得工程と、前記傾斜情報に基づいて、前記出射部が出射する前記光の出射方向を制御する制御工程と、を備える。この方法によっても、移動体の傾斜に応じて、出射する光の方向を適切に制御することができる。
 本発明の他の好適な実施形態では、移動体に設置され、光を出射する出射部、対象物にて反射された前記光を受光する受光部及びコンピュータを備える光制御装置によって実行されるプログラムは、前記移動体の傾斜に関する傾斜情報を取得する取得部、前記傾斜情報に基づいて、前記出射部が出射する前記光の出射方向を制御する制御部、として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、移動体の傾斜に応じて、出射する光の方向を適切に制御することができる。
 本発明の他の好適な実施形態では、移動体に設置される光制御装置は、光を出射する出射部と、対象物にて反射された前記光を受光する受光部と、前記移動体の傾斜に関する傾斜情報を取得する取得部と、前記傾斜情報に基づいて、前記出射部が出射する前記光の軌跡が、前記傾斜によらず一定の形状となるように、前記出射部が出射する前記光の出射方向を制御する制御部と、を備える。
 上記の光制御装置は、出射部から光を出射し、対象物にて反射された光を受光部により受光する。また、取得部は、移動体の傾斜に関する傾斜情報を取得し、制御部は、傾斜情報に基づいて、前記出射部が出射する前記光の軌跡が前記傾斜によらず一定の形状となるように、前記出射部が出射する光の出射方向を制御する。これにより、移動体の傾斜に応じて、出射する光の方向を適切に制御することができる。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [構成]
 図1は、本発明の光制御装置の実施例に係るライダユニット100の構成を示すブロック図である。実施例のライダユニット100は、車両などの移動体に搭載される。ライダユニット100は、TOF(Time Of Flight)方式のライダ(Lidar:Light Detection and Ranging、または、Laser Illuminated Detection And Ranging)であって、水平方向の全方位における物体(対象物)の測距を行う。図示のように、ライダユニット100は、送受光部1と、信号処理部2と、全方位走査部3と、走査角度制御部4と、走査角度検出部5と、姿勢角度検出部6とを備える。
 送受光部1は、レーザダイオードなどを備え、レーザパルスPLを生成して全方位走査部3に供給する。全方位走査部3は、出射方向を垂直方向に変化させつつ、水平方向の360°の全方位にレーザパルス(以下、「送信光パルスPt」とも呼ぶ。)を出射する。このとき、全方位走査部3は、水平方向の360°の全方位を等角度により区切ったセグメント(本実施例では900セグメント)ごとに送信光パルスPtを出射する。さらに、全方位走査部3は、送信光パルスPt出射後の所定期間内に当該送信光パルスPtの反射光(以下、「受信光パルスPr」とも呼ぶ。)を受光し、送受光部1へ供給する。送受光部1は、受信光パルスPrに基づいて、セグメントごとの受光強度に関する信号(以下、「セグメント信号Sseg」とも呼ぶ。)を生成し、信号処理部2へ出力する。
 走査角度検出部5は、全方位走査部3が出射する送信光パルスPtの出射方向を示す水平角度θ及び垂直角度φを検出し、信号処理部2へ供給する。
 姿勢角度検出部6は、例えば車両に取り付けられたセンサであり、ライダユニット100が搭載された車両の姿勢を検出する。具体的には、姿勢角度検出部6は、外部(道路)環境によって生じる車両の傾斜を検出し、傾斜を示す傾斜推定値として、車両の傾斜している方向の角度(以下、「傾斜方向」と呼ぶ。)θdirと、車両の傾斜している角度(以下、「傾斜角度」と呼ぶ。)φtiltを検出して信号処理部2へ供給する。なお、ここでいう車両の傾斜は、ライダユニット100を車両に取り付けた際に生じる傾斜(取付誤差)を意味するものではない。もしくは、姿勢角度制御部6は、車両のピッチング運動を検出し、ピッチング運動を示すピッチング運動推定値として、ピッチング運動の方向θdir、周波数fpitch、振幅φpitch、ピッチング運動のフレーム時間に対する位相ずれppitchなどを検出して信号処理部2へ供給する。なお、姿勢角度検出部6として、車両にセンサを取り付ける代わりに全方位走査部3にセンサを取り付け、全方位走査部3自体の傾斜を検出するようにしてもよい。
 信号処理部2は、送受光部1から受信したセグメントごとのセグメント信号Ssegに基づいて、対象物までの距離又は対象物の角度の少なくとも一方を含む周辺環境情報を出力する。周辺環境情報は、ライダユニット100が搭載された車両の周辺環境を示す情報であり、具体的には、車両を中心とする全方位に存在する対象物の距離及び角度を示す情報である。
 信号処理部2は、走査角度検出部5により検出された水平角度θ及び垂直角度φに基づいて、制御目標としての目標水平角度θ及び目標垂直角度φを生成し、走査角度制御部4へ供給する。走査角度制御部4は、信号処理部2から供給された目標水平角度θ及び目標垂直角度φに基づいて全方位走査部3による送信光パルスPtの走査角度を制御する。これにより、全方位走査部3は、目標水平角度θ及び目標垂直角度φに送信光パルスPtを出射するように制御される。
 なお、姿勢角度検出部6が車両の傾斜又はピッチング運動を検出した場合には、信号処理部2は、走査角度検出部5が検出した走査角度θと、姿勢角度検出部6が検出した傾斜推定値又はピッチング運動推定値とに基づいて、車両の傾斜又はピッチング運動による走査角度の変動分を補正した後の垂直角度(以下、「補正垂直角度」と呼ぶ。)φを生成し、これを目標垂直角度φとして走査角度制御部4へ供給する。よって、走査角度制御部4は、車両の傾斜又はピッチング運動による影響を補正するように送信光パルスPtの走査角度を制御することができる。
 次に、送受光部1について詳しく説明する。送受光部1の構成を図2に示す。送受光部1は、主に、水晶発振器10と、同期制御部11と、LDドライバ12と、レーザダイオード(LD)13と、受光素子16と、電流電圧変換回路(トランスインピーダンスアンプ)17と、A/Dコンバータ18と、セグメンテータ19とを有する。
 水晶発振器10は、同期制御部11及びA/Dコンバータ18にパルス状のクロック信号S1を出力する。本実施例では、一例としてクロック周波数は、1.8GHzであるものとする。また、以後では、クロック信号S1が示すクロックを「サンプルクロック」とも呼ぶ。
 同期制御部11は、パルス状の信号(以下、「トリガ信号S2」と呼ぶ。)をLDドライバ12に出力する。本実施例では、トリガ信号S2は、131072(=217)サンプルクロック分の周期で周期的にアサートされる。以後では、トリガ信号S2がアサートされてから次にアサートされるまでの期間を「セグメント期間」とも呼ぶ。また、同期制御部11は、後述するセグメンテータ19がA/Dコンバータ18の出力を抽出するタイミングを定める信号(以下、「セグメント抽出信号S3」と呼ぶ。)をセグメンテータ19に出力する。トリガ信号S2及びセグメント抽出信号S3は論理信号であり、後述する図3に示すように同期している。本実施例では、同期制御部11は、セグメント抽出信号S3を、2048サンプルクロック分の時間幅(「ゲート幅Wg」とも呼ぶ。)だけアサートする。
 LDドライバ12は、同期制御部11から入力されるトリガ信号S2に同期してパルス電流をレーザダイオード13へ流す。レーザダイオード13は、例えば赤外(905nm)パルスレーザであって、LDドライバ12から供給されるパルス電流に基づき光パルスを出射する。本実施例では、レーザダイオード13は、5nsec程度の光パルスを出射する。
 レーザダイオード13から出射された光パルスは、光学系を経由して全方位走査部3へ送られる。全方位走査部3は送信光パルスPtを出射するとともに、対象物で反射された光パルスを受信光パルスPrとして受信し、受光素子16へ送る。
 受光素子16は、例えば、アバランシェフォトダイオードであり、全方位走査部3により導かれた受信光パルスPrの光量に応じた微弱電流を生成する。受光素子16は、生成した微弱電流を、電流電圧変換回路17へ供給する。電流電圧変換回路17は、受光素子16から供給された微弱電流を増幅して電圧信号に変換し、変換した電圧信号をA/Dコンバータ18へ入力する。
 A/Dコンバータ18は、水晶発振器10から供給されるクロック信号S1に基づき、電流電圧変換回路17から供給される電圧信号をデジタル信号に変換し、変換したデジタル信号をセグメンテータ19に供給する。以後では、A/Dコンバータ18が1クロックごとに生成するデジタル信号を「サンプル」とも呼ぶ。
 セグメンテータ19は、セグメント抽出信号S3がアサートされているゲート幅Wg分の期間における2048サンプルクロック分のA/Dコンバータ18の出力であるデジタル信号を、セグメント信号Ssegとして生成する。セグメンテータ19は、生成したセグメント信号Ssegを信号処理部2へ供給する。
 図3は、トリガ信号S2及びセグメント抽出信号S3の時系列での波形を示す。図3に示すように、本実施例では、トリガ信号S2がアサートされる1周期分の期間であるセグメント期間は、131072サンプルクロック(図面では「smpclk」と表記)分の長さに設定され、トリガ信号S2のパルス幅は64サンプルクロック分の長さ、ゲート幅Wgは2048サンプルクロック分の長さに設定されている。
 この場合、トリガ信号S2がアサートされた後のゲート幅Wgの期間だけセグメント抽出信号S3がアサートされているため、セグメンテータ19は、トリガ信号S2がアサート中の2048個分のA/Dコンバータ18が出力するサンプルを抽出することになる。そして、ゲート幅Wgが長いほど、ライダユニット100からの最大測距距離(測距限界距離)が長くなる。
 次に、全方位走査部3について詳しく説明する。全方位走査部3は、例えば360°に送信光パルスPtを走査するための回転可能なミラー及び光学系などにより構成される。全方位走査部3が周辺環境に対して光パルスを送受信する方向(以下、「出射方向」とも呼ぶ。)は、水平角度θ及び垂直角度φにより決定される。図4は、全方位走査部3による走査状態の例を示す。図4(A)は、全方位走査部3が水平走査している状態を示す斜視図である。図4(B)は、全方位走査部3の走査状態を上方から見た平面図である。予め決められた水平基準軸に対して、光パルスが水平角度θで走査されている。水平角度θは、水平基準軸を基準として360°([deg])変化する。即ち、光パルスは全方位(0°~360°)を走査できる。図4(C)は、全方位走査部3が図3(A)に示す水平走査状態よりも上方を走査している状態を示す。具体的に、全方位走査部3は、垂直基準軸を基準として、光パルスを垂直角度φで走査している。このように、全方位走査部3は、水平方向及び垂直方向の角度を連続的に変化させることにより、3次元の走査が可能となっている。
 上記の構成において、送受光部1は本発明における出射部及び受光部の一例であり、姿勢角度検出部6は本発明における取得部の一例であり、信号処理部2、全方位走査部3及び走査角度制御部4は本発明における制御部の一例であり、信号処理部2は本発明における検出部の一例である。
 [走査制御]
 (螺旋走査)
 次に、全方位走査部3による走査について説明する。全方位走査部3は、垂直方向に複数層の走査を行う。具体的に、本実施例では、全方位走査部3は、垂直方向に7層(層数n=7)の螺旋走査を行う。
 図5は、螺旋走査の軌跡を示す。図5(A)は螺旋走査による軌跡の斜視図であり、図5(B)は螺旋走査による軌跡の平面図であり、図5(C)は螺旋走査による軌跡の側面図である。なお、図5は、全方位走査部3の走査により、送信光パルスPtの出射方向における、ある距離の一点が作る軌跡を示している。言い換えると、図5は、全方位走査部3により出射される送信光パルスPtが、空間における所定の半径の球面上で描く軌跡を示している。
 図示のように、全方位走査部3による1回(1フレーム)の螺旋走査は、開始点Sから7層(7巻き)の螺旋状の旋回を経て終了点Eに至り、その後、開始点Sへ戻る。全方位走査部3は、この螺旋走査を繰り返す。具体的に、1フレームの螺旋走査中に、水平角度θは、0°~360°までの変化を7回繰り返す。その間に、垂直角度φは、開始点Sにおける垂直角度-φから終了点Eにおける垂直角度φへと一定の変化率で変化する。なお、送信光パルスPtの出射方向が終了点Eから開始点Sへ戻る間を「帰線範囲」と呼ぶ。帰線範囲は、螺旋走査を繰り返すために送信光パルスPtの出射方向を所定の方向に戻すための範囲である。
 次に、走査視野について説明する。図6(A)は螺旋走査の水平視野を示す。本実施例では、全方位360°のうち、帰線範囲を90°とし、残りの270°を「有効水平視野角度範囲θt」とする。即ち、θt=270°である。有効水平視野角度範囲とは、全方位360°から帰線範囲を除いた範囲であり、受信光パルスPrから有効なセグメントデータを取得できる範囲である。いま、全方位走査部3による360°の走査が900セグメントに相当するものとすると、
   1巻き当たりのセグメント数=900
となる。また、水平角度分解能Δθは、
   Δθ=360/900=0.4°/seg
となる。
 図6(B)は、螺旋走査の垂直視野を示す。螺旋走査の層数(巻き数)をn(=7)とし、1層の垂直角度分解能がΔφ=5°であるとすると、
   垂直視野角度範囲=(n-1)×Δφ=30°
となり、垂直角度φは、-15°≦φ≦15°の範囲で変化することとなる。螺旋走査において、仮に垂直角度φを負側から正側へ変化させるとすると、時刻t=0において、垂直角度φ=-φ=-15°となる。
 次に、上記の螺旋走査による水平角度θ及び垂直角度φの値について説明する。いま、全方位走査部3が下記の仕様の螺旋走査を行うものとする。
・層数:n=7
・フレームレート:fframe=25Hz
・垂直視野下限:φ=-10°
・垂直視野上限:φ=+10°
・帰線開始水平角度(有効水平視野角度範囲):θ’t=270°+360°×(7-1)=2430°
・帰線終了水平角度:360°
 このとき、走査角速度ω、水平角度θ、水平走査角度(フレーム内累積)θ’、垂直角度φは以下の式で与えられる。なお、t:時間、g(θ’):帰線を表現する関数、mod:剰余関数である。
Figure JPOXMLDOC01-appb-M000001
 図7は、車両の傾斜やピッチング運動が生じていない場合の螺旋走査の軌跡の例を示す。図7(A)は上記の螺旋走査の斜視図であり、図7(B)はXY平面図であり、図7(C)はXZ平面図であり、図7(D)はYZ平面図である。
 (適応螺旋走査)
 次に、車両に傾斜やピッチング運動が生じている場合に行われる適応螺旋走査について説明する。
 (i)第1実施例
 第1実施例は、車両が傾斜している場合の適応螺旋走査に関する。いま、上記の螺旋走査を行うライダユニット100が車両に搭載されているものとする。このとき、ピッチングやローリングなどの車体振動や路面の起伏の影響によって車体が傾斜した場合、車両に搭載された全方位走査部3も同様に傾斜してしまう。
 具体的に、図8(A)に示すように車両Vに傾斜が生じていない場合には、図8(B)に示すようにライダユニット100は全方位走査部3から出射される光ビームにより、低位置の対象物OBと高位置の対象物OBを検出することができる。しかし、図8(C)に示すように車両Vが下方に傾斜している場合には、図8(D)に示すように、ライダユニット100は光ビームにより低位置の対象物OBを検出することはできるが、高位置の対象物OBを検出することはできない。なお、図示していないが、逆に車両Vが上方に傾斜している場合には、ライダユニット100は高位置の対象物OBを検出することはできるが、低位置の対象物OBを検出することはできなくなる。
 そこで、車両Vが傾斜している場合には、その方向及び角度に応じて、全方位走査部3が出射する光ビームの垂直角度を補正する。例えば、図9(A)に示すように車両Vが下方に傾斜している場合には、図9(B)の矢印Xに示すように、全方位走査部3から出射される光ビームを標準の出射方向よりも上方へ向ける補正を行う。図9(C)は車両Vに傾斜が生じていない場合の螺旋走査の軌跡を示す。これに対し、車両Vが下方に角度φcだけ傾斜している場合には、図9(D)に示すように全方位走査部3は螺旋走査の垂直角度を角度φc上方に変更する。即ち、全方位走査部3は、螺旋走査の水平基準軸Vを角度φc上方へ向ける。これにより、車両Vが傾斜している場合でも、ライダユニット100は低位置の対象物OBと高位置の対象物OBを正しく検出することができるようになる。
 次に、上記の補正の具体的な処理について説明する。図1を参照すると、姿勢角度検出部6は、車両の傾斜を検出する。車両の傾斜は、水平面内における車両が傾斜している方向を示す傾斜方向θdirと、垂直面内における車両が傾斜している角度である傾斜角度φtiltにより示される。そして、信号処理部2は、姿勢角度検出部6から供給された傾斜方向θdirと傾斜角度φtiltに基づいて、下記の式(2)により、補正垂直角度φを算出する。式(2)は、φtilt<30°のような傾斜角度が小さい範囲で成立する近似式であり、補正垂直角度φを、水平走査角度θ’の単純な関数として表現できているため、制御の実装に適している。
Figure JPOXMLDOC01-appb-M000002
 そして、信号処理部2は、算出した補正垂直角度φを、目標垂直角度φとして走査角度制御部4に供給する。走査角度制御部4は、入力された目標垂直角度φに基づいて、送信光パルスPtの垂直角度を制御する。こうして、車両の傾斜による螺旋走査範囲の変動を正しく補正することができる。
 図10は、傾斜方向θdir=0°、傾斜角度φtilt=3°の場合の螺旋走査の軌跡の例を示す。なお、傾斜角度φtiltは、水平方向を基準として上方を正、下方を負で示すものとする。図10(A)は補正後の螺旋走査の斜視図であり、図10(B)はXY平面図であり、図10(C)はXZ平面図であり、図10(D)はYZ平面図である。
 図11は、傾斜方向θdir=45°、傾斜角度φtilt=3°の場合の螺旋走査の軌跡の例を示す。図11(A)は補正後の螺旋走査の斜視図であり、図11(B)はXY平面図であり、図11(C)はXZ平面図であり、図11(D)はYZ平面図である。
 図12は、傾斜方向θdir=0°、傾斜角度φtilt=12°の場合の螺旋走査の軌跡の例を示す。図12(A)は補正後の螺旋走査の斜視図であり、図12(B)はXY平面図であり、図12(C)はXZ平面図であり、図12(D)はYZ平面図である。
 図13は、傾斜方向θdir=45°、傾斜角度φtilt=12°の場合の螺旋走査の軌跡の例を示す。図13(A)は補正後の螺旋走査の斜視図であり、図13(B)はXY平面図であり、図13(C)はXZ平面図であり、図13(D)はYZ平面図である。
 次に、上記の適応螺旋走査の処理について説明する。図14は、第1実施例の適応螺旋走査のフローチャートである。まず、姿勢角度検出部6は、車両の傾斜を検出する(ステップS11)。次に、姿勢角度検出部6は、車両の傾斜方向θdirと傾斜角度φtiltを推定する(ステップS12)。検出された傾斜方向θdirと傾斜角度φtilt(以下、「傾斜推定値」と呼ぶ。)は、傾斜推定値として信号処理部2に送られる。
 信号処理部2は、走査角度検出部5が検出した垂直角度θと、姿勢角度検出部6が検出した傾斜推定値とに基づいて、式(2)により補正垂直角度φを計算する(ステップS13)。計算された補正垂直角度φは、目標垂直角度φとして走査角度制御部4へ送られる。そして、走査角度制御部4は、目標垂直角度φに基づいて、送信光パルスPrの垂直角度φを制御する(ステップS14)。
 (ii)第2実施例
 第2実施例は、車両がピッチング運動している場合の適応螺旋走査に関する。図15に模式的に示すように、走行している路面の状況などに起因して、車両Vにはピッチ方向への変動であるピッチング運動が生じることがある。ピッチング運動によっても、全方向走査部3から出射される光ビームの方向が変動する。よって、第2実施例では、ライダユニット100は、車両Vのピッチング運動を検出し、これに応じて全方位走査部3が出射する光ビームの垂直角度を補正する。
 具体的には、図1を参照すると、姿勢角度検出部6は、車両のピッチング運動を検出する。車両のピッチング運動は、ピッチング運動の方向θdirと、周波数fpitchと、振幅φpitchと、ピッチング運動のフレーム時間に対する位相ずれppitchとにより示される。信号処理部2は、姿勢角度検出部6から供給されたこれらの値に基づいて、下記の式(3)により、補正垂直角度φを算出する。
Figure JPOXMLDOC01-appb-M000003
 そして、信号処理部2は、算出した補正垂直角度φを、目標垂直角度φとして走査角度制御部4に供給する。走査角度制御部4は、入力された目標垂直角度φに基づいて、送信光パルスPtの垂直角度を制御する。こうして、車両の傾斜による螺旋走査範囲の変動を正しく補正することができる。
 図16は、ピッチング運動の方向θdir=0°、振幅φpitch=3°、周波数fpitch=2Hzの場合の螺旋走査の軌跡の例を示す。なお、振幅φpitchは、水平方向を基準として上方を正、下方を負で示すものとする。図16(A)は補正後の螺旋走査の斜視図であり、図16(B)はXY平面図であり、図16(C)はXZ平面図であり、図16(D)はYZ平面図である。
 次に、上記の適応螺旋走査の処理について説明する。図17は、第2実施例の適応螺旋走査のフローチャートである。まず、姿勢角度検出部6は、車両のピッチング運動を検出する(ステップS21)。次に、姿勢角度検出部6は、ピッチング運動推定値として、ピッチング運動の方向θdirと、周波数fpitchと、振幅φpitchと、ピッチング運動のフレーム時間に対する位相ずれppitchとを推定する(ステップS22)。得られたピッチング運動推定値は、は信号処理部2に送られる。
 信号処理部2は、走査角度検出部5が検出した垂直角度θと、姿勢角度検出部6が推定したピッチング運動推定値とに基づいて、式(3)により補正垂直角度φを計算する(ステップS23)。計算された補正垂直角度φは、目標垂直角度φとして走査角度制御部4へ送られる。そして、走査角度制御部4は、目標垂直角度φに基づいて、送信光パルスPrの垂直角度φを制御する(ステップS24)。
 [変形例]
 上記の実施例では、螺旋走査又は部分多層走査の層数を7層としているが、これは一例に過ぎず、任意の層数で走査を行うことができる。また、上記の実施例では、最下層から上層側へ垂直角度φを増加させて出射方向を移動させているが、その代わりに、最上層から下層側へ垂直角度φを減少させて出射方向を移動させてもよい。
 さらに、上記の実施例では、ピッチング運動に関する補正処理を行っているが、ローリング運動に関する補正処理を行ってもよい。
 本発明は、レーザ光の出射により周囲環境情報を取得する技術に利用することができる。
 1 光送受信部
 2 信号処理部
 3 全方位走査部
 4 走査角度制御部
 5 走査角度検出部
 6 姿勢角度検出部
 13 レーザダイオード
 16 受光素子

Claims (8)

  1.  移動体に設置される光制御装置であって、
     光を出射する出射部と、
     対象物にて反射された前記光を受光する受光部と、
     前記移動体の傾斜に関する傾斜情報を取得する取得部と、
     前記傾斜情報に基づいて、前記出射部が出射する前記光の出射方向を制御する制御部と、
     を備える光制御装置。
  2.  前記傾斜情報は、第1の方向における前記移動体の方向角度、及び、前記第1の方向と交わる第2の方向における前記移動体の傾斜角度を示す情報を含む請求項1に記載の光制御装置。
  3.  前記傾斜情報は、第1の方向における前記移動体の回転運動の方向角度、前記第1の方向と交わる第2の方向における前記回転運動の振幅角度、及び、前記回転運動の周波数を含む請求項1に記載の光制御装置。
  4.  前記制御部は、前記出射部によって出射される光を、前記第1の方向と前記第2の方向とに連続的に推移させることで、前記光の遷移軌跡が螺旋状となるように前記出射部を制御する請求項2に記載の光制御装置。
  5.  前記受光部の受光結果に基づいて、前記対象物までの距離及び角度の少なくとも一方を検出する検出部をさらに備える請求項1乃至4のいずれか一項に記載の光制御装置。
  6.  移動体に設置され、光を出射する出射部及び対象物にて反射された前記光を受光する受光部を備える光制御装置によって実行される光制御方法であって、
     前記移動体の傾斜に関する傾斜情報を取得する取得工程と、
     前記傾斜情報に基づいて、前記出射部が出射する前記光の出射方向を制御する制御工程と、
     を備える光制御方法。
  7.  移動体に設置され、光を出射する出射部、対象物にて反射された前記光を受光する受光部及びコンピュータを備える光制御装置によって実行されるプログラムであって、
     前記移動体の傾斜に関する傾斜情報を取得する取得部、
     前記傾斜情報に基づいて、前記出射部が出射する前記光の出射方向を制御する制御部、
     として前記コンピュータを機能させるプログラム。
  8.  移動体に設置される光制御装置であって、
     光を出射する出射部と、
     対象物にて反射された前記光を受光する受光部と、
     前記移動体の傾斜に関する傾斜情報を取得する取得部と、
     前記傾斜情報に基づいて、前記出射部が出射する前記光の軌跡が、前記傾斜によらず一定の形状となるように、前記出射部が出射する前記光の出射方向を制御する制御部と、
     を備える光制御装置。
PCT/JP2016/060166 2016-03-29 2016-03-29 光制御装置、光制御方法およびプログラム Ceased WO2017168576A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2016/060166 WO2017168576A1 (ja) 2016-03-29 2016-03-29 光制御装置、光制御方法およびプログラム
US16/088,774 US11016290B2 (en) 2016-03-29 2016-03-29 Light control device, light control method and program
JP2018507892A JP6595095B2 (ja) 2016-03-29 2016-03-29 光制御装置、光制御方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/060166 WO2017168576A1 (ja) 2016-03-29 2016-03-29 光制御装置、光制御方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2017168576A1 true WO2017168576A1 (ja) 2017-10-05

Family

ID=59963633

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/060166 Ceased WO2017168576A1 (ja) 2016-03-29 2016-03-29 光制御装置、光制御方法およびプログラム

Country Status (3)

Country Link
US (1) US11016290B2 (ja)
JP (1) JP6595095B2 (ja)
WO (1) WO2017168576A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109709530A (zh) * 2017-10-26 2019-05-03 株式会社小糸制作所 传感系统及车辆
JP2021519434A (ja) * 2018-03-28 2021-08-10 サイオニク エルエルシー ナビゲーション装置及び方法
JPWO2022123887A1 (ja) * 2020-12-11 2022-06-16

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10514462B2 (en) 2017-12-13 2019-12-24 Luminar Technologies, Inc. Training a machine learning based model of a vehicle perception component based on sensor settings
CN110579750B (zh) * 2019-10-14 2021-12-21 中国科学院半导体研究所 一种利用单线雷达实现立体全方位扫描的方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60153400U (ja) * 1984-03-23 1985-10-12 矢崎総業株式会社 車間距離測定装置
JPH08327722A (ja) * 1995-05-30 1996-12-13 Fujitsu Ten Ltd ビームの光軸調整装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07209423A (ja) 1992-05-13 1995-08-11 Hipp Johan 車両運転時の状況、障害物及び物体の識別装置と方法
US6650407B2 (en) * 2001-09-04 2003-11-18 Rosemount Aerospace Inc. Wide field scanning laser obstacle awareness system
JP2004317134A (ja) 2003-04-11 2004-11-11 Daihatsu Motor Co Ltd 車両の物体認識装置及び物体認識方法
US8473144B1 (en) 2012-10-30 2013-06-25 Google Inc. Controlling vehicle lateral lane positioning
JP6131813B2 (ja) * 2013-10-03 2017-05-24 株式会社デンソー 先行車選択装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60153400U (ja) * 1984-03-23 1985-10-12 矢崎総業株式会社 車間距離測定装置
JPH08327722A (ja) * 1995-05-30 1996-12-13 Fujitsu Ten Ltd ビームの光軸調整装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109709530A (zh) * 2017-10-26 2019-05-03 株式会社小糸制作所 传感系统及车辆
EP3703031A4 (en) * 2017-10-26 2021-12-08 Koito Manufacturing Co., Ltd. DETECTION SYSTEM AND VEHICLE
US11554792B2 (en) 2017-10-26 2023-01-17 Koito Manufacturing Co., Ltd. Sensing system and vehicle
US12077187B2 (en) 2017-10-26 2024-09-03 Koito Manufacturing Co., Ltd. Sensing system and vehicle
JP2021519434A (ja) * 2018-03-28 2021-08-10 サイオニク エルエルシー ナビゲーション装置及び方法
JPWO2022123887A1 (ja) * 2020-12-11 2022-06-16
WO2022123887A1 (ja) * 2020-12-11 2022-06-16 パナソニックIpマネジメント株式会社 測距装置および移動体

Also Published As

Publication number Publication date
US20190079282A1 (en) 2019-03-14
JP6595095B2 (ja) 2019-10-23
JPWO2017168576A1 (ja) 2019-01-31
US11016290B2 (en) 2021-05-25

Similar Documents

Publication Publication Date Title
JP6595095B2 (ja) 光制御装置、光制御方法およびプログラム
US11796657B2 (en) Control device, control method, program, and storage medium
JP2015179078A (ja) 視差演算システム及び距離測定装置
US20190195992A1 (en) System and method for adjusting a lidar system
EP3077767B1 (en) Operating a geodetic instrument with a stair-like scanning profile
WO2017060965A1 (ja) 光制御装置、制御方法、プログラム及び記憶媒体
JP2023101818A (ja) 制御装置、検知装置、制御方法、プログラム及び記憶媒体
US20220214431A1 (en) Light control device, light control method and program
JP2020052051A (ja) 光制御装置、制御方法、プログラム及び記憶媒体
KR102154712B1 (ko) 차량용 라이다 장치
JP2019100855A (ja) 制御装置、検知装置、制御方法、プログラム及び記憶媒体
JP2021183981A (ja) 光制御装置
JP7743653B2 (ja) 光制御装置、光制御方法、及び、プログラム
WO2019107550A1 (ja) 制御装置、検知装置、制御方法、プログラム及び記憶媒体
JP2019100856A (ja) 制御装置、検知装置、制御方法、プログラム及び記憶媒体
JP2019078688A (ja) 地物データ構造、記憶装置、制御装置、制御方法、プログラム及び記憶媒体
JP7324925B2 (ja) 光制御装置、制御方法、プログラム及び記憶媒体
JP2019100854A (ja) 制御装置、検知装置、制御方法、プログラム及び記憶媒体
WO2019082699A1 (ja) 制御装置、制御方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2018507892

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16896796

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 16896796

Country of ref document: EP

Kind code of ref document: A1