WO2025074741A1 - 撮像装置、撮像方法、及び撮像システム - Google Patents
撮像装置、撮像方法、及び撮像システム Download PDFInfo
- Publication number
- WO2025074741A1 WO2025074741A1 PCT/JP2024/029011 JP2024029011W WO2025074741A1 WO 2025074741 A1 WO2025074741 A1 WO 2025074741A1 JP 2024029011 W JP2024029011 W JP 2024029011W WO 2025074741 A1 WO2025074741 A1 WO 2025074741A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unit
- light source
- imaging
- light
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/47—Image sensors with pixel address output; Event-driven image sensors; Selection of pixels to be read out based on image data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/707—Pixels for event detection
Definitions
- This disclosure relates to an imaging device, an imaging method, and an imaging system.
- an asynchronous imaging device called DVS (Dynamic Vision Sensor) has been proposed (see, for example, Patent Document 1).
- DVS Dynamic Vision Sensor
- an asynchronous imaging device only when some event (for example, movement) occurs in the scene is data acquired for the part where the brightness level has changed due to the event. Therefore, an asynchronous imaging device can acquire image data faster than a typical synchronous imaging device that unnecessarily acquires all image data at a fixed frame rate.
- an imaging optical system that causes light to be incident on the imaging surface; Further, it may be provided.
- an image generating unit that generates image data in which values related to the number of times of the detection signal detected by the first detection unit are arranged in two-dimensional coordinates; Further, it may be provided.
- the device may further include a light source driver that controls the light source unit.
- the light source driving unit may monotonically increase the amount of light irradiated onto the imaging surface from a first irradiation amount to a second irradiation amount.
- the light source driving unit After generating the first image data, the light source driving unit monotonically increases an amount of irradiation light emitted from the second light source onto the imaging surface from a first irradiation amount to a second irradiation amount;
- the image generating section may generate the image data as second image data.
- the light source unit further includes a third light source having a third wavelength different from the first wavelength and the second wavelength, After generating the second image data, the light source driving unit monotonically increases an amount of irradiation light emitted from the third light source onto the imaging surface from a first irradiation amount to a second irradiation amount;
- the image generating section may generate the image data as third image data.
- the first to third light sources may be any of a red LED, a blue LED, and a green LED.
- an imaging device a display unit that displays an image generated by the imaging device
- the imaging device includes: a photoelectric conversion unit having a plurality of photoelectric conversion elements each of which photoelectrically converts light irradiated at different positions on a two-dimensional imaging surface to generate an electrical signal; A light source unit that irradiates the imaging surface with irradiation light; a first detection unit that detects a detection signal when a change amount of the electrical signal generated by the plurality of photoelectric conversion elements exceeds a predetermined value; having An imaging system is provided.
- FIG. 4 is a diagram illustrating the number of times a detection signal is generated for each pixel.
- 5A to 5C are diagrams for explaining an example of gradation processing by an image generating unit.
- 3A and 3B are diagrams showing examples of images formed on an imaging surface via an imaging optical system.
- FIG. 11 is a diagram showing an example of an event image at a predetermined timing.
- FIG. 13 is a diagram showing an example in which the number of detections is converted into the reciprocal.
- 5A and 5B are diagrams showing examples of gradation images generated by an image generating unit.
- 1A to 1C are diagrams illustrating the characteristics of an example of gradation processing.
- FIG. 4 is a plan view showing an example of the configuration of a plurality of light source units.
- the four light source units 12 irradiate light onto the imaging surface 21a from four directions.
- the light source units 12 have an LED light source 120w and a light source driving unit 125.
- the LED light source 120w is, for example, a white LED.
- the light source driving unit 125 changes the amount of irradiation, including turning on and off the LED light source 120w, under the control of the control unit 14.
- the light source driving unit 125 can also independently control the amount of irradiation light from the four light source units 12.
- the imaging unit 20 of the present disclosure is an asynchronous imaging unit called DVS, and is configured to include a pixel array unit 21, a drive unit 22, an arbiter unit (arbitration unit) 23, a column processing unit 24, and a signal processing unit 25.
- the imaging surface 21a described above is the imaging surface of the pixel array unit 21.
- the pixel array unit 21 according to this embodiment corresponds to a photoelectric conversion unit.
- the driving unit 22 drives each of the multiple pixels 30 arranged on the imaging surface 21a to output the electrical signal generated by each pixel 30 to the column processing unit 24.
- the arbiter unit 23 arbitrates requests from each of the multiple pixels 30 and transmits a response based on the arbitration result to the pixel 30.
- the pixel 30 Upon receiving the response from the arbiter unit 23, the pixel 30 supplies a detection signal indicating the detection result (address event detection signal) to the drive unit 22 and the signal processing unit 25.
- the detection signal from the pixel 30 can also be read out from multiple rows.
- the signal processing unit 25 performs predetermined signal processing, such as CDS (Correlated Double Sampling) processing and image recognition processing, on the digital signal supplied from the column processing unit 24.
- the signal processing unit 25 then supplies data indicating the processing results and the detection signal supplied from the arbiter unit 23 to the recording unit 13 (see FIG. 1) via a signal line.
- An address event is, for example, an on-event indicating that the amount of change in the electrical signal has exceeded a first upper threshold, and an off-event indicating that the amount of change has fallen below a second lower threshold.
- An address event detection signal is, for example, one bit indicating the detection result of an on-event, and one bit indicating the detection result of an off-event.
- the address event detection unit 33 can also be configured to detect only on-events or only off-events. For example, to detect only off-events, a detection signal indicating an on-event is generated when the amount of change in the current electrical signal becomes 1.25. That is, when the amount of light irradiation on the imaging surface 21a increases by 25 percent, a detection signal indicating an on-event is generated.
- the address event detection unit 33 corresponds to the first detection unit.
- FIG. 6 is a circuit diagram showing an example of a circuit configuration of the pixel 30.
- each of the pixels 30 includes a light receiving unit 31, an electric signal generating unit 32, and an address event detecting unit 33.
- the reset transistor 321 is connected between a power supply line of a power supply voltage V DD and the floating diffusion layer 324.
- a reset signal RST is supplied to a gate electrode of the reset transistor 321 from the driving unit 22.
- the reset transistor 321 initializes (resets) the amount of charge in the floating diffusion layer 324 in response to the reset signal RST.
- a selection signal SEL is supplied from the driving unit 22 to the gate electrode of the selection transistor 323.
- the selection transistor 323 outputs the voltage signal amplified by the amplification transistor 322 as an electrical signal SIG via the vertical signal line VSL to the column processing unit 24 (see FIG. 4).
- the light source control unit 131 controls the light intensity of the multiple light source units 12 according to the control of the mode control unit 130. That is, in the first mode, the light source control unit 131 maintains a constant light intensity of the multiple light source units 12. Preferably, the multiple light source units 12 are turned off. In the second and third modes, the light source control unit 131 monotonically increases or decreases the amount of light irradiated onto the imaging surface 21a while light is incident on the imaging surface 21a via the imaging optical system 11 (see FIG. 2).
- Fig. 8 is a diagram showing an example of generation of a detection signal of an address event by the address event detection unit 33 (see Fig. 6) of the pixel 30.
- the horizontal axis indicates time, and the vertical axis indicates the amount of irradiation on the imaging surface 21a.
- the detection signal as indicates the generation timing of a detection signal at the pixel 30a where the amount of irradiation is high and light is incident on the imaging surface 21a via the imaging optical system 11 (see Fig. 2).
- the detection signal bs indicates the generation timing of a detection signal at the pixel 30b where the amount of irradiation is low and light is incident on the imaging surface 21a via the imaging optical system 11 (see Fig. 2).
- the address event detection unit 33 when the light amount of the multiple light source units 12 reaches the light amount La, the address event detection unit 33 generates a detection signal as in time series every time the electrical signal proportional to the photocurrent increases by 25 percent.
- the detection signal as is recorded in the recording unit 13.
- the driving in mode 1 is also maintained. That is, when an address event is detected in a pixel 30 in the light receiving region, the driving unit 22 turns off the OFG transistor 313 of that pixel 30 to stop the supply of photocurrent to the address event detection unit 33. Next, the driving unit 22 drives the transfer transistor 312 by supplying a transfer signal TRG to the transfer transistor 312, causing the charge photoelectrically converted by the light receiving element 311 to be transferred to the floating diffusion layer 324.
- the mode control unit 130 constantly keeps the OFG transistor 313 of the pixel 30 in an off state.
- the mode control unit 130 constantly supplies a control signal OFG to the OFG transistor 313 of the light receiving unit 31.
- the OFG transistor 313 is driven to constantly supply a photocurrent to the address event detection unit 33.
- the illuminance difference LW1 which is the difference between the second irradiation amount L2 and the irradiation amount La of pixel 30a, corresponds to the number of times the detection signal as occurs.
- the illuminance difference LW1 which is the difference between the second irradiation amount L2 and the irradiation amount Lb of pixel 30b, corresponds to the number of times the detection signal bs occurs.
- the image generating unit 132 calculates the illuminance difference LW1 by raising the number of occurrences of the detection signal as to 1.25 and further multiplying it by the coefficient k1 to obtain D1. Similarly, the image generating unit 132 calculates the illuminance difference LW1 by raising the number of occurrences of the detection signal as to 1.25 and further multiplying it by the coefficient k1 to obtain D2.
- the coefficient k1 is a normalization coefficient for converting the illuminance difference to a pixel value.
- FIG. 11 to 14 are examples of image generation in mode 2.
- FIG. 11 is a diagram showing an example of an image formed on the imaging surface 21a via the imaging optical system 11 (see FIG. 2).
- FIG. 12 is a diagram showing an example of an event image at a predetermined timing.
- FIG. 13 is a diagram showing an example of the inverse of the number of detections. The whiter the color, the higher the value.
- FIG. 14 is a diagram showing an example of a gradation image generated by the image generation unit 132.
- the event image shown in FIG. 12 it is not possible to obtain image information in which no event has occurred from the incident light incident via the imaging optical system 11. For this reason, it is difficult to distinguish, for example, an intruder who is stationary or hiding in the shadows. In addition, it is difficult to grasp the detailed information of the example image shown in FIG. 11.
- the grayscale image shown in FIG. 14 makes it possible to grasp detailed information at the same level as the example image shown in FIG. 11. For example, the shading of clouds is also reproduced. This makes it possible to obtain image information even when no event has occurred, making it possible to obtain detailed information during monitoring.
- FIG. 15 is a diagram showing a schematic diagram of the characteristics of an example of gradation processing.
- FIG. 15(a) is a diagram similar to FIG. 8.
- the horizontal axis indicates time, and the vertical axis indicates the amount of irradiation on the imaging surface 21a.
- the detection signal as indicates the generation timing of the detection signal at pixel 30a where the amount of irradiation is high and light is incident on the imaging surface 21a via the imaging optical system 11 (see FIG. 2).
- the detection signal bs indicates the generation timing of the detection signal at pixel 30b where the amount of irradiation is low and light is incident on the imaging surface 21a via the imaging optical system 11 (see FIG. 2).
- FIG. 15(b) shows a case where the time for monotonically increasing from the first irradiation amount L1 to the second irradiation amount L2 is longer than that of FIG. 15(a).
- FIG. 15(c) shows a case where the time for monotonically increasing from the first irradiation amount L1 to the second irradiation amount L2 is longer than that of FIG. 15(b).
- the detection threshold in the address event detection unit 33 is set to 25 percent, which is a ratio to the current irradiation amount. Therefore, the detection signals as and bs are generated every time the irradiation amount becomes 1.25 times.
- the decrease in accuracy is suppressed even if the time for monotonically increasing from the first irradiation amount L1 to the second irradiation amount L2 becomes longer. Also, when the time for monotonically increasing from the first irradiation amount L1 to the second irradiation amount L2 can be maintained longer, the decrease in accuracy of the detection signals as and bs is suppressed even if the irradiation amount increases nonlinearly.
- FIG. 15 is a diagram showing a schematic diagram of the characteristics of an example of gradation processing.
- FIG. 15(a) is a diagram similar to FIG. 8.
- the horizontal axis indicates time, and the vertical axis indicates the amount of irradiation on the imaging surface 21a.
- the detection signal as indicates the generation timing of the detection signal at pixel 30a where the amount of irradiation is high and light is incident on the imaging surface 21a via the imaging optical system 11 (see FIG. 2).
- the detection signal bs indicates the generation timing of the detection signal at pixel 30b where the amount of irradiation is low and light is incident on the imaging surface 21a via the imaging optical system 11 (see FIG. 2).
- the decrease in accuracy is suppressed even if the time for monotonically increasing from the first irradiation amount L1 to the second irradiation amount L2 becomes longer. Also, when the time for monotonically increasing from the first irradiation amount L1 to the second irradiation amount L2 can be maintained longer, the decrease in accuracy of the detection signals as and bs is suppressed even if the irradiation amount increases nonlinearly.
- the imaging device 2 has a light source drive mode in which the light sources 121 to 124 are turned on in sequence.
- the occurrence frequency of the address event detection unit 33 first increases in the irradiation range of the light source unit 121, then increases in the irradiation range of the light source unit 122, then increases in the irradiation range of the light source unit 123, and then increases in the irradiation range of the light source unit 124.
- the mode control unit 130 of the control unit 14 causes the recording unit 13 to record the detection signals output from each pixel 30 (step S102). Then, the image generation unit 132 of the control unit 14 generates a gradation image based on the number of detection signals of each pixel 30 recorded in the recording unit 13 (step S104), and ends the gradation generation process.
- the imaging device 2 when light is incident on the imaging surface 21a via the imaging optical system 11, causes the light irradiated from the multiple light source units 12 onto the imaging surface 21a to monotonically increase or decrease, photoelectrically converts the irradiated light in the photoelectric conversion elements of the pixels 30 to generate electrical signals, and generates a gradation image based on the number of detection signals when the absolute value of the amount of change in the electrical signal exceeds a threshold value.
- the number of detection signals changes according to the amount of radiation incident on the imaging surface 21a via the imaging optical system 11, making it possible to convert the number of detection signals into a luminance signal according to the number of detection signals.
- the imaging device 2 according to the second embodiment differs from the imaging device 2 according to the first embodiment in that the light source unit can irradiate the imaging surface 21 a with light of multiple wavelengths.
- the differences from the imaging device 2 according to the first embodiment will be described below.
- FIG. 19 is a diagram showing an example of generation of an address event detection signal by the address event detection unit 33 (see FIG. 6) of the pixel 30.
- the horizontal axis indicates time, and the vertical axis indicates the amount of irradiation on the imaging surface 21a.
- the detection signal rs indicates the generation timing of the detection signal when the amount of irradiation of the red LED light source 120r is simply increased in a state where light is incident on the imaging surface 11a via the imaging optical system 11 (see FIG. 2).
- FIG. 19 is a diagram showing an example of generation of an address event detection signal by the address event detection unit 33 (see FIG. 6) of the pixel 30.
- the horizontal axis indicates time, and the vertical axis indicates the amount of irradiation on the imaging surface 21a.
- the detection signal rs indicates the generation timing of the detection signal when the amount of irradiation of the red LED light source 120r is simply increased in a state where light is incident on the imaging surface 11a via the
- the detection signal gs indicates the generation timing of the detection signal when the amount of irradiation of the green LED light source 120g is simply increased in a state where light is incident on the imaging surface 11a via the imaging optical system 11 (see FIG. 2).
- the detection signal bs indicates the generation timing of the detection signal when the amount of irradiation of the blue LED light source 120b is simply increased in a state where light is incident on the imaging surface 11a via the imaging optical system 11 (see FIG. 2).
- the red LED light source 120r, green LED light source 120g, and blue LED light source 120b of the light source unit 12 when light is incident on the imaging surface 11a via the imaging optical system 11 (see FIG. 2), the red LED light source 120r, green LED light source 120g, and blue LED light source 120b of the light source unit 12 also monotonically increase or decrease the irradiation amount in that order, and the image generating unit 132 generates image data based on the detection number of each detection signal rs, detection signal gs, and detection signal bs.
- detection number of detection signals rs, detection signals gs, and detection signals bs changes depending on the irradiation amount of the color components irradiated on the imaging surface 11a, it is possible to obtain a luminance value according to the irradiation amount of red light, green light, and blue light incident on the imaging surface 11a.
- the drive system control unit 7100 is connected to a vehicle state detection unit 7110.
- the vehicle state detection unit 7110 includes at least one of a gyro sensor that detects the angular velocity of the axial rotational motion of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, or a sensor for detecting the amount of operation of the accelerator pedal, the amount of operation of the brake pedal, the steering angle of the steering wheel, the engine speed, or the rotation speed of the wheels, etc.
- the drive system control unit 7100 performs arithmetic processing using the signal input from the vehicle state detection unit 7110, and controls the internal combustion engine, the drive motor, the electric power steering device, the brake device, etc.
- the body system control unit 7200 controls the operation of various devices installed in the vehicle body according to various programs.
- the body system control unit 7200 functions as a control device for a keyless entry system, a smart key system, a power window device, or various lamps such as headlamps, tail lamps, brake lamps, turn signals, and fog lamps.
- radio waves or signals from various switches transmitted from a portable device that replaces a key can be input to the body system control unit 7200.
- the body system control unit 7200 accepts the input of these radio waves or signals and controls the vehicle's door lock device, power window device, lamps, etc.
- the environmental sensor may be, for example, at least one of a raindrop sensor that detects rain, a fog sensor that detects fog, a sunshine sensor that detects the degree of sunshine, and a snow sensor that detects snowfall.
- the surrounding information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
- the imaging unit 7410 and the outside vehicle information detection unit 7420 may each be provided as an independent sensor or device, or may be provided as a device in which multiple sensors or devices are integrated.
- the integrated control unit 7600 controls the overall operation of the vehicle control system 7000 according to various programs.
- the integrated control unit 7600 is connected to an input unit 7800.
- the input unit 7800 is realized by a device that can be operated by the passenger, such as a touch panel, a button, a microphone, a switch, or a lever. Data obtained by voice recognition of a voice input by a microphone may be input to the integrated control unit 7600.
- the input unit 7800 may be, for example, a remote control device using infrared or other radio waves, or an externally connected device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000.
- PDA Personal Digital Assistant
- the dedicated communication I/F 7630 is a communication I/F that supports a communication protocol developed for use in vehicles.
- the dedicated communication I/F 7630 may implement a standard protocol such as WAVE (Wireless Access in Vehicle Environment), which is a combination of the lower layer IEEE 802.11p and the upper layer IEEE 1609, DSRC (Dedicated Short Range Communications), or a cellular communication protocol.
- WAVE Wireless Access in Vehicle Environment
- DSRC Dedicated Short Range Communications
- the dedicated communication I/F 7630 typically performs V2X communication, a concept that includes one or more of vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication.
- the in-vehicle device I/F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
- the in-vehicle device I/F 7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
- the in-vehicle device I/F 7660 may also establish a wired connection such as USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (Mobile High-definition Link) via a connection terminal (and a cable, if necessary) not shown.
- USB Universal Serial Bus
- HDMI registered trademark
- MHL Mobile High-definition Link
- the in-vehicle devices 7760 may include, for example, at least one of a mobile device or a wearable device owned by a passenger, or an information device carried into or attached to the vehicle.
- the in-vehicle devices 7760 may also include a navigation device that searches for a route to an arbitrary destination.
- the in-vehicle device I/F 7660 exchanges control signals or data signals with these in-vehicle devices 7760.
- the microcomputer 7610 may perform cooperative control for the purpose of realizing the functions of an ADAS (Advanced Driver Assistance System), including vehicle collision avoidance or impact mitigation, following driving based on the distance between vehicles, vehicle speed maintenance driving, vehicle collision warning, vehicle lane departure warning, etc.
- ADAS Advanced Driver Assistance System
- the microcomputer 7610 may control the driving force generating device, steering mechanism, braking device, etc. based on the acquired information about the surroundings of the vehicle, thereby performing cooperative control for the purpose of autonomous driving, which allows the vehicle to travel autonomously without relying on the driver's operation.
- At least two control units connected via the communication network 7010 may be integrated into one control unit.
- each control unit may be composed of multiple control units.
- the vehicle control system 7000 may include another control unit not shown.
- some or all of the functions performed by any control unit may be provided by another control unit.
- a predetermined calculation process may be performed by any control unit.
- a sensor or device connected to any control unit may be connected to another control unit, and multiple control units may transmit and receive detection information to each other via the communication network 7010.
- the technology according to the present disclosure can be applied to, for example, the imaging units 7910, 7912, 7914, 7916, and 7918, the outside vehicle information detection units 7920, 7922, 7924, 7926, 7928, and 7930, and the driver state detection unit 7510, among the configurations described above.
- the imaging system 1 of FIG. 1 having the imaging device according to the present disclosure can be applied to these imaging units and detection units.
- This technology can be configured as follows:
- the imaging device further comprises:
- the light source unit includes a first light source having a first wavelength and a second light source having a second wavelength different from the first wavelength, the light source driving unit monotonically increases an amount of irradiation light emitted from the first light source onto the imaging surface from a first irradiation amount to a second irradiation amount;
- the imaging device according to claim 10, wherein the image generating unit generates the image data as first image data.
- the first detection unit detects the detection signal when an absolute value of an amount of change in a direction in which the signal level of the electrical signal increases exceeds a first threshold, and detects the detection signal when an absolute value of an amount of change in a direction in which the signal level of the electrical signal decreases exceeds a second threshold.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
[課題]開示では、イベントの発生していない領域の輝度情報も画素値に変換可能な非同期型の撮像装置、撮像方法、及び撮像システムを提供する。 [解決手段]本開示によれば、2次元の撮像面の異なる位置に照射される光を、それぞれが光電変換して、電気信号を生成する複数の光電変換素子を有する光電変換部と、撮像面へ照射光を照射する光源部と、複数の光電変換素子で生成された電気信号の変化量が所定値を超えた場合に検出信号を検出する第1検出部と、を備える、撮像装置が提供される。
Description
本開示は、撮像装置、撮像方法、及び撮像システムに関する。
イベントドリブン方式の撮像装置の一つとして、DVS(Dynamic Vision Sensor)と呼ばれる非同期型の撮像装置が提案されている(例えば、特許文献1参照)。非同期型の撮像装置では、シーンの中で何らかのイベント(例えば、動き)が発生したときだけ、当該イベントによって生じる輝度レベルの変化した部分のデータの取得が行われる。従って、非同期型の撮像装置は、固定フレームレートで不必要に画像の全てのデータを取得する一般的な同期型の撮像装置よりも高速に画像データを取得することができる。
しかしながら、イベントが発生しない場合に、画像情報が更新されず、その被写体が動いてないだけなのか、その被写体が画角内に居ないのか等の状況把握が困難となる恐れがある。
そこで、本開示では、イベントの発生していない領域の輝度情報も画素値に変換可能な非同期型の撮像装置、撮像方法、及び撮像システムを提供するものである。
上記の課題を解決するために、本開示によれば、2次元の撮像面の異なる位置に照射される光を、それぞれが光電変換して、電気信号を生成する複数の光電変換素子を有する光電変換部と、
前記撮像面へ照射光を照射する光源部と、
前記複数の光電変換素子で生成された前記電気信号の変化量が所定値を超えた場合に検出信号を検出する第1検出部と、
を備える、撮像装置が提供される。
前記撮像面へ照射光を照射する光源部と、
前記複数の光電変換素子で生成された前記電気信号の変化量が所定値を超えた場合に検出信号を検出する第1検出部と、
を備える、撮像装置が提供される。
前記撮像面に光を入射する撮像光学系を、
更に備えてもよい。
更に備えてもよい。
前記光源部は、前記撮像光学系を介して前記撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させてもよい。
前記第1検出部で検出された検出信号の回数に関する値を2次元座標に配列した画像データとして生成する画像生成部を、
更に備えてもよい。
更に備えてもよい。
前記光源部を制御する光源駆動部を更に備えてもよい。
前記光源駆動部は、前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させてもよい。
前記光源駆動部は、前記撮像面へ照射する照射光を第2照射量から第1照射量に単調減少させてもよい。
前記第1検出部は、前記電気信号の変化量が所定の比率を超えた場合に前記検出信号を検出してもよい。
前記画像生成部は、前記第1検出部で検出された前記検出信号の回数を、前記比率に基づく数値にべき乗した値に応じた画素値を、前記画像データとして生成してもよい。
前記光源部は、複数の光源を有し、
前記光源駆動部は、前記複数の光源を異なる時間範囲出で単調増加、又は単調減少させてもよい。
前記光源駆動部は、前記複数の光源を異なる時間範囲出で単調増加、又は単調減少させてもよい。
前記光源部は、第1波長の第1光源と、前記第1波長と異なる第2波長の第2光源とを有し、
前記光源駆動部は、前記第1光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第1画像データとして生成してもよい。
前記光源駆動部は、前記第1光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第1画像データとして生成してもよい。
前記第1画像データを生成した後に、
前記光源駆動部は、前記第2光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第2画像データとして生成してもよい。
前記光源駆動部は、前記第2光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第2画像データとして生成してもよい。
前記光源部は、前記第1波長、及び前記第2波長と異なる第3波長の第3光源を更に有し、
前記第2画像データを生成した後に、
前記光源駆動部は、前記第3光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第3画像データとして生成してもよい。
前記第2画像データを生成した後に、
前記光源駆動部は、前記第3光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第3画像データとして生成してもよい。
前記画像生成部は、前記第1画像データと、前記第2画像データと、前記第3画像データと、に基づくカラー画像データを生成してもよい。
前記第1乃至第3光源は、赤色LED、青色LED、及び緑色LEDのいずれかであってもよい。
前記第1検出部は、前記電気信号の信号レベルが増大する方向の変化量の絶対値が第1閾値を超えたときに前記検出信号を検出するとともに、前記電気信号の信号レベルが減少する方向の変化量の絶対値が第2閾値を超えたときに前記検出信号を検出してもよい。
前記光源部の光源を消灯、或いは、光量を定量に維持し、前記検出信号に基づく画像を生成する第1モードと、
前記光源部の光源を点灯し、前記撮像光学系を介して前記撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させ、前記検出信号の回数に基づく画像を生成する第2モードと、
を切り替える制御部を更に備えてもよい。
前記光源部の光源を点灯し、前記撮像光学系を介して前記撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させ、前記検出信号の回数に基づく画像を生成する第2モードと、
を切り替える制御部を更に備えてもよい。
前記第2モードで、前記検出信号に基づく画像を生成しない第3モードを、更に有してもよい。
上記の課題を解決するために、本開示によれば、撮像光学系を介して撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させ、
複数の光電変換素子で前記照射光を光電変換して電気信号を生成し、
前記電気信号の変化量の絶対値が、所定の閾値を超えた場合の検出信号の回数を検出する、撮像方法が提供される。
複数の光電変換素子で前記照射光を光電変換して電気信号を生成し、
前記電気信号の変化量の絶対値が、所定の閾値を超えた場合の検出信号の回数を検出する、撮像方法が提供される。
上記の課題を解決するために、本開示によれば、撮像装置と、
前記撮像装置で生成された画像を表示する表示部と、を備え、
前記撮像装置は、
2次元の撮像面の異なる位置に照射される光を、それぞれが光電変換して、電気信号を生成する複数の光電変換素子を有する光電変換部と、
前記撮像面へ照射光を照射する光源部と、
前記複数の光電変換素子で生成された前記電気信号の変化量が所定値を超えた場合に検出信号を検出する第1検出部と、
を有する、
撮像システムが提供される。
前記撮像装置で生成された画像を表示する表示部と、を備え、
前記撮像装置は、
2次元の撮像面の異なる位置に照射される光を、それぞれが光電変換して、電気信号を生成する複数の光電変換素子を有する光電変換部と、
前記撮像面へ照射光を照射する光源部と、
前記複数の光電変換素子で生成された前記電気信号の変化量が所定値を超えた場合に検出信号を検出する第1検出部と、
を有する、
撮像システムが提供される。
以下、図面を参照して、撮像装置、撮像方法、及び撮像システムの実施形態について説明する。以下では、撮像装置、撮像方法、及び撮像システムの主要な構成部分を中心に説明するが、撮像装置、撮像方法、及び撮像システムには、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
(第1実施形態)
図1は、本開示に係る技術が適用される撮像システム1のシステム構成の一例を示すブロック図である。
図1は、本開示に係る技術が適用される撮像システム1のシステム構成の一例を示すブロック図である。
図1に示すように、本開示に係る技術が適用される撮像システム1は、撮像装置2と、操作部15と、表示部16とを備える。本実施形態に係る撮像システム1は、例えば監視システムの例である。本実施形態に係る撮像装置2は、例えばDVS(Dynamic Vision Sensor)と呼ばれる非同期型の撮像装置であり、例えば監視領域におけるイベント画像と、静止画画像の生成が可能である。この撮像装置2は、本開示の電子機器の一例であり、当該電子機器としては、監視システム、産業用ロボットに搭載されるカメラシステム、車載カメラシステムなどに用いることが可能である。
この撮像装置2は、撮像光学系11、複数の光源部12、記録部13、制御部14及び、撮像部20、を備える構成となっている。
操作部15は、例えばネットワークnwを介して、撮像装置2を操作する。例えば、操作部15は、撮像モードの切り替え信号を入力する。表示部16は、例えばモニタであり、ネットワークnwを介して、イベント画像と、静止画画像と、の表示が可能である。つまり、監視者は、ネットワークnwを介して、監視領域の監視が可能である。
図2は、撮像装置2の構成例を示す模式図である。図3は、撮像部20の撮像面21aと光源部12との配置例を示す平面図である。なお、実施形態においては、X方向と、X方向に対して垂直に交差するY方向と、X方向及びY方向に垂直に交差するZ方向を定義する。図2に示すように、撮像装置2において、撮像光学系11は、例えば単数、又は複数のレンズであり、被写体からの入射光を取り込んで撮像部20の撮像面21a上に結像する。
図2、及び図3に示すように、4つの光源部12は、4方向から撮像面21aへ照射光を照射する。光源部12は、LED光源120wと、光源駆動部125とを有する。LED光源120wは、例えば白色LEDである。光源駆動部125は、制御部14の制御に従い、LED光源120wの消灯、点灯を含め、照射量を変更する。また、光源駆動部125は、4つの光源部12の照射光量を独立に制御可能である。
4つの光源部12は、撮像光学系11を介して撮像面21aに光が入射している状態で、撮像面21aへ照射する照射光を単調増加、又は単調減少させる。すなわち、光源駆動部125は、撮像面21aへ照射する照射光を第1照射量から第2照射量に単調増加させる。或いは、光源駆動部125は、撮像面21aへ照射する照射光を第2照射量から第1照射量に単調減少させる。
撮像部20は、撮像した画像データに対して、画像認識処理等の所定の信号処理を実行し、その処理結果と、後述するアドレスイベントの検出信号(以下、単に「検出信号」と記述する場合がある)とを示すデータを記録部13に出力する。アドレスイベントの検出信号の生成方法については後述する。記録部13は、信号線を介して撮像部20から供給されるデータを記憶する。制御部14は、例えば、マイクロコンピュータによって構成され、撮像部20における撮像動作の制御、画像生成の制御を実行する。なお、制御部14の詳細は、後述する。
[撮像部(アービタ方式)]
図4は、本開示に係る技術が適用される撮像システム1における撮像部20の構成の一例を示すブロック図である。
図4は、本開示に係る技術が適用される撮像システム1における撮像部20の構成の一例を示すブロック図である。
図4に示すように、本開示の撮像部20は、DVSと呼ばれる非同期型の撮像部であり、画素アレイ部21、駆動部22、アービタ部(調停部)23、カラム処理部24、及び信号処理部25を備える構成となっている。上述の撮像面21aは、画素アレイ部21の撮像面である。また、本実施形態に係る画素アレイ部21が、光電変換部に対応する。
上記の構成の撮像部20において、画素アレイ部21には、複数の画素30が行列状(アレイ状)に2次元配列されている。この行列状の画素配列に対して、画素列毎に、垂直信号線VSL(図5参照)が配線される。
複数の画素30のそれぞれは、光電流に応じた電圧のアナログ信号を電気信号として生成する。また、複数の画素30のそれぞれは、電気信号の変化量が所定の閾値を超えたか否かにより、アドレスイベントの有無を検出する。そして、アドレスイベントが生じた際に画素30は、リクエストをアービタ部23に出力する。
駆動部22は、撮像面21aに配置される複数の画素30のそれぞれを駆動して、各画素30で生成された電気信号をカラム処理部24に出力させる。
アービタ部23は、複数の画素30のそれぞれからのリクエストを調停し、調停結果に基づく応答を画素30に送信する。アービタ部23からの応答を受け取った画素30は、検出結果を示す検出信号(アドレスイベントの検出信号)を駆動部22及び信号処理部25に供給する。画素30からの検出信号の読出しについては、複数行読出しとすることも可能である。
カラム処理部24は、例えば、アナログ-デジタル変換器から成り、画素アレイ部21の画素列毎に、その列の画素30から出力されるアナログの電気信号をデジタル信号に変換する処理を行う。そして、カラム処理部24は、アナログ-デジタル変換後のデジタル信号を信号処理部25に供給する。
信号処理部25は、カラム処理部24から供給されるデジタル信号に対して、CDS(Correlated Double Sampling)処理や画像認識処理などの所定の信号処理を実行する。そして、信号処理部25は、処理結果を示すデータと、アービタ部23から供給される検出信号とを信号線を介して記録部13(図1参照)に供給する。
[画素アレイ部の構成例]
図5は、画素アレイ部21の構成の一例を示すブロック図である。
図5は、画素アレイ部21の構成の一例を示すブロック図である。
複数の画素30が行列状に2次元配列されて成る画素アレイ部21において、複数の画素30のそれぞれは、受光部31、電気信号生成部32、及び、アドレスイベント検出部33を有する構成となっている。
上記の構成の画素30において、受光領域の受光部31は、入射光を光電変換して光電流を生成する。そして、受光部31は、駆動部22(図2参照)の制御に従って、電気信号生成部32及びアドレスイベント検出部33のいずれかに、光電変換して生成した光電流を供給する。
電気信号生成部32は、受光領域の受光部31から供給される光電流に応じた電圧の信号を電気信号SIGとして生成し、この生成した電気信号SIGを垂直信号線VSLを介してカラム処理部24(図2参照)に供給する。
アドレスイベント検出部33は、受光領域の受光部31のそれぞれからの光電流を電気信号として、電気信号の変化量が所定の閾値を超えたか否かにより、アドレスイベントの有無を検出する。光電流は、撮像面21aにおける光の照射量に比例する。
アドレスイベントは、例えば、電気信号の変化量が上限の第1閾値を超えた旨を示すオンイベント、及び、その変化量が下限の第2閾値を下回った旨を示すオフイベントから成る。また、アドレスイベントの検出信号は、例えば、オンイベントの検出結果を示す1ビット、及び、オフイベントの検出結果を示す1ビットから成る。なお、アドレスイベント検出部33については、オンイベントのみ、或いはオフイベントのみを検出する構成とすることもできる。例えば、オフイベントのみを検出は、現在の電気信号の変化量が1.25になった場合に、オンイベントを示す検出信号を生成する。すなわち、撮像面21aにおける光の照射量が、25パーセント増加すると、オンイベントを示す検出信号を生成する。なお、本実施形態に係るアドレスイベント検出部33が、第1検出部に対応する。
アドレスイベントが発生した際に、受光領域のアドレスイベント検出部33は、アドレスイベントの検出信号の送信を要求するリクエストをアービタ部23(図2参照)に供給する。そして、アドレスイベント検出部33は、リクエストに対する応答をアービタ部23から受け取ると、アドレスイベントの検出信号を駆動部22及び信号処理部25に供給する。
[画素の回路構成例]
図6は、画素30の回路構成の一例を示す回路図である。上述したように、複数の画素30のそれぞれは、受光部31、電気信号生成部32、及び、アドレスイベント検出部33を有する構成となっている。
図6は、画素30の回路構成の一例を示す回路図である。上述したように、複数の画素30のそれぞれは、受光部31、電気信号生成部32、及び、アドレスイベント検出部33を有する構成となっている。
上記の構成の画素30において、受光部31は、受光素子(光電変換素子)311、転送トランジスタ312、及び、OFG(Over Flow Gate)トランジスタ313を有する構成となっている。転送トランジスタ312及びOFGトランジスタ313としては、例えば、N型のMOS(Metal Oxide Semiconductor)トランジスタが用いられる。転送トランジスタ312及びOFGトランジスタ313は、互いに直列に接続されている。
受光領域の受光素子311は、転送トランジスタ312とOFGトランジスタ313との共通接続ノードN1とグランドとの間に接続されており、入射光を光電変換して入射光の光量に応じた電荷量の電荷を生成する。
受光領域の転送トランジスタ312のゲート電極には、図4に示す駆動部22から転送信号TRGが供給される。転送トランジスタ312は、転送信号TRGに応答して、受光素子311で光電変換された電荷を電気信号生成部32に供給する。
OFGトランジスタ313のゲート電極には、駆動部22から制御信号OFGが供給される。OFGトランジスタ313は、制御信号OFGに応答して、受光素子311で生成された電気信号をアドレスイベント検出部33に供給する。アドレスイベント検出部33に供給される電気信号は、電荷からなる光電流である。
電気信号生成部32は、リセットトランジスタ321、増幅トランジスタ322、選択トランジスタ323、及び、浮遊拡散層324を有する構成となっている。リセットトランジスタ321、増幅トランジスタ322、及び、選択トランジスタ323としては、例えば、N型のMOSトランジスタが用いられる。
電気信号生成部32には、受光部31から転送トランジスタ312によって、受光素子311で光電変換された電荷が供給される。受光部31から供給される電荷は、浮遊拡散層324に蓄積される。浮遊拡散層324は、蓄積した電荷の量に応じた電圧値の電圧信号を生成する。すなわち、浮遊拡散層324は、電荷を電圧に変換する。
リセットトランジスタ321は、電源電圧VDDの電源ラインと浮遊拡散層324との間に接続されている。リセットトランジスタ321のゲート電極には、駆動部22からリセット信号RSTが供給される。リセットトランジスタ321は、リセット信号RSTに応答して、浮遊拡散層324の電荷量を初期化(リセット)する。
増幅トランジスタ322は、電源電圧VDDの電源ラインと垂直信号線VSLとの間に、選択トランジスタ323と直列に接続されている。増幅トランジスタ322は、浮遊拡散層324で電荷電圧変換された電圧信号を増幅する。
選択トランジスタ323のゲート電極には、駆動部22から選択信号SELが供給される。選択トランジスタ323は、選択信号SELに応答して、増幅トランジスタ322によって増幅された電圧信号を電気信号SIGとして垂直信号線VSLを介してカラム処理部24(図4参照)へ出力する。
[制御部の構成]
図7は、制御部14の構成例を示すブロック図である。図7に示すように、制御部14は、モード制御部130と、光源制御部131と、画像生成部132と、入出力部133とを有する。
図7は、制御部14の構成例を示すブロック図である。図7に示すように、制御部14は、モード制御部130と、光源制御部131と、画像生成部132と、入出力部133とを有する。
モード制御部130は、撮像装置2における複数の撮像モードを変更する。第1モードは、複数の光源部12(図2参照)を消灯、或いは、光量を定量に維持し、アドレスイベント検出部33(図6参照)のアドレスイベントの検出信号に基づくイベント画像を生成するモードである。
第2モードは、撮像光学系11(図2参照)を介して撮像面21aに光が入射している状態で、撮像面21aへ照射する照射光を単調増加、又は単調減少させ、アドレスイベント検出部33(図6参照)のアドレスイベントの検出信号の発生回数に基づく階調画像も生成するモードである。第3モードは、第2モードの状態で、イベント画像を生成しないモードである。これにより、第1モードでは、イベント画像が生成され、第2モードでは、イベント画像と、階調画像とが生成され、第3モードでは、階調画像が生成される。例えば、モード1からモード2、又はモード3への切り替えは、操作部15(図1参照)からの切り替え信号により、切り替えることが可能である。或いは、制御部4は、通常はモード1での監視を継続し、インベントの検出数が所定数を超えた場合に、モード2、又はモード3への切り替えを所定の確認時間において継続実行してもよい。これにより、イベントの発生状況を継続監視可能となる。
光源制御部131は、モード制御部130の制御にしたがい、複数の光源部12の光量を制御する。すなわち、光源制御部131は、第1モードでは、複数の光源部12の光量を定量に維持する。好ましくは、複数の光源部12を消灯する。光源制御部131は、第2モード、及び第3モードでは、撮像光学系11(図2参照)を介して撮像面21aに光が入射している状態で、撮像面21aへ照射する照射光を単調増加、又は単調減少させる。
画像生成部132は、第2モード、及び第3モードにおいて、アドレスイベントの検出信号の発生回数に基づく階調画像を生成する。画像生成部132の詳細は後述する。入出力部133は、インターフェースであり、ネットワークを介して、画像信号、操作信号を入出力する。
[第1モード]
図6を参照し、モード制御部130は、第1モードでは、受光部31のOFGトランジスタ313に制御信号OFGを供給することによって当該OFGトランジスタ313を駆動してアドレスイベント検出部33に光電流を供給させる。
図6を参照し、モード制御部130は、第1モードでは、受光部31のOFGトランジスタ313に制御信号OFGを供給することによって当該OFGトランジスタ313を駆動してアドレスイベント検出部33に光電流を供給させる。
そして、受光領域の画素30においてアドレスイベントが検出されると、駆動部22は、その画素30のOFGトランジスタ313をオフ状態にしてアドレスイベント検出部33への光電流の供給を停止させる。次いで、駆動部22は、転送トランジスタ312に転送信号TRGを供給することによって当該転送トランジスタ312を駆動して、受光素子311で光電変換された電荷を浮遊拡散層324に転送させる。
このようにして、上記の構成の画素30が2次元配置されて成る画素アレイ部21を有する撮像部20は、アドレスイベントが検出された受光領域の画素30の電気信号のみをカラム処理部24に出力し、イベント画像が生成される。
[第2モード]
図6を参照しつつ、図8を用いて第2モードを説明する。図8は、画素30のアドレスイベント検出部33(図6参照)のアドレスイベントの検出信号の生成例を示す図である。横軸は時間を示し、縦軸は撮像面21aへの照射量を示す。検出信号asは、撮像光学系11(図2参照)を介して撮像面21aに光が入射している照射量が高い画素30aでの、検出信号の発生タイミングを示す。検出信号bsは、撮像光学系11(図2参照)を介して撮像面21aに光が入射している照射量が低い画素30bでの、検出信号の発生タイミングを示す。
図6を参照しつつ、図8を用いて第2モードを説明する。図8は、画素30のアドレスイベント検出部33(図6参照)のアドレスイベントの検出信号の生成例を示す図である。横軸は時間を示し、縦軸は撮像面21aへの照射量を示す。検出信号asは、撮像光学系11(図2参照)を介して撮像面21aに光が入射している照射量が高い画素30aでの、検出信号の発生タイミングを示す。検出信号bsは、撮像光学系11(図2参照)を介して撮像面21aに光が入射している照射量が低い画素30bでの、検出信号の発生タイミングを示す。
モード制御部130は、第2モードでは、まず、受光部31のOFGトランジスタ313に制御信号OFGを供給することによって当該OFGトランジスタ313を駆動してアドレスイベント検出部33に光電流を供給させる。このとき、図8に示すように、モード制御部130は、撮像光学系11を介した入射光を撮像面21aへ結像させつつ、光源制御部131に、第1照射量L1から第2照射量L2まで単調増加するように、複数の光源部12の光量を制御する。
アドレスイベント検出部33は、例えば、光電流に比例する電気信号が25パーセント増加すると、検出信号を出力する。アドレスイベント検出部33の、比率は25パーセントに限定されず、目的に応じて、任意の比率に設定可能である。例えば、モード制御部130は、操作部15からの操作信号に応じて、比率を設定可能である。
撮像面21aへの入射光量が低い画素30bでは、複数の光源部12の光量が、光量Lbに達すると、アドレスイベント検出部33は、光電流に比例する電気信号が25パーセント増加する度に検出信号bsを時系列に生成する。検出信号bsは、記録部13(図1参照)に記録される。
一方で、入射光量が高い画素30aでは、複数の光源部12の光量が、光量Laに達すると、アドレスイベント検出部33は、光電流に比例する電気信号が25パーセント増加する度に検出信号asを時系列に生成する。検出信号asは、記録部13に記録される。これらから分かるように、撮像光学系11(図2参照)を介して撮像面21aに光が入射している照射量が低くなるにしたがい、検出信号の発生回数が多くなる。
図9は、第2モードでの画素アレイ部21の画素30毎の検出信号の発生回数を模式的に示す図である。このように、撮像面21aへの入射光量が低い画素30ほど、検出信号の発生回数が増加する。
一方で、モード2では、モード1の駆動も維持される。つまり、受光領域の画素30においてアドレスイベントが検出されると、駆動部22は、その画素30のOFGトランジスタ313をオフ状態にしてアドレスイベント検出部33への光電流の供給を停止させる。次いで、駆動部22は、転送トランジスタ312に転送信号TRGを供給することによって転送トランジスタ312を駆動して、受光素子311で光電変換された電荷を浮遊拡散層324に転送させる。
次に、駆動部22は、転送トランジスタ312をオフ状態にして、受光部31のOFGトランジスタ313に制御信号OFGを供給することによって当該OFGトランジスタ313を駆動してアドレスイベント検出部33に光電流を供給させる。このため、モード2では、検出信号as、bsの検出信号の検出数が減少しないように、第1照射量L1から第2照射量L2まで単調増加する時間の短縮化に制限が生じてしまう。
このようにして、上記の構成の画素30が2次元配置されて成る画素アレイ部21を有する撮像部20は、アドレスイベントが検出された受光領域の画素30の電気信号のみをカラム処理部24に出力し、イベント画像が生成される。更に、第2モードでは、検出信号の発生回数に基づく階調画像を生成する。
[第3モード]
再び図6を参照し、モード制御部130は、第3モードでは、画素30のOFGトランジスタ313を常にオフ状態に維持する。また、モード制御部130は、受光部31のOFGトランジスタ313に制御信号OFGを常に供給する。これにより、第3モードでは、OFGトランジスタ313を駆動してアドレスイベント検出部33に光電流を常に供給させる。
再び図6を参照し、モード制御部130は、第3モードでは、画素30のOFGトランジスタ313を常にオフ状態に維持する。また、モード制御部130は、受光部31のOFGトランジスタ313に制御信号OFGを常に供給する。これにより、第3モードでは、OFGトランジスタ313を駆動してアドレスイベント検出部33に光電流を常に供給させる。
また、モード制御部130は、第3モードでは、光源制御部131に、第1照射量L1から第1照射量L2まで単調増加するように、複数の光源部12の光量を制御する。アドレスイベント検出部33は、例えば、光電流に比例する電気信号が25パーセント増加すると、検出信号を出力する。アドレスイベント検出部33の、比率は25パーセントに限定されず、目的に応じて、任意の比率に設定可能である。例えば、モード制御部130は、操作部15からの操作信号に応じて、比率を設定可能である。
照射量が低い画素30bでは、複数の光源部12の光量が、光量Lbに達すると、アドレスイベント検出部33は、光電流に比例する電気信号が25パーセント増加する度に検出信号bsを時系列に生成する。検出信号bsは、記録部13(図1参照)に記録される。
第2モードでは、OFGトランジスタ313をオフ状態にしてアドレスイベント検出部33への光電流の供給を停止させ期間が生じるため、検出信号as、bsは、第1照射量L1から第2照射量L2まで単調増加する時間が短くなるにしたがい、発生回数が低下する傾向をしめすが、第3モードでは、画素30のOFGトランジスタ313をオフ状態に維持し、受光部31のOFGトランジスタ313に制御信号OFGを常に供給するため、第2モードよりも検出信号as、bsの検出精度の低下を抑制できる。
図10は、画像生成部132の階調処理例を説明する図である。図8、及び図9で示す特性に基づき、画像生成部132は、アドレスイベントの検出信号の発生回数に基づく階調画像を生成する。
第2照射量L2と、画素30aの照射量Laとの差である照度差LW1は、検出信号asの発生回数に対応する。同様に、第2照射量L2と、画素30bの照射量Lbとの差である照度差LW1は、検出信号bsの発生回数に対応する。
そこで、画像生成部132は、照度差LW1の演算として、1.25に対して検出信号asの発生回数をべき乗し、更に係数k1を乗算してD1とする。同様に、照度差LW1の演算として、1.25に対して検出信号asの発生回数をべき乗し、更に係数k1を乗算してD2とする。係数k1は、照度差を画素値に変換するための正規化係数である。そして、画像生成部132は、第2照射量L2に対応する画素値DmaxからD1を減じて画素30aの画素値とし、画素値DmaxからD2を減じて画素30bの画素値とする。なお、1.25は、アドレスイベント検出部33の検出閾値の設定値としての比率25パーセンに基づく値である。また、図10から分かるように、第2照射量L2から第1照射量L1に単調減少させる場合にも、アドレスイベント検出部33での、オフイベントでの閾値の設定により、同数の検出信号を生成できる。このように、画像生成部132は、アドレスイベント検出部33で検出された検出信号の回数を、比率(25パーセント)に基づく数値1.25にべき乗した値に応じた画素値を有する画像データを生成する。
図11乃至図14は、モード2での画像生成例である。図11は、撮像光学系11(図2参照)を介して撮像面21aに結像される画像例を示す図である。図12は、所定のタイミングでのイベント画像例を示す図である。図13は、検出回数の数を逆数にした例を示す図である。白になるほど高い値を示す。図14は、画像生成部132で生成した階調画像例を示す図である。図12で示すイベント画像では、撮像光学系11を介して入射される入射光においては、イベントの発生していない画像情報は、得ることはできないものである。このため、例えば侵入者などが、静止していたり、もの影に潜んでいたりしても判別が困難となる。また、図11で示す画像例の細部の情報の把握は困難となる。
これに対して、図14で示す階調画像では、図11で示す画像例と同等レベルの細部の情報も把握可能となる。例えば、雲の濃淡も再現されている。このため、イベントの発生していない画像情報も得ることができ、監視時に細部情報も得ることが可能となる。
図15は、階調処理例の特徴を模式的に示す図である。図15(a)は、図8と同様の図である。横軸は時間を示し、縦軸は撮像面21aへの照射量を示す。検出信号asは、撮像光学系11(図2参照)を介して撮像面21aに光が入射している照射量が高い画素30aでの、検出信号の発生タイミングを示す。検出信号bsは、撮像光学系11(図2参照)を介して撮像面21aに光が入射している照射量が低い画素30bでの、検出信号の発生タイミングを示す。
図15(b)は、第1照射量L1から第2照射量L2まで単調増加する時間を図15(a)よりも長くした場合である。図15(c)は、第1照射量L1から第2照射量L2まで単調増加する時間を図15(b)よりも長くした場合である。アドレスイベント検出部33での検出閾値を現在の照射量に対する比率である25パーセントとしている。このため、照射量が、1.25倍になる度に検出信号as、bsは、生成される。これらからわかるように、検出信号as、bsは、第1照射量L1から第2照射量L2まで単調増加する場合には、第1照射量L1から第2照射量L2まで単調増加する時間がより長くなっても精度の低下は抑制される。また、第1照射量L1から第2照射量L2まで単調増加する時間がより長く維持できる場合には、照射量が非線形的に増加しても検出信号as、bsは、精度の低下は抑制される。
図15は、階調処理例の特徴を模式的に示す図である。図15(a)は、図8と同様の図である。横軸は時間を示し、縦軸は撮像面21aへの照射量を示す。検出信号asは、撮像光学系11(図2参照)を介して撮像面21aに光が入射している照射量が高い画素30aでの、検出信号の発生タイミングを示す。検出信号bsは、撮像光学系11(図2参照)を介して撮像面21aに光が入射している照射量が低い画素30bでの、検出信号の発生タイミングを示す。
図15(b)は、第1照射量L1から第2照射量L2まで単調増加する時間を図15(a)よりも長くした場合である。図15(c)は、第1照射量L1から第2照射量L2まで単調増加する時間を図15(b)よりも長くした場合である。アドレスイベント検出部33での検出閾値を現在の照射量に対する比率である25パーセントとしている。このため、照射量が、1.25倍になる度に検出信号as、bsは、生成される。これらからわかるように、検出信号as、bsは、第1照射量L1から第2照射量L2まで単調増加する場合には、第1照射量L1から第2照射量L2まで単調増加する時間がより長くなっても精度の低下は抑制される。また、第1照射量L1から第2照射量L2まで単調増加する時間がより長く維持できる場合には、照射量が非線形的に増加しても検出信号as、bsは、精度の低下は抑制される。
(調停時間の短縮駆動)
アドレスイベント検出部33の発生頻度が高くなるとアービタ部23(図4参照)での、調停に時間が取られる恐れがある。このため、本実施形態に係る撮像装置2では、複数の光源部121~124の点灯を、順番に行う光源駆動モードを有する。
アドレスイベント検出部33の発生頻度が高くなるとアービタ部23(図4参照)での、調停に時間が取られる恐れがある。このため、本実施形態に係る撮像装置2では、複数の光源部121~124の点灯を、順番に行う光源駆動モードを有する。
図16は、複数の光源部121~124の構成例を示す平面図である。撮像装置2は、複数の光源部121~124を有する。光源駆動モードでは、光源部121を点灯し、最大光量まで照射量を増加させる。次に、光源部122を点灯し、最大光量まで照射量を増加させる。次に、光源部123を点灯し、最大光量まで照射量を増加させる。次に、光源部124を点灯し、最大光量まで照射量を増加させる。これにより、撮像面21aの照射量は、画素30毎の照射量の変化かを異ならせつつ、全体としては第1照射量L1から第2照射量L2まで単調増加する。
このとき、アドレスイベント検出部33の発生頻度は、まず、光源部121の照射範囲で増加し、次に、光源部122の照射範囲で増加し、次に、光源部123の照射範囲で増加し、次に、光源部124の照射範囲で増加する。これにより、1照射量L1から第2照射量L2まで単調増加する際の、アービタ部23(図4参照)での調停発生領域が分散される。このため、アービタ部23(図4参照)での、調停時間が短縮化され、第1照射量L1から第2照射量L2まで単調増加する時間をより短縮化しても、検出信号as、bsの検出精度の低下が抑制される。
図17は、撮像装置2の階調画像の生成例を示すフロチャートである。図16に示すように、制御部14の光源制御部131は、撮像光学系11を介して撮像面21aに光が入射している状態で、撮像面21aへ照射する複数の光源部12の照射光を単調増加、又は単調減少させる(ステップS100)。
次に、制御部14のモード制御部130は、各画素30から出力される検出信号を記録部13に記録させる(ステップS102)。そして、制御部14の画像生成部132は、記録部13に記録される各画素30の検出信号の回数に基づき、階調画像を生成し(ステップS104)、階調生成処理を終了する。
以上説明したように、本実施形態に係る撮像装置2は、撮像光学系11を介して撮像面21aに光が入射している状態で、撮像面21aへ照射する複数の光源部12からの照射光を単調増加、又は単調減少させ、画素30の光電変換素子で照射光を光電変換して電気信号を生成し、電気信号の変化量の絶対値が、閾値を超えた場合の検出信号の回数に基づき、階調画像を生成することとした。これにより、検出信号の回数が、撮像光学系11を介して撮像面21aに入射している照射量に応じて変化し、検出信号の回数に応じた輝度信号への変換が可能となる。
(第2実施形態)
第2実施形態に係る撮像装置2は、光源部が複数の波長の光を撮像面21aへ照射可能である点で、第1実施形態に係る撮像装置2と相違する。以下では、第1実施形態に係る撮像装置2と相違する点を説明する。
第2実施形態に係る撮像装置2は、光源部が複数の波長の光を撮像面21aへ照射可能である点で、第1実施形態に係る撮像装置2と相違する。以下では、第1実施形態に係る撮像装置2と相違する点を説明する。
図18は、第2実施形態に係る光源部12の構成例を示すブロック図である。光源部12は、赤色LED光源120rと、緑色LED光源120gと、青色LED光源120bと、光源駆動部125とを有する。赤色LED光源120rは、第1波長である赤色光を撮像面21aへ照射する。緑色LED光源120gは、第2波長である緑色光を撮像面21aへ照射する。青色LED光源120bは、第3波長である青色光を撮像面21aへ照射する。光源駆動部125は、緑色LED光源120gと、青色LED光源120bと、光源駆動部125との照射量を独立に制御可能である。
図19は、画素30のアドレスイベント検出部33(図6参照)のアドレスイベントの検出信号の生成例を示す図である。横軸は時間を示し、縦軸は撮像面21aへの照射量を示す。図19(a)は、検出信号rsは、撮像光学系11(図2参照)を介して撮像面11aに光が入射している状態で、赤色LED光源120rの照射量を単純増加した場合の検出信号の発生タイミングを示す。図19(b)は、検出信号gsは、撮像光学系11(図2参照)を介して撮像面11aに光が入射している状態で、緑色LED光源120gの照射量を単純増加した場合の検出信号の発生タイミングを示す。図19(c)は、検出信号bsは、撮像光学系11(図2参照)を介して撮像面11aに光が入射している状態で、青色LED光源120bの照射量を単純増加した場合の検出信号の発生タイミングを示す。
図19に示すように、画素30への赤色光、緑色光、青色光の照射量は異なる。このため、図19(a)~(c)に示すように、撮像面21aへ照射光を赤色光、緑色光、青色光に変えることにより、検出信号rs、検出信号gs、検出信号bsの検出数が異なる。これから分かるように、画像生成部132(図7参照)では、検出信号rs、検出信号gs、検出信号bsの検出数に基づき、R、G、Bに対応する画像データの生成が可能となる。そして、表示部16(図1参照)は、R、G、Bに対応する画像データを用いて、カラー画像の表示が可能となる。
以上説明したように、本実施形態に係る撮像装置2は、撮像光学系11(図2参照)を介して撮像面11aに光が入射している状態で、光源部12の赤色LED光源120r、緑色LED光源120g、青色LED光源120bも照射量を順に単調増加、又は単調減少させ、画像生成部132は、それぞれの検出信号rs、検出信号gs、検出信号bsの検出数に基づく画像データを生成することした。撮像面11aに照射される色成分の照射量に応じて、検出信号rs、検出信号gs、検出信号bsの検出数が変わるため、撮像面11aに入射する赤色光、緑色光、青色光の照射量に応じた輝度値を得ることが可能となる。
<本開示に係る技術の適用例>
本開示に係る技術は、様々な製品に適用することができる。以下に、より具体的な適用例について説明する。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される測距装置として実現されてもよい。
本開示に係る技術は、様々な製品に適用することができる。以下に、より具体的な適用例について説明する。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される測距装置として実現されてもよい。
[移動体]
図20は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図20に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
図20は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図20に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図20では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
ここで、図21は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910、7912、7914、7916、7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912、7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
尚、図21には、それぞれの撮像部7910、7912、7914、7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b、cは、それぞれサイドミラーに設けられた撮像部7912、7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910、7912、7914、7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920、7922、7924、7926、7928、7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920、7926、7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
図20に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。尚、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。尚、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図20の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
尚、図20に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部7910、7912、7914、7916、7918や、車外情報検出部7920、7922、7924、7926、7928、7930や、運転者状態検出部7510等に適用され得る。具体的には、これらの撮像部や検出部に対して、本開示の撮像装置を有する図1の撮像システム1を適用することができる。そして、本開示に係る技術を適用することにより、センサノイズ等のノイズイベントの影響を緩和し、真イベントの発生を確実に、かつ、迅速に感知することができるため、安全な車両走行を実現することが可能となる。
なお、本技術は以下のような構成を取ることができる。
(1)
2次元の撮像面の異なる位置に照射される光を、それぞれが光電変換して、電気信号を生成する複数の光電変換素子を有する光電変換部と、
前記撮像面へ照射光を照射する光源部と、
前記複数の光電変換素子で生成された前記電気信号の変化量が所定値を超えた場合に検出信号を検出する第1検出部と、
を備える、撮像装置。
2次元の撮像面の異なる位置に照射される光を、それぞれが光電変換して、電気信号を生成する複数の光電変換素子を有する光電変換部と、
前記撮像面へ照射光を照射する光源部と、
前記複数の光電変換素子で生成された前記電気信号の変化量が所定値を超えた場合に検出信号を検出する第1検出部と、
を備える、撮像装置。
(2)
前記撮像面に光を入射する撮像光学系を、
更に備える、(1)に記載の撮像装置。
前記撮像面に光を入射する撮像光学系を、
更に備える、(1)に記載の撮像装置。
(3)
前記光源部は、前記撮像光学系を介して前記撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させる、(2)に記載の撮像装置。
前記光源部は、前記撮像光学系を介して前記撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させる、(2)に記載の撮像装置。
(4)
前記第1検出部で検出された検出信号の回数に関する値を2次元座標に配列した画像データとして生成する画像生成部を、
更に備える、(2)又は(3)に記載の撮像装置。
前記第1検出部で検出された検出信号の回数に関する値を2次元座標に配列した画像データとして生成する画像生成部を、
更に備える、(2)又は(3)に記載の撮像装置。
(5)
前記光源部を制御する光源駆動部を更に備える、(4)に記載の撮像装置。
前記光源部を制御する光源駆動部を更に備える、(4)に記載の撮像装置。
(6)
前記光源駆動部は、前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させる、(5)に記載の撮像装置。
前記光源駆動部は、前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させる、(5)に記載の撮像装置。
(7)
前記光源駆動部は、前記撮像面へ照射する照射光を第2照射量から第1照射量に単調減少させる、(6)に記載の撮像装置。
前記光源駆動部は、前記撮像面へ照射する照射光を第2照射量から第1照射量に単調減少させる、(6)に記載の撮像装置。
(8)
前記第1検出部は、前記電気信号の変化量が所定の比率を超えた場合に前記検出信号を検出する、(7)に記載の撮像装置。
前記第1検出部は、前記電気信号の変化量が所定の比率を超えた場合に前記検出信号を検出する、(7)に記載の撮像装置。
(9)
前記画像生成部は、前記第1検出部で検出された前記検出信号の回数を、前記比率に基づく数値にべき乗した値に応じた画素値を、前記画像データとして生成する、(8)に記載の撮像装置。
前記画像生成部は、前記第1検出部で検出された前記検出信号の回数を、前記比率に基づく数値にべき乗した値に応じた画素値を、前記画像データとして生成する、(8)に記載の撮像装置。
(10)
前記光源部は、複数の光源を有し、
前記光源駆動部は、前記複数の光源を異なる時間範囲出で単調増加、又は単調減少させる、(1)乃至(9)のいずれか一項に記載の撮像装置。
前記光源部は、複数の光源を有し、
前記光源駆動部は、前記複数の光源を異なる時間範囲出で単調増加、又は単調減少させる、(1)乃至(9)のいずれか一項に記載の撮像装置。
(11)
前記光源部は、第1波長の第1光源と、前記第1波長と異なる第2波長の第2光源とを有し、
前記光源駆動部は、前記第1光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第1画像データとして生成する(10)に記載の撮像装置。
前記光源部は、第1波長の第1光源と、前記第1波長と異なる第2波長の第2光源とを有し、
前記光源駆動部は、前記第1光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第1画像データとして生成する(10)に記載の撮像装置。
(12)
前記第1画像データを生成した後に、
前記光源駆動部は、前記第2光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第2画像データとして生成する、(11)に記載の撮像装置。
前記第1画像データを生成した後に、
前記光源駆動部は、前記第2光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第2画像データとして生成する、(11)に記載の撮像装置。
(13)
前記光源部は、前記第1波長、及び前記第2波長と異なる第3波長の第3光源を更に有し、
前記第2画像データを生成した後に、
前記光源駆動部は、前記第3光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第3画像データとして生成する、(12)に記載の撮像装置。
前記光源部は、前記第1波長、及び前記第2波長と異なる第3波長の第3光源を更に有し、
前記第2画像データを生成した後に、
前記光源駆動部は、前記第3光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第3画像データとして生成する、(12)に記載の撮像装置。
(14)
前記画像生成部は、前記第1画像データと、前記第2画像データと、前記第3画像データと、に基づくカラー画像データを生成する、(13)に記載の撮像装置。
前記画像生成部は、前記第1画像データと、前記第2画像データと、前記第3画像データと、に基づくカラー画像データを生成する、(13)に記載の撮像装置。
(15)
前記第1乃至第3光源は、赤色LED、青色LED、及び緑色LEDのいずれかである、(14)に記載の撮像装置。
前記第1乃至第3光源は、赤色LED、青色LED、及び緑色LEDのいずれかである、(14)に記載の撮像装置。
(16)
前記第1検出部は、前記電気信号の信号レベルが増大する方向の変化量の絶対値が第1閾値を超えたときに前記検出信号を検出するとともに、前記電気信号の信号レベルが減少する方向の変化量の絶対値が第2閾値を超えたときに前記検出信号を検出する、(1)乃至(15)のいずれか一項に記載の撮像装置。
前記第1検出部は、前記電気信号の信号レベルが増大する方向の変化量の絶対値が第1閾値を超えたときに前記検出信号を検出するとともに、前記電気信号の信号レベルが減少する方向の変化量の絶対値が第2閾値を超えたときに前記検出信号を検出する、(1)乃至(15)のいずれか一項に記載の撮像装置。
(17)
前記光源部の光源を消灯、或いは、光量を定量に維持し、前記検出信号に基づく画像を生成する第1モードと、
前記光源部の光源を点灯し、前記撮像光学系を介して前記撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させ、前記検出信号の回数に基づく画像を生成する第2モードと、
を切り替える制御部を更に備える、
(2)乃至(15)のいずれか一項に記載の撮像装置。
前記光源部の光源を消灯、或いは、光量を定量に維持し、前記検出信号に基づく画像を生成する第1モードと、
前記光源部の光源を点灯し、前記撮像光学系を介して前記撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させ、前記検出信号の回数に基づく画像を生成する第2モードと、
を切り替える制御部を更に備える、
(2)乃至(15)のいずれか一項に記載の撮像装置。
(18)
前記第2モードで、前記検出信号に基づく画像を生成しない第3モードを、更に有する、(17)に記載の撮像装置。
前記第2モードで、前記検出信号に基づく画像を生成しない第3モードを、更に有する、(17)に記載の撮像装置。
(19)
撮像光学系を介して撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させ、
複数の光電変換素子で前記照射光を光電変換して電気信号を生成し、
前記電気信号の変化量の絶対値が、所定の閾値を超えた場合の検出信号の回数を検出する、撮像方法。
撮像光学系を介して撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させ、
複数の光電変換素子で前記照射光を光電変換して電気信号を生成し、
前記電気信号の変化量の絶対値が、所定の閾値を超えた場合の検出信号の回数を検出する、撮像方法。
(20)
撮像装置と、
前記撮像装置で生成された画像を表示する表示部と、を備え、
前記撮像装置は、
2次元の撮像面の異なる位置に照射される光を、それぞれが光電変換して、電気信号を生成する複数の光電変換素子を有する光電変換部と、
前記撮像面へ照射光を照射する光源部と、
前記複数の光電変換素子で生成された前記電気信号の変化量が所定値を超えた場合に検出信号を検出する第1検出部と、
を有する、
撮像システム。
撮像装置と、
前記撮像装置で生成された画像を表示する表示部と、を備え、
前記撮像装置は、
2次元の撮像面の異なる位置に照射される光を、それぞれが光電変換して、電気信号を生成する複数の光電変換素子を有する光電変換部と、
前記撮像面へ照射光を照射する光源部と、
前記複数の光電変換素子で生成された前記電気信号の変化量が所定値を超えた場合に検出信号を検出する第1検出部と、
を有する、
撮像システム。
本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
1:撮像システム、2:撮像装置、10:第2光源部、11:撮像光学系、12光源部部、14:制御部、15:操作部、16:表示部、20:撮像部、21a:撮像面、33:アドレスイベント検出部(第1検出部)、40 制御部、100:第2光源駆動部、120b:青色LED光源、120g:緑色LED光源、120r:赤色LED光源、120w:LED光源、125:光源駆動部、130:モード制御部、131:光源制御部、132:画像生成部、311:光電変換素子。
Claims (20)
- 2次元の撮像面の異なる位置に照射される光を、それぞれが光電変換して、電気信号を生成する複数の光電変換素子を有する光電変換部と、
前記撮像面へ照射光を照射する光源部と、
前記複数の光電変換素子で生成された前記電気信号の変化量が所定値を超えた場合に検出信号を検出する第1検出部と、
を備える、撮像装置。 - 前記撮像面に光を入射する撮像光学系を、
更に備える、請求項1に記載の撮像装置。 - 前記光源部は、前記撮像光学系を介して前記撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させる、請求項2に記載の撮像装置。
- 前記第1検出部で検出された検出信号の回数に関する値を2次元座標に配列した画像データとして生成する画像生成部を、
更に備える、請求項2に記載の撮像装置。 - 前記光源部を制御する光源駆動部を更に備える、請求項4に記載の撮像装置。
- 前記光源駆動部は、前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させる、請求項5に記載の撮像装置。
- 前記光源駆動部は、前記撮像面へ照射する照射光を第2照射量から第1照射量に単調減少させる、請求項6に記載の撮像装置。
- 前記第1検出部は、前記電気信号の変化量が所定の比率を超えた場合に前記検出信号を検出する、請求項7に記載の撮像装置。
- 前記画像生成部は、前記第1検出部で検出された前記検出信号の回数を、前記比率に基づく数値にべき乗した値に応じた画素値を、前記画像データとして生成する、請求項8に記載の撮像装置。
- 前記光源部は、複数の光源を有し、
前記光源駆動部は、前記複数の光源を異なる時間範囲出で単調増加、又は単調減少させる、請求項9に記載の撮像装置。 - 前記光源部は、第1波長の第1光源と、前記第1波長と異なる第2波長の第2光源とを有し、
前記光源駆動部は、前記第1光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第1画像データとして生成する、請求項10に記載の撮像装置。 - 前記第1画像データを生成した後に、
前記光源駆動部は、前記第2光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第2画像データとして生成する、請求項11に記載の撮像装置。 - 前記光源部は、前記第1波長、及び前記第2波長と異なる第3波長の第3光源を更に有し、
前記第2画像データを生成した後に、
前記光源駆動部は、前記第3光源の照射光を用いて前記撮像面へ照射する照射光を第1照射量から第2照射量に単調増加させ、
前記画像生成部は、前記画像データを第3画像データとして生成する、請求項12に記載の撮像装置。 - 前記画像生成部は、前記第1画像データと、前記第2画像データと、前記第3画像データと、に基づくカラー画像データを生成する、請求項13に記載の撮像装置。
- 前記第1乃至第3光源は、赤色LED,青色LED,及び緑色LEDのいずれかである、請求項14に記載の撮像装置。
- 前記第1検出部は、前記電気信号の信号レベルが増大する方向の変化量の絶対値が第1閾値を超えたときに前記検出信号を検出するとともに、前記電気信号の信号レベルが減少する方向の変化量の絶対値が第2閾値を超えたときに前記検出信号を検出する、請求項1に記載の撮像装置。
- 前記光源部の光源を消灯、或いは、光量を定量に維持し、前記検出信号に基づく画像を生成する第1モードと、
前記光源部の光源を点灯し、前記撮像光学系を介して前記撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させ、前記検出信号の回数に基づく画像を生成する第2モードと、
を切り替える制御部を更に備える、
請求項2に記載の撮像装置。 - 前記第2モードで、前記検出信号に基づく画像を生成しない第3モードを、更に有する、請求項17に記載の撮像装置。
- 撮像光学系を介して撮像面に光が入射している状態で、前記撮像面へ照射する照射光を単調増加、又は単調減少させ、
複数の光電変換素子で前記照射光を光電変換して電気信号を生成し、
前記電気信号の変化量の絶対値が、所定の閾値を超えた場合の検出信号の回数を検出する、撮像方法。 - 撮像装置と、
前記撮像装置で生成された画像を表示する表示部と、を備え、
前記撮像装置は、
2次元の撮像面の異なる位置に照射される光を、それぞれが光電変換して、電気信号を生成する複数の光電変換素子を有する光電変換部と、
前記撮像面へ照射光を照射する光源部と、
前記複数の光電変換素子で生成された前記電気信号の変化量が所定値を超えた場合に検出信号を検出する第1検出部と、
を有する、
撮像システム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023173133 | 2023-10-04 | ||
| JP2023-173133 | 2023-10-04 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025074741A1 true WO2025074741A1 (ja) | 2025-04-10 |
Family
ID=95282997
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/029011 Pending WO2025074741A1 (ja) | 2023-10-04 | 2024-08-14 | 撮像装置、撮像方法、及び撮像システム |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025074741A1 (ja) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020057988A (ja) * | 2018-10-04 | 2020-04-09 | 株式会社ソニー・インタラクティブエンタテインメント | センサモジュール、電子機器、被写体の検出方法およびプログラム |
| WO2021038750A1 (ja) * | 2019-08-28 | 2021-03-04 | 株式会社ソニー・インタラクティブエンタテインメント | センサシステム、画像処理装置、画像処理方法およびプログラム |
| JP2021197710A (ja) * | 2020-06-18 | 2021-12-27 | ソニーセミコンダクタソリューションズ株式会社 | センサ装置、制御方法、プログラム |
| WO2023026880A1 (ja) * | 2021-08-26 | 2023-03-02 | ソニーグループ株式会社 | 測定装置、測定方法、プログラム |
-
2024
- 2024-08-14 WO PCT/JP2024/029011 patent/WO2025074741A1/ja active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2020057988A (ja) * | 2018-10-04 | 2020-04-09 | 株式会社ソニー・インタラクティブエンタテインメント | センサモジュール、電子機器、被写体の検出方法およびプログラム |
| WO2021038750A1 (ja) * | 2019-08-28 | 2021-03-04 | 株式会社ソニー・インタラクティブエンタテインメント | センサシステム、画像処理装置、画像処理方法およびプログラム |
| JP2021197710A (ja) * | 2020-06-18 | 2021-12-27 | ソニーセミコンダクタソリューションズ株式会社 | センサ装置、制御方法、プログラム |
| WO2023026880A1 (ja) * | 2021-08-26 | 2023-03-02 | ソニーグループ株式会社 | 測定装置、測定方法、プログラム |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11863911B2 (en) | Imaging system, method of controlling imaging system, and object recognition system | |
| US11895398B2 (en) | Imaging device and imaging system | |
| US11683606B2 (en) | Imaging device and electronic equipment | |
| US12184995B2 (en) | Imaging device and imaging method for preventing an unnecessary event | |
| JP7638985B2 (ja) | 撮像装置及び撮像方法 | |
| US12136345B2 (en) | Motion vector imaging alert system | |
| JPWO2017217177A1 (ja) | 画像処理装置、および撮像装置、ならびに画像処理システム | |
| JP2025092599A (ja) | 撮像装置、電子機器及び撮像方法 | |
| JP2023093778A (ja) | 撮像装置及び撮像方法 | |
| WO2025047518A1 (ja) | 光検出装置 | |
| WO2025074741A1 (ja) | 撮像装置、撮像方法、及び撮像システム | |
| WO2024106169A1 (ja) | 光検出素子及び電子機器 | |
| WO2025013515A1 (ja) | 光検出装置、撮像装置及び電子機器 | |
| JP2024073899A (ja) | 撮像素子 | |
| WO2024057471A1 (ja) | 光電変換素子、固体撮像素子、測距システム | |
| WO2023032298A1 (ja) | 固体撮像装置 | |
| WO2022065032A1 (ja) | 撮像装置及び撮像方法 | |
| WO2025253973A1 (ja) | 情報処理装置、撮像装置および情報処理方法 | |
| WO2025105333A1 (ja) | 固体撮像装置 | |
| WO2024048292A1 (ja) | 光検出素子、撮像装置、及び車両制御システム | |
| WO2022181265A1 (ja) | 画像処理装置、画像処理方法及び画像処理システム | |
| WO2021229983A1 (ja) | 撮像装置及びプログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24874355 Country of ref document: EP Kind code of ref document: A1 |